J'utilise Awstats depuis de nombreuses années pour traiter mes fichiers journaux. Mais il me manque beaucoup de possibilités (comme les rapports inter-domaines) et je déteste être coincé avec des champs supplémentaires que j'ai créés il y a des années. Quoi qu'il en soit, je ne vais pas continuer à utiliser ce script.
Existe-t-il une solution moderne d'analyse de journaux Apache basée sur des technologies de stockage modernes telles que NoSQL ou au moins en quelque sorte prête à gérer efficacement de grands ensembles de données?
Je recherche avant tout quelque chose qui génère de bons résultats de tri et de recherche dans Nice, axés sur l'analyse Web, avant de devoir écrire mes propres interfaces. (donc graylog2 n'est pas une option)
Cette question concerne uniquement les solutions basées sur les fichiers journaux.
Splunk peut importer des journaux Apache http://docs.splunk.com/Documentation/Splunk/4.3.2/Data/Apachelogslocal
Ou commentez cette réponse sur débordement de pile
Une option relativement récente consiste à tilisez Flume pour collecter les journaux et tilisez le plug-in d'évier MongoDB pour Flume pour écrire les événements dans MongoDB.
Au cas où quelqu'un d'autre se heurterait à ce problème: Ma solution pour le moment était d'utiliser Goaccess sur les fichiers journaux ou sur des sous-ensembles utilisant cat
et grep
. Cela peut sembler une régression par rapport à awstats ou à n’importe quel logiciel avec un certain stockage des résultats, mais ses performances sont excellentes pour l’analyse ad hoc de fichiers journaux.