Dans la partie « administration », une simple case à cocher est apparue pour filtrer les robots, qui peuvent générer des données parasites et fausser l’analyse. Malgré leur omniprésence sur le web (au moins 50% du trafic), la plupart des robots n'ont pas le comportement adéquat pour être comptabilisés dans Google Analytics. Ce nouveau filtre concerne donc une part restreinte des robots.
D’autre part, un nouveau rapport « Analyses comparatives » permet de comparer les données du site avec les valeurs moyennes d’autres sites* selon trois critères : le secteur d'activité, le secteur géographique et le niveau d’audience.
La granularité des critères semble assez fine. Pour l’instant, les comparaisons disponibles sont limitées, mais elles devraient être plus nombreuses dans l’avenir. Nous souhaitons donc « longue vie » à ce rapport qui avait disparu de Google Analytics depuis plusieurs années.
* Les valeurs moyennes utilisées sont issues des données de sites utilisant Google Analytics et ayant autorisé le partage anonyme des données avec Google.
Tout ce qui concoure à améliorer la fiabilité des données recueillies devrait être mis en place, pour prendre des décisions sur une base saine. Les éventuelles baisses de trafic liées aux robots devraient être marginales en termes de volume, mais peuvent avoir un impact positif sur les taux de conversion.
En revanche, l’analyse comparative est plus délicate à utiliser : bien que les critères disponibles soient paramétrables, il faut utiliser ce rapport pour analyser des tendances. Les volumes, périodes d’analyse et segments utilisés doivent être considérés en tant qu’indicateurs.