L’idée toute faite que les données affichées dans les outils sont réelles et fiables est à proscrire. Le SPAM de forme « ghost referral » a été particulièrement agressif en 2015 : il s’agit de fausses visites envoyées directement dans les données, sans aucune action sur votre site. Avec plus d’un quart du trafic réel d’un site, cela fausse complètement l’analyse.
Les nombreuses migrations vers le HTTPS ont également rendu plus complexe l’analyse des données des sites HTTP puisqu’elles s’accompagnent, dans la plupart des cas, d’un cryptage des informations de « referrer » (= sites référents). Le trafic issu de Wikipedia est par exemple aujourd’hui inconnu des sites HTTP, il a été transféré dans les accès directs au site.
Les AdBlockers, quant à eux, concernent en premier lieu le suivi de performance des campagnes. Leur utilisation masque les publicités et perturbe complètement le bon déroulement d’une campagne. Il est possible d’évaluer la part d’utilisateurs utilisant un AdBlocker qui visitent un site, mais l’année 2016 semble promettre un changement des pratiques publicitaires pour traiter le problème à la source : proposer des publicités moins intrusives et plus « éthiques ».
La fin du support de la version « classique » de Google Analytics étant toujours possible à partir de mars 2016 (aucune nouvelle date plus précise n’a été fournie), Universal Analytics devient le standard mais ses nouvelles possibilités sont rarement exploitées à 100%. Google Tag Manager, avec sa V2, offre de plus en plus d’agilité. Ses capacités et ses atouts restent également assez sous-exploitées.
Pour l’année qui commence, on peut donc légitimement s’attendre à une attention particulière sur