Vous avez élaboré une stratégie de référencement et réalisé des optimisations sur votre site. Pourtant, plusieurs mois après vos premières actions, votre site ne progresse pas dans les résultats ?
De nombreux facteurs sont évalués par les algorithmes des moteurs de recherche. S’il n’est pas toujours facile d’identifier précisément ce qui bloque, il existe des cas de figure récurrents qui expliquent les mauvaises performances. Bien qu’un audit approfondi soit le meilleur moyen d’établir un diagnostic, les scénarios listés dans cet article vous permettront peut-être de mieux comprendre vos mauvais résultats, et potentiellement d’identifier de nouvelles pistes d’optimisation.
Les contenus ont une importance capitale en SEO. Les moteurs de recherche, quel que soit le nombre de critères qu’ils prennent en compte, cherchent avant tout à répondre correctement aux demandes des internautes. Cela passe d’abord par des contenus pertinents, qui correspondent aux intentions de recherche des utilisateurs.
Passons sans plus attendre en revue les déficits d’optimisation liés au contenu les plus courants.
On parle de contenus dupliqués quand un même contenu (ou des contenus très similaires) sont repris sur plusieurs pages, sur un même site ou à travers différents sites. Le contenu dupliqué pose problème pour le référencement. Lors de leur exploration, les moteurs de recherche sont confrontés à des pages similaires, et peuvent difficilement déterminer la page à positionner. Dans certains cas, les pages concernées sont simplement ignorées et aucune d'entre elles n’atteindra la première page de résultats.
Renseigner ses mots-clés cibles çà et là dans ses titres et ses contenus n’est pas suffisant pour se positionner. Pour espérer ressortir dans les résultats sur les requêtes que l’on vise, il faut également s’assurer que les contenus proposés correspondent aux intentions de recherche rattachées aux requêtes en question.
Exemple avec la requête « meuble en palette » : sur cette requête, Google semble favoriser les images, et les articles proposant différentes idées ou tutoriels pour construire des meubles avec des palettes. Une page de catégorie « meubles en palette » d’un site e-commerce pourra difficilement se positionner car son contenu ne correspond pas à l’intention de recherche identifiée par le moteur de recherche. En revanche, un article relativement complet et bien optimisé aura lui plus de chance d'apparaître. C’est donc en misant sur des contenus informatifs que le site pourra espérer générer du trafic sur cette thématique.
Il est de ce fait important de tenir compte des intentions de recherche associées à chaque mot-clé : en étudiant les contenus que les moteurs de recherche favorisent dans leur classement et en adaptant sa stratégie de contenus. Produire et optimiser des contenus prend du temps, alors autant faire en sorte que le dispositif mis en place corresponde bien aux objectifs de positionnement.
La quantité de contenus « attendue » par les moteurs de recherche n’est pas la même sur toutes les requêtes. Sur certains mots-clés concurrentiels, il est parfois nécessaire de couvrir l’ensemble d’un sujet pour pouvoir se positionner. Dans ces cas-là, les contenus qui sont trop peu développés peuvent difficilement rivaliser.
La quantité de contenu est donc également un paramètre à prendre en compte. Pour avoir toutes les chances de développer de la visibilité sur un sujet ou une requête, assurez vous que vos pages proposent un niveau d’informations suffisant pour rivaliser avec la concurrence. Dans certains cas un contenu de 500 mots bien optimisé suffira, dans d’autres cas, il faudra aller plus loin.
Proposer des contenus uniques, riches et travaillés et une première brique essentielle au développement réussi de sa visibilité organique. Mais cela ne suffit pas toujours, notamment lorsque l’on évolue dans un environnement très concurrentiel.
Google n’évalue pas la pertinence d’un site, d’une page qu’à travers ses contenus. La présence de liens vers le site depuis d’autres domaines, ou de citations sur le web contribuent à sa « notoriété ». Et c’est également un paramètre pris en compte par le moteur de recherche.
Pour faire simple, les liens qui sont faits d’un site à un autre sont considérés comme des « votes » par les moteurs, ou plutôt comme des signes qui témoignent de la pertinence du contenu vers lequel on souhaite rediriger les utilisateurs. Plus un site, une page reçoit de liens de qualité depuis d’autres sites, plus il y a de chances que Google les considère comme pertinents, et les positionne dans ses pages de résultats. Evidemment, le nombre de liens n’est pas le seul critère pris en compte par le moteur, la confiance apportée aux sites référents (entre autres) est également déterminante.
L’importance de développer la notoriété d’un site n’est pas la même d’une thématique à une autre. Sur certains sujets/mots-clés, travailler correctement ses contenus peut suffire pour atteindre les premiers résultats. Mais dès lors que l’on rentre en concurrence avec des sites qui bénéficient d’une notoriété importante, développer ce levier devient également indispensable pour rivaliser et se faire une place dans les premiers résultats.
Si vous évoluez dans un contexte concurrentiel, ou que votre site internet est relativement récent, il est possible que votre notoriété soit trop peu développée par rapport à celle de vos concurrents. Cela peut expliquer que votre site peine à performer dans les moteurs de recherche. Dans ces cas-là, réaliser un audit de vos backlinks vous permettra d’établir un état des lieux précis de votre notoriété, et d’envisager des actions permettant son développement.
Comme évoqué un peu plus haut, les liens faits depuis un site à un autre n’ont pas tous le même poids. Un lien vers votre site provenant d’un site de confiance (exemple : un site gouvernemental) aura un apport bénéfique pour votre notoriété. Tandis qu’un lien reçu depuis un site de spam sera ignoré (dans le meilleur des cas) ou pourra vous pénaliser (si vous recevez un nombre important ou une majorité de liens de ce type).
Un site qui reçoit une part très importante de « mauvais » liens est donc autant (voir davantage) pénalisé qu’un site qui ne reçoit aucun lien. Les déficits liés à la notoriété ne concernent donc pas que l’absence de liens, mais également les sites qui reçoivent trop de liens de mauvaise qualité. Là aussi, un audit approfondi permet de mettre en relief les problèmes de ce type, et d’envisager des actions correctives.
Les aspects techniques du référencement, lorsqu’ils ne sont pas maîtrisés ou assez pris en compte, peuvent pénaliser le positionnement d’un site. La réalisation d’un audit technique est utile pour vérifier qu’aucun facteur de ce type ne contraigne l’exploration du site par les moteurs de recherche.
Voici les problèmes techniques les plus courants, qui touchent peut être votre site internet.
La balise meta robots est une balise HTML présente (normalement) sur toutes les pages, et destinée aux moteurs de recherche. Celle-ci permet d’indiquer aux robots d’exploration le comportement à adopter lors de leur passage sur un site. Les directives les plus courantes de la balise sont :
Cette balise est utile dans certains cas, par exemple sur un environnement de développement, afin que les pages ne soient pas visibles du public ni connues des moteurs de recherche avant la mise en ligne finale. En revanche, il n’est pas rare que la balise soit mal paramétrée et interdise l’exploration/l’indexation de l’ensemble d’un site que l’on souhaiterait pourtant rendre visible organiquement. Dans ces cas-là, le paramétrage rend le référencement par les moteurs de recherche tout simplement impossible.
L’implémentation de cette balise est donc un des premiers éléments techniques à vérifier, et potentiellement à modifier pour résoudre les problèmes de positionnement. Pour permettre le référencement, celle-ci doit être sous la forme : <meta name=”robots” content=”noindex, nofollow”>.
A noter que cette directive existe aussi sous la forme d’en-tête http, directement dans la réponse du serveur. Il est donc nécessaire de vérifier que les en-têtes http de vos pages ne comportent pas non plus de directives de ce type : X-Robots-Tag: noindex
Le fichier robots.txt est un fichier présent à la racine d’un serveur web, qui permet d’encadrer le trafic des robots d’exploration en autorisant (instructions « allow ») ou non (instructions « disallow ») l’exploration d’un site ou de certains de ses répertoires.
Comme la balise meta robots, les fichiers robots.txt sont utiles dans de nombreux cas. Par exemple, pour éviter que des répertoires d’un site ne soient explorés si les pages qu’ils contiennent ne sont pas pertinentes pour le référencement. Dans d’autres cas, il peut arriver que le fichier soit paramétré pour interdire à tort l’exploration de pages que l’on souhaite positionner. Dans ces cas-là, les pages en question ne sont pas explorées par les moteurs de recherche, et ne pourront pas ressortir dans les résultats.
Veillez donc à vérifier également votre fichier robots.txt : en tapant dans la barre d’adresse {adresse de votre site}/robots.txt, et en portant votre attention sur les instructions « Disallow » qui pourraient y figurer.
L’architecture d’un site désigne la façon dont sont liées ses pages les unes aux autres. L’architecture d’un site conditionne l’exploration des moteurs de recherche, et peut avoir un impact négatif sur vos résultats si celle-ci est désorganisée.
Les problèmes les plus courants liés à l’architecture d’un site sont les suivants :
Les moteurs de recherche lors de leur exploration cherchent à comprendre les contenus d’un site, avant de les proposer (ou non) dans leurs résultats. Lier des pages très éloignées d’un point de vue thématique peut être confusant pour leurs robots d’exploration, qui auront des difficultés à identifier une cohérence sémantique entre les différents contenus qu’ils rencontrent. Cela peut pénaliser la prise en compte du site et nuire à son référencement.
En UX comme en SEO, la bonne pratique consiste à mettre en avant dans l’arborescence les pages importantes, que l’on souhaite positionner dans les moteurs de recherche. Cela permet de les faire explorer plus régulièrement par Google, et d’éviter de les dévaluer en les positionnant trop bas dans l’arborescence.
Positionner son site organiquement est un long processus, c'est probablement le principal inconvénient du référencement naturel. Si des premiers résultats peuvent être visibles au bout de quelques semaines, les vrais bénéfices eux, ne seront pas perceptibles avant plusieurs mois.
Il faut donc s’armer de patience. Si vous avez mis en place récemment un certain nombre d’optimisations, de contenus, de stratégies pour les SEO de votre site web, rien n’indique pour le moment que vos efforts ne porteront pas leurs fruits. Laissez le temps aux moteurs de recherche d’assimiler vos contenus, puis mesurez vos résultats avant d’envisager d’éventuelles nouvelles actions.
Les difficultés pour un site à se positionner dans les moteurs de recherche peuvent être liées à de nombreux paramètres : le niveau de concurrence de la thématique ciblée, des problèmes techniques, un manque d’optimisation… Lorsque les mauvaises performances perdurent, la réalisation d’un audit approfondi reste le meilleur moyen d’identifier les principaux points bloquants.
Nous espérons de notre côté que les points évoqués dans cet article vous auront donné quelques pistes d’exploration, bien qu’il ne s’agisse pas d’une liste exhaustive.
Si vous souhaitez échanger avec nos équipes sur les performances de votre site, contactez-nous directement via notre formulaire.