Au-delà de la production éditoriale et du développement de la notoriété, la dimension technique en référencement naturel est déterminante pour le positionnement. Votre site n’est pas visible dans Google et vous ne comprenez pas pourquoi ? Vous souhaitez aller plus loin dans vos travaux d’optimisation ? Autant de raisons d’en apprendre davantage sur le SEO technique.
On parle de SEO technique lorsque l’on agit sur des éléments très spécifiques, liés à la technique d’un site web, dans le but d’améliorer son référencement. Le SEO technique englobe plusieurs sujets comme le temps de chargement ou la sécurité.
Certains éléments techniques influent directement sur la capacité des moteurs de recherche à explorer et interpréter un site web. Travailler cette facette du SEO est donc une brique importante du processus de positionnement. Il n’est d’ailleurs pas rare que des erreurs commises liées à des éléments techniques pénalisent fortement le référencement.
A l’inverse, un site web dont la technique a été travaillée bénéficiera plus facilement d’une bonne visibilité. Cela est d’autant plus valable pour les sites web qui évoluent dans des thématiques particulièrement compétitives, et qui font face à d’autres sites concurrents très bien optimisés. Dans ce cas de figure, le SEO technique ne peut clairement pas être négligé. La réalisation d'un audit SEO technique permet d'identifier les problèmes ou les déficits d'optimisation sur un site, puis d'établir un plan d'action approprié. C'est une étape clée au sein de toute démarche SEO.
Avant de proposer certaines de leurs pages dans leurs résultats, les moteurs de recherche parcourent les sites web par l’intermédiaire de leurs liens internes. Mais ils bénéficient pour cela de ressources limitées. Un des principaux enjeux du SEO technique consiste donc à faire en sorte que les pages explorées soient celles qui sont intéressantes pour le référencement. Cela passe par une organisation des liens internes, et l’élaboration d’une arborescence qui favorise l’exploration des pages à positionner.
Il convient aussi de s’assurer que les robots d’indexation ne rencontrent pas de problème lors de leur passage (réponses 404, pages non indexables par erreur…).
D’autres leviers permettent d’agir sur l’exploration des moteurs : le fichier robots.txt va lui permettre de leur interdire l’accès à certains repertoires ou types de pages. Cela dans l’optique de limiter l’exploration des contenus qui n’ont pas d’interêt pour le référencement, ou qui posent problème, et de privilégier l’exploration de ceux qui doivent se positionner.
La présence de contenus dupliqués au sein d’un site est un mauvais point pour le référencement. Lorsqu’ils sont confrontés à des contenus identiques, les moteurs de recherche doivent identifier par eux-mêmes la version qui doit être prise en compte pour le référencement. Au final, il est possible qu’aucune des versions ne soit réellement positionnée.
Il est cependant possible de guider les moteurs de recherche, en indiquant sur les pages dupliquées, via l’ajout de balises html spécifiques, la version de référence (dites « canonique ») à positionner. Ces balises prennent la forme suivante :
<link rel="canonical" href=« https://exemple.com/url-de-la-page-de-reference.html />
A noter qu’une page peut indiquer sa propre url en balise canonique.
La gestion des contenus dupliqués via l’ajout de balises canonique est un point important en SEO technique.
La performance web (temps et processus de chargement) est depuis de nombreuses années un critère de positionnement pour les moteurs de recherche, et notamment Google. Ce dernier a d’ailleurs récemment fait évoluer son algorithme pour mieux évaluer le processus de chargement des pages analysées.
Les attentes des moteurs (et avant eux des utilisateurs) sur ce sujet sont de plus en plus fortes. Aujourd’hui, une page très lente au chargement, et peu stable pour l’utilisateur, a moins de chance d’être bien positionnée qu’une page équivalente concurrente, qui elle propose une expérience optimisée.
Auditer ses performances web, et mettre en place des actions d’optimisation quand c’est nécessaire fait donc partie du processus d’optimisation du SEO technique.
La sécurité des sites web a aussi son importance en SEO. Aujourd’hui, et depuis plusieurs années déjà, l’implémentation du HTTPS fait partie des standards. L’obtention d’un certificat SSL, entre autres, met en confiance les utilisateurs qui savent que leurs données sont sécurisées. C’est précisément pour cette raison que les moteurs de recherche en ont fait un critère de classement.
Les données structurées aident les moteurs de recherche à comprendre les contenus d’un site web, qu’il s’agisse d’une page produit, d’une page de FAQ ou de bien d’autres éléments. Il s’agit d’informations (sous forme de codes) que l’on intègre à la structure HTML des pages web, et qui sont facilement lisibles des moteurs de recherche.
Les données structurées peuvent par ailleurs permettre de bénéficier d’affichages améliorés (« rich snippets ») sur les pages de résultats des moteurs de recherche.
Les fichiers sitemaps sont des fichiers au format XML ou texte qui listent l’ensemble des pages d’un site web qui doivent être prises en compte pour le référencement. Une fois déposés sur le serveur puis envoyés aux moteurs de recherche, ils permettent de favoriser l’exploration de l’ensemble des contenus, puis de suivre leur indexation via la Search Console associée au site.
Les sites qui ciblent plusieurs régions doivent faire l’objet d’optimisations spécifiques pour être correctement interprétés par les moteurs, et in fine générer du trafic qualifié.
Les balises Hreflang font partie des éléments incontournables lors de l’optimisation technique des sites multilingues. Elles permettent d’indiquer aux moteurs à quelle région et quel langage chaque page est destinée. Elles peuvent notamment être utiles dans le cas où des pages comportent un contenu quasi-identique mais s’adressent à des régions différentes. Les moteurs de recherche peuvent grâce à ces balises comprendre que les deux pages doivent être prises en compte pour le référencement, et qu’il ne s’agit pas de contenus dupliqués.