Pourquoi le Javascript et l’Ajax posent-ils problème pour le référencement naturel ?

. Chapitre 1. Point 6

                    

Google a du mal à voir ce qui est généré en JavaScript

Le problème avec le JavaScript est que Google a souvent du mal à voir un contenu généré dans ce langage. La raison est simple, quand vous utilisez JavaScript et AJAX, le site est généré en deux étapes. Une partie de la page est générée sur le serveur tandis qu’une autre est générée sur l’ordinateur de l’utilisateur. Si Google peut très bien suivre ce qui se passe depuis le serveur (parce qu’il est accessible depuis internet), il n’est pas en mesure de voir ce qui est généré sur l’ordinateur de l’utilisateur, puisque ce contenu n’est plus sur internet. Le robot d’indexation de Google ne voit donc qu’une partie de votre site et il n’indexe que ce qu’il voit, ce qui peut vous pénaliser en matière de référencement.

Google a du mal à comprendre le langage JavaScript

Le problème ne s’arrête pas là. Non seulement Google n’a accès qu’à une partie de votre site, mais encore, la partie qu’il a en face de lui peut lui poser problème. En effet, Google a évolué depuis des années et il est en mesure de lire JavaScript, mais pas toujours dans son intégralité. Les robots d’indexation sont désormais capables de détecter les liens JavaScript ainsi que les contenus générés en Ajax. De récents tests menés par Search Engine Land ont démontré que les moteurs de recherche, notamment Google, peuvent désormais comprendre et analyser le JavaScript. Ces tests ont révélé que les redirections JavaScript sont désormais traitées comme des redirections 301 et les liens JavaScript sont crawlés et suivis par les Google bots. Malgré cette avancée considérable, il se peut toujours que les robots d’indexation aient du mal à comprendre réellement le contenu de ces liens. Dans ce cas, pour eux, les pages vers lesquels ces liens pointent s’apparentent à des pages vides, donc sans intérêt, ce qui nuit au référencement.

Le risque de cloaking est bien présent

Le problème avec les sites élaborés avec ces deux langages est qu’il peut parfois y avoir deux versions d’une même page : une à destination du moteur de recherche et une autre pour l’utilisateur. Le fait d’avoir deux versions différentes d’une même page peut nuire au référencement puisque Google peut le considérer comme du cloaking, une technique de référencement malhonnête qui est interdite par Google. Si vous ne le savez pas encore, le cloaking consiste à créer en plus de la version « originale » d’une page (pour les utilisateurs), une autre version optimisée à destination des moteurs de recherche, pour améliorer de manière artificielle la qualité d’une page. Si Google pense que vous faites du cloaking, il peut vous pénaliser pour tricherie, ce qui bannira votre site de son index. Dans l’absolue, il est rare que cela arrive, puisque là, l’autre version vous pénalise, mais, le risque est bien présent, et il convient de le prendre en considération. Vous aimerez aussi : → →

Articles similaires

Référencement naturel SEO sur SearchGPT, le nouveau moteur de recherche qui va faire vaciller Google
Lire cet article
Référencement naturel Podium des performances digitales, projecteur sur le SEO et le SEA
Lire cet article
Référencement naturel À l'ère de l'IA, les rédacteurs restent irremplaçables : découvrez pourquoi !
Lire cet article