Le succès d’un site vitrine ou de vente en ligne repose sur une stratégie SEO efficace. L’offre de la société ou de l’e-commerçant doit en effet être en permanence visible et compréhensible des moteurs de recherche afin de proposer aux visiteurs une expérience optimale sur la plateforme.
Mais maintenir un bon référencement naturel implique souvent des erreurs, dont les plus courantes peuvent heureusement être évitées ou rapidement corrigées grâce à quelques bonnes pratiques.
1) Compléter les balises title et meta description
La balise HTML title joue un rôle essentiel en informant les crawlers sur le contenu d’une page, avec une influence sur son référencement naturel. Si elle est incorrecte, les robots peuvent la laisser de côté, faute de pouvoir l’indexer précisément.
- Des outils tels que Botify, MyRankingMetrics ou ScreamingFrog se substituent à la Search Console de Google pour détecter les pages dont la balise est vide, manquante ou dupliquée.
- Un template permet d’automatiser l’ensemble des balises, avec la possibilité de les modifier manuellement un par un par la suite.
- Un crawl mensuel est recommandé en prévention de l’accumulation d’erreurs liées à la balise title.
De même, la balise meta description, qui présente le contenu d’une page, influence le taux de clics. Cet extrait doit être unique, optimisé et de la bonne longueur pour attirer les internautes.
La mise en place d’un template de page intégrant toutes les balises, dont la meta description, et un crawl régulier sont les clés contre tout risque d’erreur.
2) Supprimer les contenus en double
Les contenus dupliqués perturbent l’indexation des pages concernées par le robot de crawl et par conséquent, son ranking. De plus, les liens sont répartis entre les pages identiques, ce qui limite leur portée.
Pour s’assurer de n’avoir que des contenus uniques, une recherche manuelle sur Google à partir d’un extrait du texte est le moyen le plus simple. Mais il existe des outils (ou des sites) dédiés à la vérification automatique d’éventuels doublons.
Si des duplications sont identifiées, il faut :
- supprimer ou modifier l’une des pages,
- ou désindexer celle qui présente le moins d’intérêt en termes de SEO.
3) Minimiser le temps de chargement de la page
Pour être bien référencé sur Google, un site doit se charger très rapidement sur tous les supports, en particulier sur mobile. Différents outils permettent de mesurer ce temps de chargement. Plusieurs KPI sont analysés :
- la réponse du serveur,
- l’affichage de l’intégralité du contenu la page,
- la possibilité d’interaction avec la page,
- etc.
En fonction du résultat, les équipes techniques mettent en œuvre les solutions adaptées : compression des ressources, nettoyage du cache, optimisation du site au travers de son code back, des requêtes base de données, etc.
Une augmentation brusque du délai de chargement peut être la conséquence d’une attaque externe, d’un problème au niveau de l’hébergeur ou du lancement d’une nouvelle fonctionnalité.
4) Vérifier que GoogleBot peut crawler l’URL de la page
La dégradation du positionnement d’une page dans les SERP peut être causée par l’impossibilité pour le bot de la crawler. Pour vérifier qu’une URL est bien indexée dans Google, il suffit de la rechercher sur le moteur ou d’exécuter un crawl avec le Googlebot.
En cas d’anomalie, des outils de monitoring de robots.txt ou d’analyse de logs permettent d’en identifier l’origine et de prendre les mesures nécessaires :
- blocage de de crawl dans le robots.txt,
- temps de chargement excessif,
- page orpheline,
- JavaScript défaillant,
- etc.
5) Éviter ou corriger les erreurs 4XX et dans le sitemap XML
Lorsque des recherches portent sur une page non prévue dans la structure du site ou qui n’existe plus, une erreur d’exploitation (4XX) s’affiche, la 404 étant la plus courante. Afin d’éviter le déclassement par Google, des crawls internes réguliers via l’analyse des logs serveur apache/nginx s’imposent afin de comprendre la cause du problème.
Trois options s’offrent alors à l’équipe SEO :
- supprimer les liens morts,
- corriger les pages défaillantes,
- mettre les liens à jour pour rediriger les visiteurs vers une nouvelle page.
Il est également indispensable de contrôler l’état des sitemaps et effectuer des tests de non-régression avec la DSI, même si l’impact des erreurs relatives à cet aspect est moindre. Le détail des différentes anomalies rencontrées par Google apparaît dans la Search Console.
Une autre solution consiste à s’assurer que le format des fichiers XML d’un site de e-commerce est valide avant de les soumettre à Google.
Une réponse à “Les bonnes pratiques pour éviter les erreurs SEO classiques”
[…] les conséquences de ces mises à jour sur un panel de cinquante sites internet. Zoom sur les pratiques de référencement SEO désormais considérées comme […]