L’algorithme de Google incorpore plus de 200 facteurs qui entrent en ligne de compte dans le référencement naturel d’un site web.
Cependant, selon Laurent Bourrelly, consultant spécialiste en SEO, il est possible de réduire la liste à 10 pour évoquer les plus importants et aller à l’essentiel pour un bon référencement (d’autres résumés des critères de référencement ont été fait, mais tous donnent pratiquement les mêmes directions). Ces éléments se situent « on page », « on site » et « off site », et voici sa réflexion.
Pour maîtriser ces leviers influents du SEO, un référenceur doit mesurer l’influence de chaque critère en positif et en négatif, c’est à dire donner une note (sur 10) de pondération positive lorsque ce critère est pris en compte dans l’optimisation du site et une autre note de pondération négative si ce critère est négligé ou mal pris en compte.
Par exemple, en plaçant la balise Title comme élément numéro 1, on lui donne une note de 8/10 en pondération positive et en revanche, on lui donne un solide 7/10 en pondération négative, lorsqu’elle est trop courte, trop longue, trop spammy, sans comprendre le mot-clé principal, bref lorsqu’elle est mal optimisée.
Lorsque vous avez une vision totale de l’influence, en positif et négatif, de chaque critère, il est aisé de tirer sur les leviers adéquats afin d’optimiser vos pages, sans trop forcer sur le facteur risque vis à vis du moteur en terme de « sur-optimisation ».
Voici un tableau du TOP 10 des facteurs influents. Vôtre liste personnelle peut être totalement différente dans l’ordre d’importance et surtout dans les notes de pondération, mais l’essentiel est que cela fonctionne pour l’optimisation de votre site.
Top 10 des facteurs influents pour un bon référencement naturel
(les 10 seo facteurs selon Laurent Bourrelly, spécialiste SEO)
Là où ça se complique un peu plus est qu’il est impossible de déployer ce schéma de façon généralisée et d’en être sûr à long terme, Google modifiant son algorithme régulièrement (voir la polémique actuelle autour de la balise Title qui ne serait pas si importante, mais permettez-nous d’en douter!). De même, certains critères n’auront pas les mêmes impacts selon les caractéristiques du site; par exemple le critère ancienneté ou autorité du site aura beaucoup plus d’impact dans le positionnement d’un site quand il s’agit d’un site ayant 10 ans d’existence que pour un site venant d’être mis en ligne.
C’est en fait au cas par cas qu’il faut être capable d’identifier les critères que l’on peut privilégier dans une action de référencement naturel et la meilleure des solutions est bien sûr de tester l’impact de chaque changement par processus itératif.
Pensez « snipeur » au lieu « d’artilleur »
La plupart des optimisations sont grossières parce que répéter un mot-clé à outrance ne sert à rien! Reprendre sa balise Title en intégralité 10 fois dans le code source ne donne absolument pas un signal de pertinence au moteur, tout comme placer trop de balise H1 (souvent le résultat de la mise en page d’un cms…) déroutera le moteur (laquelle prendre en compte ?).
Bien au contraire, l’environnement (« on page », « on site » et « off site) peut être considéré comme largement plus important afin d’expliquer au moteur de quoi il s’agit.
N’oubliez pas que le robot est idiot; il ne comprend pas ce qu’il lit. C’est en travaillant sur le contexte que vous allez créer un environnement propice à la pertinence de vos textes et donc de votre entité mots clés.
Dans le balisage, travailler sur le contexte sémantique est vital, plutôt que bêtement répéter les mots clés visés. La balise Title est l’élément le plus important (théoriquement…) de la page. Tout le reste doit venir l’épauler et ce n’est pas en le répétant, entièrement ou partiellement, qu’on renforce cet élément.
Tous les autres éléments sont au service de la Title, pour la compléter à l’aide d’expressions connexes (champ lexical et sémantique).
L’importance des expressions connexes dans le référencement
Le concept de co-occurrences ou expressions connexes est très important. En effet, le jeu consiste à dévoiler une série de termes qui permettent d’en deviner le prochain. C’est un aspect de l’algorithme du ngram et du Topic Sensitive Pagerank, qui sont fondamentaux chez Google.
Peut-être qu’une page parfaite sera celle qui pourra décrire une entité, à l’aide d’expressions connexes, sans utiliser les termes définissant cette entité. Si vous êtes à l’aise avec cet exercice sur le Top 10, vous pouvez extrapoler sur les centaines d’éléments, comme ceux rapportés dans les Ranking Factors de Moz, l’étude SearchMetrics ou les 136 facteurs compilés dans une discussion du célèbre forum WebmasterWorld. Il y a aussi l’impressionnante liste de Brian Dean (attention tout de même quand vous analysez ces études car il faut bien comprendre que corrélation ne veut pas dire causalité).
Concrètement, les études SearchMetrics et Moz accordent une importance aux votes sociaux et donc aux réseaux sociaux. En réalité, c’est beaucoup moins évident d’en conclure que des +1, les tweets et des Likes vont vous propulser en première position sur votre requête fétiche (causalité). Par contre, c’est un constat (corrélation) d’observer que les pages bien positionnées ont beaucoup de votes sociaux (mais la vérité est peut être que cela est dû au trafic qu’ils apportent sur la page concernée…encore un critère essentiel !).
À vous de tester, tester et encore tester jusqu’à ce que le fameux déclic s’opère et que vous appréhendiez mieux comment affiner votre optimisation « on page », « on site » et « off site ».
Enfin, sachez avant de commencer votre travail d’optimisation SEO que dans le futur, Google annonce qu’il va privilégier les sites sécurisés (en HTTPS avec certificat SSL ce qui se visualise dans votre url en affichant un cadenas vert ou rouge suivant que votre site est sous HTTPS ou pas). Cette information rapportée par MotherBoard Vice est une façon pour le géant américain d’inciter tout le monde à utiliser un certificat SSL et à utiliser la connexion en HTTPS. Mais là aussi, à suivre….
3 Réponses à “10 critères pour un bon référencement naturel”
[…] grâce à un algorithme de machine learning (XGBoost, Random Forest…), des prédictions sur les critères les plus pertinents à utiliser pour gagner un bon positionnement sur ledit sujet. La plateforme de datascience Dataiku […]
[…] Plus d’informations sur : le référencement naturel […]
[…] sera-t-il vraiment un critère pris en compte dans son algorithme ? On peut s’y attendre car la guerre des navigateurs […]