Matt Cutts vient d’annoncer la mise à disposition d’un nouveau formulaire anti-scraper. L’objectif de Google est de proposer aux webmasters un outil permettant de dénoncer les vols de contenu, une pratique plus connue sous le terme de scraping, et dont les conséquences sont très pénalisantes pour les éditeurs en matière d’indexation sur les moteurs de recherche.
Le scraping, une pratique devenue depuis la « bête noire » de Google
Le scraping est de nouveau dans le collimateur de Google. Il s’agit d’une méthode de référencement qui consiste à « pomper » le contenu éditorial d’un site afin de les exploiter et de les publier par la suite sur une autre plateforme sans l’autorisation du « propriétaire ». Généralement, le contenu dupliqué s’affiche en bonne position dans les SERP. L’éditeur d’origine se trouve ainsi doublement pénalisé : son contenu perd de son originalité et en classement.
Ainsi pour lutter contre cette pratique « Black hat », Google a mis en place un formulaire anti-scraper, baptisé Scraper Report, qui s’adresse en particulier aux éditeurs.
Comment ça marche ?
La prise en main de cet « outil » est toute simple. Il suffit d’indiquer l’URL du contenu original (le contenu de votre site donc), l’URL de la page incriminée et le résultat de la recherche effectuée sur Google sur lequel est indexé le plagiat.
Une procédure assez floue cependant
Reste à savoir maintenant comment ces informations seront traitées. En effet, Google ne précise ni les mesures qu’il va entreprendre, ni le devenir des informations recueillies via cet outil anti-scraper. Les professionnels du SEO se demandent si les ingénieurs de Mountain View vont affiner leur algorithme afin de recadrer les SERP sur la base des données récoltées ou adopter d’autres dispositions. Une affaire à suivre donc…
Une autre alternative pour lutter contre le scraping : faire confiance à un référenceur White hat
Contrairement à un référenceur Black hat, un expert en référencement internet White hat veille au respect des guidelines de Google en bannissant ces pratiques qui peuvent avoir des impacts négatifs sur la réputation des sites. D’ailleurs, il faut noter que ces techniques reposant sur du contenu détourné ou dupliqué ne sont en rien pérennes, puisque cela n’apporte aucune valeur ajoutée aux internautes.
6 Réponses à “Contenus dupliqués : scraping, duplicate content ou intox ?”
[…] Effectivement, la création de contenu par l’intermédiaire d’une IA implique des informations existantes, la composition n’est donc pas nouvelle. Or, les robots de Google œuvrent en permanence à empêcher qu’un contenu cherchant à manipuler les résultats de recherche soit mis en ligne tout comme il en contrôle l’originalité (cf ce qu’il appelle le « duplicate content »). […]
[…] View semble mener une véritable croisade contre les spammeurs (mise en place du formulaire Scraper Report, mise à disposition de l’outil Spam Report, etc.). L’avenir nous dira ce qu’il en […]
La qualité du contenu devient un critère de plus en plus important et Google prend constamment de nouvelles mesures pour détecter le duplicate content. Sujet à suivre.
[…] View semble mener une véritable croisade contre les spammeurs (mise en place du formulaire Scraper Report, mise à disposition de l’outil Spam Report, etc.). L’avenir nous dira ce qu’il en […]
Bonjour,
Voila la situation actuelle, semble t-il :
Si Google voit un Duplicate Content et qu’il décèle le site originel, pour les autres qui ont repris le contenu, leur page est déclassée dans les résultats du Moteur mais elle reste toujours visible.
Il semble que cette procédure ne soit pas totalement efficace puisque Google vient de mettre en ligne ce fameux “Scraper Report” qui permet de dénoncer les pages qui ont volé du contenu, et qui remontent plus haut dans les résultats que la source originale.
Un exemple des failles du Moteur.
Bonjour,
Ok, mais alors sur le fond, à quoi sert le contrôle de “duplicate content” que fait ou « faisait » Google ? car jusqu’à présent, je croyais qu’il repérait une copie de contenu ? il ne prenait pas cette copie de contenu car avait vu qu’elle appartenait à qq’un d’autre avant ?
sinon, il suffirait de copier tout wikipédia ! non ?
que pensez de cette démarche de Google alors qu’il existe le duplicate content ? c’est pas incohérent ?
Cdlt