Archives de février 2011
Google part en guerre contre le spam … et échoue ?
Le cheval de bataille de Google pour 2011, après les nombreuses critiques quant à la qualité de ses résultats, apparues durant le 2e semestre 2010, c’est la guerre contre le spam (et les référenceurs, un peu, aussi).
Seulement voilà, Google est très bête. A tel point qu’il ne sait pas faire la différence entre un contenu de qualité et un texte pourri issu de l’algo de content spinning le plus basique qui soit.
Du coup, Matt Cutts (responsable de Google Webspam et sorte de porte parole de Google quant à la recherche) et ses amis sont fiers de nous présenter leur super extension pour bannir les domaines que l’on veut des résultats de recherche. Au passage, les infos sur les sites bloqués seront envoyées à Google, pour qu’il puisse les exploiter.
C’est à mon avis un constat d’échec, au moins temporaire, pour les équipes de lutte contre le spam de Google, alors que depuis le début de l’année ils communiquaient beaucoup sur leurs nouveaux algorithmes capables de détecter les content farms.
Cela étant, c’est aussi une sorte de retour aux sources pour Google, qui a basé son succès sur l’analyse du comportement des utilisateurs.

Le dernier concours seo auquel j’ai participé, sur le mot clé seotons, m’a fait sauter aux yeux la mauvaise qualité des résultats de Google. J’avais déjà eu pas mal d’exemples de sites spammy et pourtant bien positionnés, mais voir des sites proposant du contenu de qualité et unique, noyés dans la masse de sites proposant des contenus générés automatiquement, c’est assez désespérant. Et dire que les autres moteurs de recherche donnent des résultats encore moins pertinents …
J’en profite pour rebondir sur un sujet connexe : je pense que le contenu textuel est assez mal géré sur Internet en général. On nous parle souvent du duplicate content comme étant néfaste pour le positionnement d’un site, et tout comme il n’est pas rare de tomber sur des serps bourrées de sites spammy (tandis que les moteurs nous disent qu’ils améliorent constamment la qualité de leurs résultats), il n’est pas rare non plus de trouver des sites présentant exactement le même contenu dans une même page de résultat.
Certes, c’est un peu facheux, quand on a passé du temps à écrire un texte, de le voir sournoisement copié par un « webmaster » peu scrupuleux, ou pire, par un script automatisé. Mais si ce texte est copié, c’est qu’il est de bonne qualité, et traite d’un sujet intéressant.
Cela me fait penser à un argument que j’ai entendu contre Hadopi : c’est impensable de faire payer un mp3 alors qu’il ne coûte rien d’en faire une copie. Pourquoi n’avons-nous pas la même réflexion vis-à-vis du contenu textuel de nos sites ?
Cela dit, de même qu’il est incapable de qualifier le contenu d’un site, Google ne semble pas encore en mesure d’identifier le créateur d’un contenu. Pour bénéficier des faveux du moteur, c’est donc aux webmestres de faire la chasse aux copieurs. En attendant que monsieur Cutts s’intéresse au sujet, ou que quelques influents se mettent à râler ?
Les « pirates » auront toujours une longueur d’avance sur Google, mais il serait temps d’arrêter de vouloir cacher la misère avec la recherche universelle …
Le blog de Diije piraté par le seotons !
Après le spam, voici un autre effet de bord néfaste du concours de référencement Seotons : le hacking de blog pour y caser des liens Seotons !
👿
-w
Recherche
Archives
- février 2012
- février 2011
- novembre 2010
- août 2010
- juin 2010
- avril 2010
- janvier 2010
- décembre 2009
- novembre 2009
- octobre 2009
- septembre 2009
- août 2009
- juillet 2009
- juin 2009
- mai 2009
- avril 2009
- mars 2009
- février 2009
- janvier 2009
- décembre 2008
- novembre 2008
- octobre 2008
- septembre 2008
- août 2008
- juillet 2008
- juin 2008
- mai 2008
- avril 2008
- mars 2008
- février 2008
- janvier 2008
- décembre 2007
- novembre 2007
- octobre 2007
- septembre 2007
- août 2007