Archives de février 2011

Google part en guerre contre le spam … et échoue ?

Le cheval de bataille de Google pour 2011, après les nombreuses critiques quant à la qualité de ses résultats, apparues durant le 2e semestre 2010, c’est la guerre contre le spam (et les référenceurs, un peu, aussi).
Seulement voilà, Google est très bête. A tel point qu’il ne sait pas faire la différence entre un contenu de qualité et un texte pourri issu de l’algo de content spinning le plus basique qui soit.

Du coup, Matt Cutts (responsable de Google Webspam et sorte de porte parole de Google quant à la recherche) et ses amis sont fiers de nous présenter leur super extension pour bannir les domaines que l’on veut des résultats de recherche. Au passage, les infos sur les sites bloqués seront envoyées à Google, pour qu’il puisse les exploiter.

C’est à mon avis un constat d’échec, au moins temporaire, pour les équipes de lutte contre le spam de Google, alors que depuis le début de l’année ils communiquaient beaucoup sur leurs nouveaux algorithmes capables de détecter les content farms.
Cela étant, c’est aussi une sorte de retour aux sources pour Google, qui a basé son succès sur l’analyse du comportement des utilisateurs.

Seotons, le bon goût du spam : les concours de référencement permettent aux SEO de s'amuser un peu :p

Le dernier concours seo auquel j’ai participé, sur le mot clé seotons, m’a fait sauter aux yeux la mauvaise qualité des résultats de Google. J’avais déjà eu pas mal d’exemples de sites spammy et pourtant bien positionnés, mais voir des sites proposant du contenu de qualité et unique, noyés dans la masse de sites proposant des contenus générés automatiquement, c’est assez désespérant. Et dire que les autres moteurs de recherche donnent des résultats encore moins pertinents …

J’en profite pour rebondir sur un sujet connexe : je pense que le contenu textuel est assez mal géré sur Internet en général. On nous parle souvent du duplicate content comme étant néfaste pour le positionnement d’un site, et tout comme il n’est pas rare de tomber sur des serps bourrées de sites spammy (tandis que les moteurs nous disent qu’ils améliorent constamment la qualité de leurs résultats), il n’est pas rare non plus de trouver des sites présentant exactement le même contenu dans une même page de résultat.

Certes, c’est un peu facheux, quand on a passé du temps à écrire un texte, de le voir sournoisement copié par un « webmaster » peu scrupuleux, ou pire, par un script automatisé. Mais si ce texte est copié, c’est qu’il est de bonne qualité, et traite d’un sujet intéressant.
Cela me fait penser à un argument que j’ai entendu contre Hadopi : c’est impensable de faire payer un mp3 alors qu’il ne coûte rien d’en faire une copie. Pourquoi n’avons-nous pas la même réflexion vis-à-vis du contenu textuel de nos sites ?

Cela dit, de même qu’il est incapable de qualifier le contenu d’un site, Google ne semble pas encore en mesure d’identifier le créateur d’un contenu. Pour bénéficier des faveux du moteur, c’est donc aux webmestres de faire la chasse aux copieurs. En attendant que monsieur Cutts s’intéresse au sujet, ou que quelques influents se mettent à râler ?

Les « pirates » auront toujours une longueur d’avance sur Google, mais il serait temps d’arrêter de vouloir cacher la misère avec la recherche universelle …

Mardi 15 février 2011 Diije, Web 8 commentaires

Le blog de Diije piraté par le seotons !

Après le spam, voici un autre effet de bord néfaste du concours de référencement Seotons : le hacking de blog pour y caser des liens Seotons !

:evil:
-w

Mardi 1 février 2011 Non classé Un commentaire