Google part en guerre contre le spam … et échoue ?

Le cheval de bataille de Google pour 2011, après les nombreuses critiques quant à la qualité de ses résultats, apparues durant le 2e semestre 2010, c’est la guerre contre le spam (et les référenceurs, un peu, aussi).
Seulement voilà, Google est très bête. A tel point qu’il ne sait pas faire la différence entre un contenu de qualité et un texte pourri issu de l’algo de content spinning le plus basique qui soit.

Du coup, Matt Cutts (responsable de Google Webspam et sorte de porte parole de Google quant à la recherche) et ses amis sont fiers de nous présenter leur super extension pour bannir les domaines que l’on veut des résultats de recherche. Au passage, les infos sur les sites bloqués seront envoyées à Google, pour qu’il puisse les exploiter.

C’est à mon avis un constat d’échec, au moins temporaire, pour les équipes de lutte contre le spam de Google, alors que depuis le début de l’année ils communiquaient beaucoup sur leurs nouveaux algorithmes capables de détecter les content farms.
Cela étant, c’est aussi une sorte de retour aux sources pour Google, qui a basé son succès sur l’analyse du comportement des utilisateurs.

Seotons, le bon goût du spam : les concours de référencement permettent aux SEO de s'amuser un peu :p

Le dernier concours seo auquel j’ai participé, sur le mot clé seotons, m’a fait sauter aux yeux la mauvaise qualité des résultats de Google. J’avais déjà eu pas mal d’exemples de sites spammy et pourtant bien positionnés, mais voir des sites proposant du contenu de qualité et unique, noyés dans la masse de sites proposant des contenus générés automatiquement, c’est assez désespérant. Et dire que les autres moteurs de recherche donnent des résultats encore moins pertinents …

J’en profite pour rebondir sur un sujet connexe : je pense que le contenu textuel est assez mal géré sur Internet en général. On nous parle souvent du duplicate content comme étant néfaste pour le positionnement d’un site, et tout comme il n’est pas rare de tomber sur des serps bourrées de sites spammy (tandis que les moteurs nous disent qu’ils améliorent constamment la qualité de leurs résultats), il n’est pas rare non plus de trouver des sites présentant exactement le même contenu dans une même page de résultat.

Certes, c’est un peu facheux, quand on a passé du temps à écrire un texte, de le voir sournoisement copié par un « webmaster » peu scrupuleux, ou pire, par un script automatisé. Mais si ce texte est copié, c’est qu’il est de bonne qualité, et traite d’un sujet intéressant.
Cela me fait penser à un argument que j’ai entendu contre Hadopi : c’est impensable de faire payer un mp3 alors qu’il ne coûte rien d’en faire une copie. Pourquoi n’avons-nous pas la même réflexion vis-à-vis du contenu textuel de nos sites ?

Cela dit, de même qu’il est incapable de qualifier le contenu d’un site, Google ne semble pas encore en mesure d’identifier le créateur d’un contenu. Pour bénéficier des faveux du moteur, c’est donc aux webmestres de faire la chasse aux copieurs. En attendant que monsieur Cutts s’intéresse au sujet, ou que quelques influents se mettent à râler ?

Les « pirates » auront toujours une longueur d’avance sur Google, mais il serait temps d’arrêter de vouloir cacher la misère avec la recherche universelle …

Mardi 15 février 2011 Diije, Web

8 commentaires pour Google part en guerre contre le spam … et échoue ?

  • l'Ours dit :

    C’est amusant, j’étais au téléphone avec un webmaster tout à l’heure et je lui ai dit exactement la même chose.

  • [...] This post was mentioned on Twitter by Tiger Seo, Jérôme Charron, referencement google, notincom, Matthieu Verne and others. Matthieu Verne said: RT @diije: Google part en guerre contre le spam… et échoue? http://bit.ly/fcsDJQ [...]

  • Daniel Roch dit :

    C’est un excellent article que voilà, et je te rejoins sur tes conclusions sur la mauvaise gestion du spam par Google.

    A un moment, tu dis que Google ne sait pas identifier l’auteur d’un contenu. A mon humble avis, il ne le saura jamais. Avec la vitesse de diffusion, un site peut agréger ton contenu moins de 5 minutes après la publication. Un simple exemple : suite à un accord commercial, l’un de mes clients duplique ses contenus sur le site du Monde. Donc forcément, Google le considère comme le plagiaire…

  • LaurentB dit :

    Au-delà de l’effet d’annonce, c’est clair que la réalité de l’update anti-scrapers ou l’extension Chrome sont de bien maigres armes pour combattre ceux qui gravitent du côté obscur de La Force.
    Très bon constat

  • Bonjour,

    Tout à fait d’accord avec la conclusion. Ce nouveau spam-report est clairement un aveu de faiblesse !

  • Arobasenet dit :

    Le problème des serps est bien identifié dans cet article. Pour ma part, je dirais qu’il faut de l’intervention humaine chez Google. En ce sens que les éditeurs de Google devrait vérifier régulièrement la liste des liens affichés sur les 2 ou 3 premières pages des requêtes les plus concurrentielles.
    C’est la seule façon pour nettoyer leur Serps.

  • [...] This post was mentioned on Twitter by guizme555, referencement google. referencement google said: je crois à une vraie mise à jour des critères de ranking dans les 36 mois avec devaluation des bl http://bit.ly/gD1cnm [...]

  • Diije dit :

    Je crois qu’on est tous globalement d’accord : Google est à la traine, et ça commence à sérieusement se voir.

    De nouveaux entrants comme Blekko ont sûrement une carte à jouer, même si détrôner Google me semble quand même compliqué.

  • Laisser une réponse