Web

Google part en guerre contre le spam … et échoue ?

Le cheval de bataille de Google pour 2011, après les nombreuses critiques quant à la qualité de ses résultats, apparues durant le 2e semestre 2010, c’est la guerre contre le spam (et les référenceurs, un peu, aussi).
Seulement voilà, Google est très bête. A tel point qu’il ne sait pas faire la différence entre un contenu de qualité et un texte pourri issu de l’algo de content spinning le plus basique qui soit.

Du coup, Matt Cutts (responsable de Google Webspam et sorte de porte parole de Google quant à la recherche) et ses amis sont fiers de nous présenter leur super extension pour bannir les domaines que l’on veut des résultats de recherche. Au passage, les infos sur les sites bloqués seront envoyées à Google, pour qu’il puisse les exploiter.

C’est à mon avis un constat d’échec, au moins temporaire, pour les équipes de lutte contre le spam de Google, alors que depuis le début de l’année ils communiquaient beaucoup sur leurs nouveaux algorithmes capables de détecter les content farms.
Cela étant, c’est aussi une sorte de retour aux sources pour Google, qui a basé son succès sur l’analyse du comportement des utilisateurs.

Seotons, le bon goût du spam : les concours de référencement permettent aux SEO de s'amuser un peu :p

Le dernier concours seo auquel j’ai participé, sur le mot clé seotons, m’a fait sauter aux yeux la mauvaise qualité des résultats de Google. J’avais déjà eu pas mal d’exemples de sites spammy et pourtant bien positionnés, mais voir des sites proposant du contenu de qualité et unique, noyés dans la masse de sites proposant des contenus générés automatiquement, c’est assez désespérant. Et dire que les autres moteurs de recherche donnent des résultats encore moins pertinents …

J’en profite pour rebondir sur un sujet connexe : je pense que le contenu textuel est assez mal géré sur Internet en général. On nous parle souvent du duplicate content comme étant néfaste pour le positionnement d’un site, et tout comme il n’est pas rare de tomber sur des serps bourrées de sites spammy (tandis que les moteurs nous disent qu’ils améliorent constamment la qualité de leurs résultats), il n’est pas rare non plus de trouver des sites présentant exactement le même contenu dans une même page de résultat.

Certes, c’est un peu facheux, quand on a passé du temps à écrire un texte, de le voir sournoisement copié par un « webmaster » peu scrupuleux, ou pire, par un script automatisé. Mais si ce texte est copié, c’est qu’il est de bonne qualité, et traite d’un sujet intéressant.
Cela me fait penser à un argument que j’ai entendu contre Hadopi : c’est impensable de faire payer un mp3 alors qu’il ne coûte rien d’en faire une copie. Pourquoi n’avons-nous pas la même réflexion vis-à-vis du contenu textuel de nos sites ?

Cela dit, de même qu’il est incapable de qualifier le contenu d’un site, Google ne semble pas encore en mesure d’identifier le créateur d’un contenu. Pour bénéficier des faveux du moteur, c’est donc aux webmestres de faire la chasse aux copieurs. En attendant que monsieur Cutts s’intéresse au sujet, ou que quelques influents se mettent à râler ?

Les « pirates » auront toujours une longueur d’avance sur Google, mais il serait temps d’arrêter de vouloir cacher la misère avec la recherche universelle …

Mardi 15 février 2011 Diije, Web 8 commentaires

Facebook Places : modifier vos paramètres de confidentialité

Vous le savez peut être, Facebook a lancé hier sa nouvelle fonctionnalité : Places.
Je ne vais pas m’attarder sur l’intérêt ou non de cette fonctionnalité, ni sur le fait que ça existe déjà ailleurs, et qu’encore une fois Facebook n’invente pas grand chose.

Places devient Lieux en français. On se croirait au Quebec !

Mais évidemment, avec cette nouvelle fonction, de nouveaux paramètres de confidentialité sont apparus. Je vous recommande donc de jetter un oeil aux paramètres de confidentialité de votre profil, histoire de ne pas avoir de mauvaise surprise.

Rendez-vous donc dans le menu Paramètres de confidentialité de votre profil :

Rendez-vous dans Compte > Paramètres de confidentialité

Vous arrivez sur un écran qui vous présente la situation actuelle de vos paramètres de confidentialité. Je vous invite à les personnaliser :

Cliquez sur Personnaliser les paramètres

Sur cet écran, vous avez 3 paramètres à surveiller (mais n’hésitez pas à jeter un oeil aux autres si vous ne l’avez pas déjà fait ;-) ) :

3 paramètres à surveiller

A vous de choisir à qui vous voulez laisser voir vos données. Une fois ces paramètres réglés, retournez à la page précédente, puis rendez vous sur la page de configuration des paramètres des applications et sites web :

Configurer les paramètres de confidentialité de votre profil pour Facebook Places

Ici, vous découvrez que certaines de vos informations sont accessibles par l’intermédiaire de vos amis, dont votre localisation :

Vos infos sont accessibles par l'intermédiaire de vos amis.

En effet, une nouvelle option Lieux dans lesquels j’indique me trouver est apparue. Vous pouvez choisir, comme moi, de ne rendre aucune de vos infos accessibles, ou seulement certaines :

Les applications Facebook peuvent accéder à votre localisation via vos amis

Et voilà, le tour est joué. Jusqu’à la prochaine mise à jour :?:

Vendredi 20 août 2010 Diije, Web Pas de commentaire

Un moyen de publier ses messages Twitter sur Identi.ca ?

Identi.ca est un service de micro-blogging similaire à Twitter, et open source. S’il est très facile de configurer son profil Identica pour qu’il publie automatiquement vos messages sur votre compte Twitter, l’inverse demande soit un client capable de gérer les deux réseaux, soit une petite manipulation.

Première étape, se créer un compte sur Ping.fm. Pourquoi un nouveau compte ? Tout simplement parce que Ping.fm ne permet de gérer qu’un seul flux rss à la fois. L’inscription est très rapide : rendez vous sur la page de création de compte, renseignez un email valide, et votre mot de passe, et c’est parti.

Configurez ensuite votre compte Identi.ca dans Ping : sur la page Networks, cliquez sur le lien « Add Network » de Identi.ca puis renseignez votre login et votre mot de passe :

Etape 1 : connecter son compte Ping à Identica

Rendez vous ensuite sur Twitter et récupérez le flux rss de vos messages, sur votre profil, en bas de la sidebar :

Récupérer le flux rss de ses tweets

Retournez sur Ping.fm. Sur l’onglet Dashboard, créez un groupe de publication pour le microblogging :

Créez un groupe de publication

Sélectionnez la méthode Microblogging et donnez un nom à votre groupe, puis validez. N’oubliez pas d’inclure votre compte Identi.ca dans le groupe ;)

De nouveau sur l’onglet Dashboard cliquez sur Feeds by Superfeedr :

étape 4 : paramétrer un flux rss sur ping.fm

Superfeedr vous permet de récupérer un flux rss et le publier sur vos réseaux. Collez l’adresse du flux de vos messages twitter, et cliquez sur Add Feed :

dernière étape : configurer superfeedr

Si tout se passe bien, vos messages Twitter devraient maintenant être publiés sur Identica (quelques minutes plus tard).

Mardi 15 juin 2010 Diije, Web Pas de commentaire

Web 2.0 – Introduction (suite)

Suite de l’article précédent : Web 2.0 – Introduction.

Une fois entrée dans le vocabulaire des informaticiens et du grand public, l’expression « Web 2.0 » perd vite sa définition, pour venir une notion très vague de l’évolution du World Wide Web. Chacun a sa propre idée et il est bien difficile aujourd’hui encore d’expliquer clairement ce que signifie ce terme.

Cependant, on peut énumérer plusieurs facteurs qui montrent que l’Internet a changé d’échelle, de statut. Tout d’abord, le nombre d’internautes ne cesse d’augmenter, et l’accès au web est rendu plus fluide par des connexions plus rapides (Numeris, ADLS). Internet devient donc progressivement un médium de masse et prend même petit à petit le dessus sur d’autres média.
Cette forte augmentation du nombre d’internautes est à mettre en parallèle avec l’augmentation de pages (et de sites) sur le web.

Ainsi malgré les progrès des moteurs de recherche, il devient indispensable de se démarquer de la concurrence, en proposant au visiteur d’un site web une nouvelle expérience utilisateur. Certains développeurs ont alors l’idée d’utiliser une technique inventée par Microsoft en 1998, mélangeant JavaScript et XML, pour rendre leurs pages plus dynamiques. Ce n’est qu’en 2005 que Jesse James Garett, informaticien américain, est le premier à employer le terme AJAX pour nommer cet emploi nouveau de technologies communes sur le Web 1.0.
Très vite l’AJAX envahit le web et devient un des symboles de la « révolution » qu’est le Web2.0, même si beaucoup insistent sur le fait que rien n’est nouveau dans cet emploi de JavaScript et XML.

Une autre technique pour se démarquer des « vieux » sites du Web 1.0 consiste à utiliser des designs dits « modernes », employant moult couleurs, coins arrondis et effets glacés. Ainsi, les sites utilisent de plus en plus les possibilités du xHTML et du CSS, voire même les Microformats.

Une autre nouveauté majeure liée au Web2.0 est la syndication de contenu : des protocoles basés sur l’emploi du XML (typiquement : les flux RSS) permettent aux utilisateurs de réutiliser (une partie du) contenu d’un site dans un autre site ou un logiciel. On a donc accès en temps réel aux mises à jour d’un site de façon décentralisée.

Mais le Web 2.0, c’est aussi un changement du comportement de l’utilisateur, qui n’est plus un simple visiteur mais est invité à contribuer, à s’approprier les nouvelles fonctionnalités du Web pour interagir de façon simple à la fois avec le contenu et la structure des pages, mais aussi avec d’autres internautes : c’est le Web Social.

Lundi 26 avril 2010 Diije, Web Un commentaire

Web 2.0 – Introduction

On me demande, dans le cadre de mes études d’informatique, de réaliser une étude sur le Web 2.0. A la vue des autres sujets proposés, je me dis que je ne m’en tire pas si mal. J’aurais été ravi de faire une étude sur ce qui a tué les dinosaures, mais apparemment ça ne fait pas assez « Stratégie Internet ». Malgré tout, je vais donc me servir de ce blog pour écrire une petite série d’articles qui seront ensuite synthétisés dans mon rapport. Je préfère prévenir tout de suite mes aimables lecteurs, ce que je dis n’engage que moi, c’est mon avis personnel et vous êtes libres de partager le votre en commentaire :)

Alors le web 2.0, qu’est-ce que c’est ? J’ai envie de répondre, une grosse arnaque. Finalement, personne n’est d’accord, et certains iront même jusqu’à dire qu’il n’y a pas de web 2.0.

La première à avoir apparemment parlé de « Web 2.0″ est Darcy DiNucci, dans un article publié en 1999 : Fragmented Future :

The Web we know now, which loads into a browser window in essentially static screenfulls, is only an embryo of the Web to come. The first glimmerings of Web 2.0 are beginning to appear, and we are just starting to see how that embryo might develop. The Web will be understood not as screenfulls of text and graphics but as a transport mechanism, the ether through which interactivity happens. It will [...] appear on your computer screen, [...] on your TV set [...] your car dashboard [...] your cell phone [...] hand-held game machines [...] maybe even your microwave oven.

Cette vision anticipatrice s’avère assez proche de la réalité, et se veut un avertissement aux graphistes et autres ergonomes : le nombre d’interfaces différentes ne va cesser de s’accroitre, et il faudra donc que votre travail s’adapte à chacune d’entre elles.

Le terme réapparaît en 2003, quand Dale Dougherty, co-fondateur avec Tim O’Reilly de la société O’Reilly Media, cherche à exprimer la profonde mutation qui s’opère alors sur le World Wide Web. En effet, on commence à voir à cette époque le web comme une plate-forme et on ne développe plus de logiciels de bureau mais des applications en ligne.

Un autre aspect important de cette mutation est l’utilisation des données produites par l’utilisateur (User Generated Content), le meilleur exemple étant le Page Rank de Google : analyser le nombre et la qualité des liens entrants et sortants d’une page web afin de lui attribuer une note sur 10, pour fournir à l’utilisateur final des résultats de recherche basés sur la réputation des sites. Ce type d’algorithme étant constamment amélioré, on obtient un autre point important dans la vision du web 2.0 de Dougherty : la « version beta perpetuelle », en opposition aux rares mises à jour des logiciels traditionnels.

Un autre parfait exemple du web 2.0 est Wikipedia : alors que les encyclopédies traditionnelles embauchent des experts pour rédiger leurs articles, Wikipedia fait confiance aux internautes, se basant sur un des principes de l’Open Source : « given enough eyeballs, all bugs are shallow ». Un article erroné sera en effet vite détecté et corrigé par les internautes.

Suite à l’intervention de Dougherty, l’expression fut largement relayée par O’Reilly Media, notamment avec la création d’une conférence annuelle « Web 2.0 » à partir 2004. Très vite adoptée par la communauté, l’expression sera même déclarée « millionième mot anglais » et intégrée au Lexicon.

Voilà, c’est tout pour aujourd’hui :p

Samedi 10 avril 2010 Diije, Web 2 commentaires