Le 11 mars 2011

Google, cachez ce site que je ne saurais voir !


Google, cachez ce site que je ne saurais voir !

Une fois de plus, Google vous demande de faire son job. Cette fois, tout le monde peut le faire…

Avouons-le, depuis quelques mois l’actualité de Google est aussi riche en rebondissements qu’un titre de John Cage, aussi surprenante et mémorable qu’un single de Cindy Sander. Seule une poignée de produits phare ont pu redorer le blason de la firme : Android et Chrome.

Habituée à imposer ses réussites et ses points de vue à tous, l’entreprise a récemment été attaquée sur son point fort qui s’est finalement révélé être son talon d’Achille : son moteur de recherches, la base même de Google. Attaquée, le mot est faible car c’est une véritable campagne de dénigrement qui a été lancée par le New York Times, avec trois articles qui ont fait mouche à chaque fois.

Fin octobre 2010, le journal américain consacre un article à un moteur concurrent nommé Blekko. Les résultats de faible qualité sur Google sont pointés du doigt pour démontrer les qualités de Blekko. L’article met un nom sur les nuisances qui s’imposent en tête des résultats : les fermes de contenus. Faible réaction officielle du côté de Google, mais ce n’était que le début.

Un mois plus tard, un papier dénonce DecorMyEyes, un commerce en ligne qui base son référencement sur la très mauvaise publicité qui lui est faite, gagnant des positions dans les SERP grâce aux liens postés dans les forums où les utilisateurs se plaignent. En février dernier, c’est le coup de grâce avec l’affaire JC Penney, une chaîne de magasins qui, plutôt que d’optimiser son site codé avec les pieds, a préféré s’adonner à une pratique que Google déteste : l’achat de liens. Une technique qui a marché.

Panique dans la fourmilière de Mountain View, et plus particulièrement dans l’équipe de Matt Cutts chargée de luter contre le spam. Rappelons que si Google a connu un succès fulgurant dès ses débuts, c’est notamment parce qu’il luttait bien plus efficacement contre le spam et les sites de faible qualité que les autres. Il ne faudrait pas que la roue tourne…

Après l’attaque, la contre-attaque. Plusieurs modifications de l’algorithme de classement des résultats ont été annoncées. La plus importante, nommée Panda (ou Farmer, selon le dieu auquel on se voue), a eu pour but d’éliminer des résultats les fermes de contenus. Un succès selon Google; une tentative plus que mitigée selon les autres. Une pluie de critiques s’est en effet abattue sur Cutts car de célèbres fermes ont vu leur positions renforcées et d’autres sites bien plus intéressants ont coulé « par accident ». Des rectifications ont été apportées depuis, beaucoup reste à faire.

L’algorithme n’est pas la seule arme de Google. Une campagne d’incitation à la délation, digne des heures les plus sombres de notre Histoire numérique, est en cours. Les références de Matt Cutts au sujet du spam report ou de la dénonciation des sites qui achètent ou vendent des liens sont nombreuses. Sans oublier quand c’est Google itself qui dénonce le plagiat de Microsoft – il fallait comprendre par là « Non, nos résultats ne sont pas mauvais, la preuve : on nous copie ! ».

Il reste une arme secrète pour Google, aussi sensible que de la dynamite instable : il s’agit de proposer à l’internaute de bloquer certains résultats. Jadis l’expérience avait été tentée avec SearchWiki mais elle a coulé en même temps que l’outil. D’abord introduite par Matt Cutts sous la forme d’une extension Google Chrome – qui ne faisait que cacher les résultats en CSS… – la voila ce soir proposée à tous les détenteurs d’un compte Google.

Bloquer un site en un clic (cliquez pour agrandir)

Bloquer un site en un clic (cliquez pour agrandir)

Si tant est que vous disposiez de Firefox 3.5+, IE8+ ou Chrome 9+ (dans les dents, Safari), vous verrez apparaître dans quelques heures tout au plus un lien « Bloquer tous les résultats du domaine » à côté des inamovibles « En cache » et « Pages similaires ». Un site bloqué est enregistré dans votre compte Google, donc il sera bloqué quelque soit le navigateur que vous utilisiez. Une console de gestion pour débloquer des sites est fournie.

Et je vois déjà l’œil brillant du SEO filou qui sommeille en vous, le petit malin (ou petite maligne) qui fomente actuellement un plan diabolique pour créer des comptes Google à la volée et leur faire bloquer les sites de vos concurrents afin que Google prenne en compte les tendances de blocage des utilisateurs – ce qu’il fera sans nul doute – et baissera les positions de vos victimes. Et vous avez bien raison.

Le défi pour les équipes de Google sera d’adapter leurs algorithmes aux choix des utilisateurs, tout en veillant à ne pas être pris au piège par les acharnés du triangle d’or. D’ici là, le New York Times et d’autres trouveront encore d’autres failles dans la grande muraille de l’empire Google. Sans parler des bugs de Gmail ou Google Calendar, ni des procès qui tombent à nouveau en ce moment, ni des tentatives désespérées de la firme pour promouvoir Google Places et Hotpot. Espérons donc que la communication de Google sera plus efficace pour contrer les attaques et surtout pour proposer des nouveautés dignes de ce nom pour les utilisateurs…

Édition du 12 mars 2011 : même si le lien « bloquer ce site » n’apparait pas encore, vous pouvez d’ores-et-déjà utiliser l’interface pour supprimer certains domaines des résultats de recherches.

source À l'heure tardive où sont écrites ces lignes, la fonctionnalité de blocage des sites n'est toujours pas accessible.

Publié le 11 mars 2011 à 0:29 par dans Actualité

Labels : , ,

9 commentaires

  1. CoolRaoul a dit :

    Super!!

    Cette fois-ci on va pouvoir définitivement dire adieu et oublier « commentçamarche.net », même si on n’utilise pas Chrome et son extension « personal blocklist »

    Merci Google!

  2. 1ternet a dit :

    Reste à savoir combien de bloquage sont nécessaires pour que Google y accorde de l’intérêt (le spam report est loin d’être efficace). De quoi occupé quelques black hat un moment.
    C’est vrai que depuis le début de l’année, Google subit de belles attaques auxquels ils ont du mal à répondre.

  3. Jérémy a dit :

    C’est très bien comme ça, ras le bol de voir plein de ca_ _ partout dans les recherches. Reste que l’outil de SPAM le plus utilisé provient de notre cher Google.

  4. Très bon article qui récapitule assez bien tout ce qu’on a pu voir ces derniers temps, une des premières fois qu’on voit un article Zorgloob plutôt engagé !
    En ce qui nous concerne, cette mise à jour est nous le pensons bénéfique, épurer le web de tous les MFA est pour nous une bonne chose.
    C’est un retour aux sources qui devrait plaire aux entreprises qui jouent sur la vague du White Hat.
    Au sujet des sites bloqués, on ne peut qu’espérer voir Google apporter une confiance plus ou moins importante aux comptes Google nouvellement créés..

  5. Unibet a dit :

    Google pourra faire un prorata entre le nombre de visiteurs et le nombre de signalements spam.
    1 visiteur 1 spam = très mauvais
    100000 visiteurs 10 spams = spam insignifiant

    Donc les black-hat n’ont qu’à bien se tenir, leurs signalements n’auront probablement aucun impact sur les sites qui ont déjà de la notoriété.

  6. Google vit un moment difficile maintenant plus que jamais commençant par les problèmes avec l’état chinois qui ont pu imposer baidu et jusqu’à les fermes de contenus sans oublier leur concurrent facebook. Je pense que google ne restera pas les mains croisées et espérant que des changement plus effectives arrivent.

  7. Martin a dit :

    On peut aussi discuter sur d’autres pénalités plus récentes, comme la vente de liens par Forbes, ou encore le cas d’Overstock qui filait des rabais aux écoles en échange d’un lien publié leur leurs sites .edu, sans oublier Beat That Quote, récemment racheté par la firme aux cent zéros. Ces cas démontrent l’incapacité de Google à identifier les abus dans des délais courts, ce qui rend ces abus très alléchants, d’autant que si les pénalités sont réelles, elles restent limitées dans le temps.

    Pour autant, y a-t-il plus d’abus qu’auparavant, en comparaison de l’ensemble des résultats légitimes ? Peut-être que les exigences des utilisateurs grandissent et que le quasi-monopole de Google commence à déranger dans une économie qui dépend de plus en plus d’Internet, ce qui incite la presse à s’intéresser au sujet ?

    Rappelons que la presse papier, dont le New York Times, historiquement, reproche à Google de profiter de son contenu sans lui verser de compensation financière. Sans contenu, pas d’intérêt dans la recherche. Pourtant, si la recherche est très rémunératrice, eu égard aux coûts, ce n’est pas le cas du contenu, largement déficitaire dans les modèles de la presse en ligne traditionnelle habituée à la vente d’espaces publicitaires… hors de prix.

    Il en résulte un certain conflit d’intérêt : cracher sur Google en dénonçant ses faiblesses et convaincre ainsi les lecteurs à cesser de lui faire confiance va dans l’intérêt d’un regain de pouvoir aux médias traditionnels, qui avaient jusqu’ici le contrôle de l’information, au détriment des pure players et, surtout, des outils de classification automatiques que Google est le représentant le plus flagrant.

    Au niveau du référencement, je pense que nous avons tous intérêt à voir au moins 3 acteurs puissants sur le marché. Ce n’est pas le cas. On pourrait rêver d’un Google, Yahoo! et Bing, mais sachant que Yahoo! tend à exploiter la technologie de Microsoft, il ne reste en réalité que Google et Bing, au niveau de l’optimisation de la recherche. Peut-être qu’un trio comportant systématiquement un acteur national local pourrait être plus intéressant ? Après tout, Baidu, en Chine, s’en sort bien, de même pour Yandex en Russie. C’est donc tout à fait possible ! Le marché serait alors peut-être un peu plus sain ? Mais comment, dans ce cas, favoriser l’émergence des challengers d’aujourd’hui pour leur permettre de se battre en armes égales avec le numéro un ? Peut-être en consacrant plus d’espace dans nos colonnes — celles de nos propres sites — à ces derniers ? Peut-être pourrions-nous parler des innovations de Microsoft et de Yahoo!, en plus de Google ? Ces deux entreprises sont en effet très innovantes, chacune dans des domaines connexes, mais aussi des domaines très spécifiques.

    Mais en dehors de la recherche, on peut s’orienter vers d’autres services : les réseaux sociaux. Bien entendu, ceux qui viennent en tête sont facebook et twitter, tous deux des géants dans leurs domaines respectifs, et chacun permettant, à terme, de générer une audience intéressante, actuellement encore ignorée en tant que telle dans les outils d’analyse de trafic. En effet, actuellement, ces outils présentent des visites issues de : 1. recherche, 2. référents, 3. accès direct, 4. autres. Pourquoi ne pas adapter une catégorie « réseaux sociaux », notamment ? Cela inciterait les référenceurs à s’y intéresser plus avant avec une vision plus claire de leur trafic.

    Google a plein de défauts, mais cessons un peu de focaliser sur celui-ci et faisons la promotion des solutions d’acquisition d’audience concurrentes pour aider celles-ci à percer, rendant le travail de référenceur d’autant plus diversifié et intéressant !

  8. […] été publiées aujourd’hui. Cela méritait bien un article ! La semaine dernière encore, nous dénoncions le manque de nouveautés intéressantes (du point de vue utilisateur) de la part de Google ces […]

    Backlink
  9. […] sites pour bien d’autres raisons. Au début de l’année, le site de DecorMyEyes avait défrayé la chronique en ayant un trop bon référencement par rapport à la qualité exécrable du service, Google […]

    Backlink