Le 23 septembre 2008

Google & SEO : le jeu du chat et de la souris


Google happy Dans quelques jours, Google fêtera ses dix ans. L’occasion pour nous de revenir sur l’impact qu’a eu Google sur le référencement, et ce que nous réserve le moteur pour les années à venir.

En 10 ans, le nombre d’internautes dans le monde a explosé, tout comme le développement de Google. Les deux sont étroitement liés dans un cycle sans fin : les non-internautes sont attirés par les possibilités de recherches simples et gratuites qu’offre Google (et d’autres) et s’abonnent alors à un fournisseur internet; et plus il y a d’internautes, plus il y aura de visiteurs pour Google, engrangeant ainsi un plus gros bénéfice encore pour améliorer ses produits et attirer ainsi encore plus de monde. Autour de cela s’est développée l’industrie du référencement, ou SEO pour les initiés.

Les enjeux sont énormes : une changement de position pour une requête à fort trafic peut faire perdre des milliers de visiteurs à un site, et donc beaucoup d’argent. On est loin des petites bidouilles des années 90 pour être bien classé sur les moteurs et les annuaires. Le jeu du chat SEO et de la souris Google consiste pour les référenceurs à positionner leurs sites en évitant les pièges en tous genres laissés par le moteur derrière lui : filtres anti-spam, pénalités, évaluateurs (humains) de la qualité, … Sans oublier la pression des concurrents et surtout celle des internautes. Ces derniers ont modifié leur comportement : si autrefois on pouvait se satisfaire d’une cinquième ou sixième place, le fameux triangle d’or s’est depuis transformé une petite tache encadrant les 2 voire 3 premiers résultats. Se positionner sur des requêtes à très fort trafic : mission impossible. C’est alors qu’est née la notion de longue traîne (long tail), pour se focaliser davantage sur la quantité que sur la qualité.

De son côté, Google a adopté deux lignes directrices face aux insatiables référenceurs. La première consiste à personnifier le robot de Google, Googlebot, et à inciter les SEO à le respecter autant que les autres internautes. D’où la lutte pour l’accessibilité, mais surtout contre les textes cachés en CSS, contre le cloaking, contre les fermes de liens, contre les bonnes vieilles pages satellites, etc. Don’t be evil avec les utilisateurs, en somme. Cela donne une bonne image de Google auprès des internautes mais lui permet aussi d’obtenir de meilleurs résultats. Pourtant, dans l’absolu, rien n’indique qu’un site peu accessible ou faisant du cloaking soit moins pertinent pour un internaute qu’un site techniquement propre.

C’est là que l’on comprend la différence entre un SEO white hat et un SEO black hat. Le premier voit en Google(bot) une sorte de représentation humaine qu’il convient de choyer au plus au point pour qu’il les récompense de belles positions; alors que pour le second, Google n’est qu’un bête algorithme dont il suffit de manipuler les paramètres avec doigté (par tous les moyens) pour en obtenir le meilleur.

La deuxième ligne directrice est celle qui pousse les SEO à lâcher prise face à l’ogre de complexité qu’est l’algorithme de Google et de leur faire payer des publicités AdWords. Solution de facilité indéniable, d’ailleurs cela marche tellement bien que la publicité liée aux résultats des moteurs de recherche représente la moitié des dépenses publicitaires en ligne. C’est également dans cette optique que Google lutte activement contre l’achat de liens, une situation à laquelle personne n’aurait pensé être confronté il y a dix ans. Ce système est d’autant plus méprisé qu’il est basé essentiellement sur la dénonciation…

Mais toutes ces conclusions se basent uniquement sur les constatations des référenceurs. En 10 ans, Google a tout juste bien voulu nous livrer le secret de son algorithme de base du PageRank (dépôt de brevet oblige), mais la boîte noire s’est dotée depuis de plus de 500 paramètres, et de l’énigmatique TrustRank pour ne citer que lui. Certes, par souci de pseudo-transparence, les employés de Google s’adressent aux webmasters-référenceurs et expliquent le b.a.-ba du SEO, mais on tombe parfois sur des conseils qu’il ne vaut mieux pas suivre et des ingénieurs qui jouent sur les mots : « le duplicate-content n’existe pas« , « la réécriture d’URL ne sert à rien puisque Google sait interpréter les adresses dynamiques » (et les autres moteurs alors ?), « il n’y a pas d’intervention humaine sur les résultats« , etc. Plaignons alors tout ceux qui se sont déjà fait blacklistés ou rejetés d’un programme de Google car ils « ne respectaient pas » les règles ou consignes édictées par Google. Comme l’explique à juste titre un journaliste du New York Times à propos de Google AdWords : « Comment voulez-vous vous adapter aux contraintes techniques de Google lorsque Google n’est pas en mesure de vous détailler ces contraintes ?« . Ou comment résumer le paradoxe des référenceurs/éditeurs/annonceurs en une seule question.

Maintenant que nous avons vu comment Google use ou abuse de son monopole et comment les référenceurs s’y sont adaptés, étudions ce que Google nous réserve pour l’avenir. De toute évidence, la pertinence devrait continuer à s’améliorer; une pertinence de plus en plus personnalisée en fonction de l’utilisateur. Le développement du surf avec les appareils mobiles nous le prouve tous les jours : si vous êtes à Lille et que vous cherchez une pizza, avec votre portable vous ne taperez plus « pizza lille » mais « pizza« , puisque Google sait où vous vous trouvez et se fera une joie de vous présenter les pizzerias les plus proches de vous, en ayant extrait au préalable des adresses contenues dans les pages web pour les géolocaliser. A quoi bon continuer à vouloir à tout prix être positionné sur [pizza lille] dans ce cas ? C’est exactement ce même cas de figure auquel va falloir faire face suite à la récente introduction de Google Suggest, comme le souligne Olivier Duffez.

La notion de pertinence est toutefois encore très relative aujourd’hui. Le fléau de 2007-2008 est sans doute la prolifération des agrégateurs de blogs dans les pages de résultats. Dans la précipitation, l’algorithme privilégie trop la fraîcheur des publications à la véritable pertinence du contenu. Du moins, dans un premier temps, le jeu des backlinks rectifiant le tir après coup. Et comme on est jamais mieux servi que par soi-même, l’exemple en image ci-dessous est suffisamment parlant.

Exemple de page de resultats ou les digg-like flottent...

Ceci est un effet de bord de la Recherche Universelle, mise en place l’année dernière est qui est sans conteste le point sur lequel les ingénieurs de Mountain View (et de partout ailleurs) vont le plus se pencher. En effet, plus que la pertinence, c’est la façon dont les utilisateurs interagissent avec les pages de résultats (SERPs, pour les intimes) qui va changer, et compliquer le travail des référenceurs. Tout doit être simple, pour aller au plus rapide, et pour obtenir au final « non pas ce que je cherche, mais ce que je veux« . Google a beau faire des essais de filtrage dans ce sens, les internautes sont de plus en plus pressés : cliquer sur des liens pour filtrer les résultats est un clic de trop. Cela se ressent également sur feu le triangle d’or dont nous parlions précédemment. Certains voient même à moyen terme la disparition de la SERP au profit des résultats instantanés (Ubiquity). Néanmoins, tant que Google et les autres n’auront pas trouvé pas de moyen efficace de rentabiliser ces pages, les SERPs auront encore une longue vie devant elles.

Au fil des années, le jeu du chat SEO et de la souris Google a changé d’aspect : la souris a grossi au point que c’est maintenant elle qui poursuit les chats et pour les étudier (du moins, leurs sites) dans les moindres détails et les achever à coups de pénalités. De nos jours, mieux vaut être blindé de A à Z avant d’oser affronter le monstre. Heureusement, le chat retombe toujours sur ses pattes…

Publié le 23 septembre 2008 à 23:17 par dans Actualité

Billet trop ancien. Les commentaires sont maintenant fermés.