Par CMS Metrics le mercredi 11 mai 2011, 02:02
Un billet publié récemment sur le site Buzz.Marketing.free.fr (Google Panda, la plus importante campagne de marketing viral jamais lancée ?) pose une question intéressante sur la part de mystère attachée à toute technologie.
Il est fait état du dernier développement de la firme Google, un algorithme baptisé "Panda" (plus tard un filtre, ou plutôt une couche, qui sera intégré à l’algorithme existant). Internaute-roi ou internaute-esclave n'entrera pas dans le sujet technique, des centaines de blogs et forums s'étant déjà acharnés à tenter de disséquer et de comprendre cette modification chamboulant les positions des sites dans les pages de résultats de Google.
Et justement, c'est bien là le plus paradoxal...
Le moteur de recherche Google a basé son algorithme sur l'analyse des "backlinks" d'un site, c'est à dire les liens pointant vers ses pages depuis d'autres sites. Cette révolution à son époque a permis d'obtenir des classements basés sur la popularité des sites, selon le principe qu'un site populaire est "bien"/"bon". Puis au fur et à mesure de l'évolution de Google, une multitude d'autres critères sont entrés dans la danse : autorité de l'émetteur du lien, ancienneté du nom de domaine, pondération du nombre de liens par page, etc (certains de ces critères sont depuis la date de première publication de cet article, en 2011, entrés dans le panthéon des mythes de la recette à succès pour ranker sur Google -ndt)
Ceci dit, alors qu'évoluait et montait en puissance la technologie de classement et de positionnement de site mise au point par Google, son entendement par les techniciens du web (webmasters, référenceurs) diminuait.
Plutôt que de livrer des informations claires et détaillés sur le fonctionnement de son algorithme, Google a commencé à communiquer sur les bonnes pratiques à mettre en œuvre afin d'optimiser son référencement (sur Google évidemment). Il est bien entendu compréhensible que Google ait cherché à protéger les rouages de son avantage technologique face aux autres acteurs de la recherche sur internet. Mais ce qui semble "habituel" pour tout webmaster depuis des années, au travers des guides, forums et recommandations publiés par Google peut ressembler à un processus aliénant. Explications :
A l'origine d'internet, l'information. Sans information, sans page, sans site, pas de moteur de recherche. Au fur et à mesure de la croissance du volume d'information sur internet, le besoin de classer et de trouver les documents s'est fait de plus en plus pressant puis exigeant. En proposant une recherche rapide et simple, Google a répondu au bon moment à ce besoin. Puis son ascension et son succès l'ont rapidement hissés en position de domination du marché de la recherche sur le web. Les webmasters ont alors eu l'obligation de creuser le fonctionnement de ce moteur afin de mieux positionner leurs sites, en lisant les recommandations livrées par le firme elle-même puis en mettant en application les directives qui y sont indiquées. A partir de là, les webmasters se sont rendu dépendants, tout en prêtant allégeance à l'algorithme dont ils facilitaient la tâche au travers de leurs "optimisations".
Le volume de données ne cessant de croître, le phénomène s'est doublement accentué : d'un côté Google conforte son monopole et finit de convertir les derniers webmasters réfractaires ou ignorants à sa technologie, de l'autre tous les webmasters déjà pro-Google affinent leurs pages et se livrent une concurrence acharnée. En effet, si tout le monde fait "ce qu'il faut comme il faut", comment départager les bons soldats ? A cette question, l'algorithme fournit toujours des réponses, proposant toujours un critère ou un paramètre jusque-là resté dans l'ombre. Et à la lumière de ce nouvel éclairage ("bien sûr, le linkjuice d'une page A vers une page B est d'autant plus délayé qu'il y a de liens nofollow"), les webmasters rentrent dans le rang en discutant longuement et en débattant sur internet, alimentant le mythe et renforçant le lien avec Google (principalement en épluchant les guides et forums pour webmasters proposés par Google, et en relayant leur compréhension et leur vision des énigmes sur leurs propres sites).
C'est ainsi un nouveau pan d'activité qui se créé, avec des spécialistes de plus en plus... spécialisés et experts sur la question du référencement et du positionnement dans Google. Là encore on retrouve un certain équilibre : la majorité de ces spécialistes respectent à la lettre ce que recommande Google, les autres tentent de tricher et détourner des méthodes "légales" pour parvenir à mieux positionner leurs sites que leurs concurrents. L'analogie entre les "white hat" (les "bons webmasters") et les "black hats" ("les mauvais webmasters") a tôt fait de rencontrer un vif succès parmi les communautés. Bien entendu, c'est encore un joyeux mélange des deux (les "grey hats") qui a finit par stabiliser le microcosme. Les Grey hats peuvent se définir de la sorte : ils écoutent les conseils de Google mais ne les appliquent pas toujours et n'hésitent pas à sortir des sentiers battus pour tester de nouvelles choses, potentiellement interdites et répréhensibles.
La spécialisation est arrivée à son comble en 2010, qui a vu littéralement exploser le nombre d'agences de référencement et le chiffre d'affaire potentiellement réalisable dans la sphère internet. En effet, chaque agence de communication experte en référencement pouvait compter sur le mélange de plusieurs techniques pour parvenir à faire mieux que ses concurrentes. Mais sans jamais l'avouer. Si le black hat n'était pas officiellement dans la structure, ses compétences étaient louées en sous-traitance...
Parmi ces compétences, l'exploitation du backlink (qui est, rappelons-le, la clef de voûte de l'algorithme de Google) est la méthode la plus utilisée.
Si le lien est l'élément qui me permet d'être mieux positionné, alors créons du lien avec d'autres sites, et au besoin, créons des sites qui feront des liens ! La boucle étant ainsi bouclée. En appliquant ce principe, le webmaster entre dans une mise en abyme : afin de positionner un site A, il crée un site B qui a un lien vers A, mais B n'étant lui-même pas bien positionné, il faut AUSSI chercher à le positionner, en créant par exemple un site C, qui parle de B. Mais par contre, attention à ce que C ne parle pas de A, car le lien est alors éventé, la relation devenant évidente pour le moteur de recherche qui inhibe tout effet.
Ce principe a eu comme effet de démultiplier encore plus le nombre de site. Une aubaine pour les vendeurs de noms de domaines, d'espace de stockage et d'hébergement, pour les régies publicitaires, etc... Mais surtout pour Google, seul moteur disposant d'une infrastructure assez puissante pour avaler le volume toujours croissant de données. Puis les informaticiens ont réfléchi à d'autres moyens de créer du lien (sans pour autant créer un site complet à chaque fois) : les flux RSS, les sites d'agrégations, les sites de mash-ups (mélanges de contenus) et autres fermes de contenus ont également connu leur apogée en 2010.
En démultipliant ainsi le nombre de liens vers un site simplement en utilisant d'autres méthodes, d'autres protocoles ou d'autres technologies, les webmasters ont pu influencer un temps Google. Les réseaux sociaux ont également contribué (et continuent) à influencer le positionnement d'un site, mais sur la base du principe "un lien= un vote = un internaute" qui respecte relativement le principe de base du lien. Multiplier les comptes sur les réseaux sociaux est très chronophage et pas aussi automatisé que les méthodes décrites plus haut.
Fin 2010, Google a annoncé qu'il allait s'attaquer au spam des pages de résultats, fourni en premier lieu par les fermes de contenus et de liens. Puisque Google considère comme "illégal" le fait d'acheter des espaces sur d'autres sites afin d'y publier un lien dont le caractère mercantile ne serait pas affiché, les sites de comparateurs de prix, d'avis, de reprise d'information tombent sous le coup des re-diffuseurs de données.
Bref, après avoir longuement flatté à l'aide de ses outils gratuits puis préparé le terrain auprès de ses principaux prescripteurs (webmasters, fournisseurs de contenus, référenceurs et agences de communication et marketing...), Google décide de faire le ménage parmi le volume de données internet contenu dans ses datacenters. Bien entendu, pour le bien des internautes en quête de résultats pertinents lorsqu'ils utilisent le moteur de recherche le plus populaire. Mais également pour leur propre compte puisqu'ils déclassent du même coup bon nombre de sites potentiellement concurrents, c'est à dire proposant des systèmes de rémunération autres que Google Adwords/Adsense. En renforçant sa présence segmentée sur les différents types de média référencés (recherche universelle, google maps, google local business, google images, google actualités, google buzz...) Google n'a clairement pas de concurrent direct aussi performant. Avec Google Panda, la société joue un match important : celui de re-distribuer toutes les cartes du référencement à sa guise. La position de monopole de Google est ici flagrante, car au lieu de faire chuter /disparaître les "mauvais sites" des classements, Panda aurait pu tout aussi bien se voir proposé sous une forme moins brutale, à l'aide d'indication textuelle par exemple jouxtant le lien (comme "probabilité de spam").
Une bien belle leçon de marketing, qui pourrait se résumer par : innovation (le moteur révolutionnaire et minimaliste), séduction (des résultats impressionnants grâce à un algorithme basé sur les backlinks, et à la force de frappe de ses datacenters), influence (les guides pour webmasters afin de leur permettre d'améliorer le positionnement de leurs sites), manipulation (imposer une censure des résultats basée sur le constat subjectif que les fermes de contenus n'apportent rien aux internautes) ?
aucun commentaire aucun rétrolien