SEO à papa : le paradigme précédent

La définition du référencement a lentement évoluée au cours de 20 dernières années. En effet, aux débuts du web les sites étaient peu nombreux, à tel point que les équivalents des annuaires papiers suffisaient à embrasser une vision d’ensemble sur les plus utiles, les meilleurs, les plus drôles, etc

Certaines publications mensuelles comme Net@Scope vendues en kiosque se faisaient même l’écho de ce genre d’informations.

Les premiers annuaires et guides web étaient des références puisque modérés par des internautes, comme l’annuaire DMOZ ou l’annuaire Yahoo! On les désignait par les termes « CatEdit », « Netsurfeurs », ces modérateurs veillaient sur la qualité des contenus et leur conformité avec ce qu’ils annonçaient dans le code source de leurs pages. Au moyen des balises d’entête des documents HTML, invisibles pour l’internaute : TITLE, META DESCRIPTION, META KEYWORDS… (Ce n’est pas pour rien si les keywords ne sont plus pris en compte par Google depuis des années…)

Donc, jusqu’à l’an 2000, la Toile restait relativement « sous contrôle » humain. Mais on sentait les prémisses de l’explosion à venir, celle due à la popularité d’Internet qui semblait se développer de façon exponentielle à mesure que les coûts d’accès et que les possibilités de devenir acteur du web soi-même se banalisaient.

Le web selon Google : le PageRank

Lorsque Google est apparu, la révolution était en marche : pour faire face à l’afflux de nouveaux sites créés chaque jour, il fallait automatiser le tri car les humains n’étaient plus capables d’absorber le volume.

En se basant sur un modèle de tri algorithmique dont le concept repose sur le nombre de liens, Google mettait en branle une industrie qui allait connaître ses heures de gloire pendant les 10 années à venir.

Le PageRank est une idée de génie : en parcourant la Toile, site après site, les robots des moteurs collectent et comptabilisent tous les liens. Le lien étant l’essence même du web, celui qui lui permet d’exister et de croître, la boulimie de ce système de comptage n’avait de limites que dans la capacité de Google à ingurgiter, à trier puis à régurgiter les pages au sein de son moteur. En s’équipant de fermes de serveurs et en investissant des sommes colossales dans les technologies matérielles et logicielles informatiques, Google a rapidement pris la tête de l’Univers virtuel qu’est le réseau des réseaux.

Aparté : Entre nous, il faut relativiser. Google est sans contestation possible le plus gros moteur internet, certes. Mais Google n’est pas omniscient pour autant, et des millions de pages lui passent à côté, car la machine elle-même ne peut tout indexer, répertorier, classifier… De même qu’il est possible de ne pas laisser le moteur accéder à ses contenus (c’est le principe du web « Invisible »)

Aparté n°2 : Google est le meilleur système/moteur qui soit basé sur le PageRank, c’est à dire l’automatisation d’un certains nombre de tâches de tri et de filtrage volumique…

Le web s’est donc développé selon le paradigme de Google, le PR. Et tous les acteurs du web ont eu entre les mains la possibilité de tirer partie de cette vision du monde connecté : construire la popularité d’un site en créant des liens vers lui.

Nous sommes au début des années 2000, et le moteur réalise déjà qu’il ne lui faut plus communiquer les indices de popularité au travers de la petite barre verte attribuée à chaque site. L’internaute a en effet la possibilité, dans la barre d’outil de son navigateur, de constater si un site est jugé « populaire » par le moteur. Avec une échelle de notation allant de rien (avant zéro) à 10, il devenait ainsi « facile » pour un webmaster de sélectionner les sites déjà bien classés par Google, dans le but de faire des liens depuis ces même sites, sur le principe simple de la célébrité : si Barak Obama parle de vous demain, cela aura plus de poids que si la mention provient de votre voisin, cet illustre inconnu.

Ceux qui avaient compris cela sont devenus des professionnels du lien.

Ils ont bâti leur propre système sur une logique de créationdistribution et rémunération sur et autour de la valeur « lien ». 

Parmi ces professionnels du lien, beaucoup ont eu leur heure de gloire, exactement comme les traders en bourse : spéculer sur l’indice lien, acheter pour revendre des liens ou populariser un site générant des revenus grâce aux régies, leur a permis de vivre souvent très confortablement de ces revenus passifs.

La fin du PR

Etait donc inéluctable : au fur et à mesure, l’empire basé sur la valeur PR s’engorgeait, c’était mécanique :

  1. Un site devient populaire parce que Google détecte un grand nombre de liens pointant vers lui,
  2. des sites moins visibles le découvre et s’en servent de tremplin pour gagner en popularité, et ce faisant lui apportent du contenu,
  3. le site augmente sa propre volumétrie, et transmet sa célébrité aux petits sites qui grimpent dans les classements,
  4. ce phénomène d’interaction contribue à faire monter l’ensemble du réseau.

Même avec toute la puissance de calcul possible, arrive un seuil où le comptage n’est plus pertinent, car tout un chacun peut manipuler le système en créant autant de liens complètement artificiels qu’il en faut. Même avec la montée en puissance de la concurrence (c’est à dire des sites parlant des même sujets), approvisionner un site avec des milliers de liens crées en quelques heures n’était pas un souci vers 2010. Et plus la technologie permettait de faire baisser les coûts d’acquisition du lien sacro-saint, plus il s’en créait chaque seconde. Un cauchemar pour Google !

C’est pour cela que des filtres ont été mis en place progressivement pour tenter d’endiguer cette course aux liens.

Les plus connus étant Google Panda en 2011, puis Google Penguin en 2012.

Ces animaux au demeurant plutôt sympathiques sont devenus les bêtes noires de professionnels du lien : du jour au lendemain, ces milliers de liens pointant vers leurs sites n’ont plus eu aucune valeur. La dévaluation du lien a eu pour conséquence (effet mécanique) la déflation de leur écosystème : tout s’écroulait, à l’instar d’une château de cartes de plusieurs étages.

Publié par Yann Faurie

Je fais partie de la 1ère vague de référenceurs. J'ai débuté en 97 à faire mes premiers sites web à Londres dans le secteur de la musique indépendante. En 2000 j'étais référenceur en agence de communication RH à Paris. Après, tout s'est enchaîné. Aujourd'hui, je suis toujours là. Et je continue à apprendre des choses sur le SEO tous les jours. Elle est pas belle la vie ?