Prenons des cas de figure relativement communs, que nous allons étudier au cours des prochains billets :
- Domaine ancien (3 ans et plus) sur lequel un travail SEO a été réalisé
- Domaine récent (moins de 3 ans) également optimisé pour les moteurs
- Site en cours de conception et lancé très prochainement
Nous partons bien évidemment du principe que ces sites sont pénalisés ou susceptibles de l’être (puisque la visibilité internet est un critère primordial dans le cahier des charges).
D’où une introduction à la notion de désoptimisation que nous abordons aujourd’hui :
Inclure la gestion des risques liée au SEO
L’accessibilité des contenus publiés pour les moteurs de recherche doit se faire sur plusieurs niveaux. Car si la suroptimisation (SEO) risque de déclencher des filtres ou modération/pondérations, à contrario il va falloir garder l’important sans trop l’accentuer, et pour y parvenir, rendre le reste le plus transparent possible !
- Montrer le chemin vers des éléments méritant toute l’attention des moteurs
- Écarter ou minimiser tout ce qui est de l’ordre de l’environnement technique
- Minimiser le bruit
Comme je ne sais pas si je suis très clair dans mon explication, j’apporte un exemple pour l’illustrer :
CONTENU AVANT :
L’over-optimization est une branche du SEO qui consiste à rendre tout super-important. Un peu comme si vous aviez devant vous une page de papier au format A4, par exemple d’un cours de médecine, pour laquelle tous les mots seraient surlignés, soulignés ou mis en gras à l’aide de feutres, de marqueurs fluo et autres fournitures scolaires destinées à attirer l’attention.
CONTENU APRES :L’over-optimization est une branche du SEO qui consiste à rendre tout super-important. Un peu comme si vous aviez devant vous une page de papier au format A4, par exemple d’un cours de médecine, pour laquelle tous les mots seraient surlignés, soulignés ou mis en gras à l’aide de feutres, de marqueurs fluo et autres fournitures scolaires destinées à attirer l’attention.
EXPLICATION :
Vous allez me dire : rien ne transparaît dans le texte « après ». Et vous avez raison, il ne s’agit pas d’une erreur !
Simplement, les bases sémantiques et/ou ontologiques des moteurs sont suffisamment développées aujourd’hui pour que les robots crawlers rapportent une chaîne de caractères qui sera traitée pratiquement instantanément par le logiciel algorithmique. Tous le bruit des stopwords sera filtré pour ne retenir que les termes justement « hors stopwords » :
over-optimization, seo, cours médecine,feutres,marqueurs,fournitures scolaires
En fonction du contexte du reste de la page, l’algo. choisit de mettre dans des cases les thématiques de la page. Par exemple, en se basant sur la même phrase :
- Sujet principal : référencement
- Sujet secondaire : fournitures scolaires
- Sujet annexe : étude en médecine
Sous-optimisation
Bien entendu, il ne faut pas déduire des inepties de ce qui n’est pas explicite dans cet article : les stopwords sont primordiaux. C’est au moteur de recherche de les filtrer, pas au rédacteur 😉
De même, il fait se méfier des pages mono-thématiques : on sait depuis la nuit des temps du web que Google préfère une page qui parle de carottes et une page qui parle de choux, plutôt qu’une page qui mêle les deux. Mais ça, c’était AVANT. Aujourd’hui la catégorisation des contenus se fait à la volée, et des pages qui se cantonnent EXCLUSIVEMENT à un sujet sont passibles de sanction par Penguin, car il est pratiquement impossible de traiter un sujet en ne faisant pas appel à des concepts linguistiques connexes.
Comme dans cet article que vous lisez : il y a des références multiples, des clins d’œil, des allusions, des citations… C’est ce qui rend la lecture agréable (j’espère) et surtout humaine. Un référenceur dirait « naturelle ». Sans cette dilution de concept, on se retrouve avec de la bouillie ou un manuel technique, mais en tous cas avec une chaîne de caractères qui ne semble pas naturelle du tout !
Conclusion
Nous avons parcouru ensemble l’introduction à l’art délicat de la dé-optimisation de texte. Ce que vous venez de lire va à l’encontre de presque tout ce que vous pouvez lire sur le web, et c’est bien normal, car vous avez la chance d’être sur le site d’un spécialiste du référencement (pour rappel, un spécialiste est pour moi quelqu’un qui se trompe un peu moins souvent que les autres sur son sujet de prédilection).
Vous faites donc partie de l’avant-garde des référenceurs, et vous êtes en train de vous outiller pour préparer la visibilité internet de demain !
A très bientôt pour la suite de cette série d’articles.Je suis bien d’accord sur le fait qu’il est humain de faire le lien entre les concepts, car c’est justement ma philosophie de la vie. Ce qui nous distingue de l’animal qui voit en chaque chose ce qu’elle est sans rien d’autre, c’est notre capacité (propension) à y voir des symboles, des signes, des projections… Comme la nature du web c’est le lien hypertexte, je trouve que co-citer ou lier les thèmes annexes ou connexes entre eux est parfaitement légitime ! En partant de ce principe on en vient même à vouloir développer cette pratique : Plutôt que d’enfermer un site ou une page dans un thème comme vous dites, je crée des passerelles vers autant de ressources complémentaires que je le souhaite, à partir du moment où j’y vois une corrélation ! Nous ne sommes pas des robots, notre richesse est cette capacité à communiquer, échanger, collaborer… Vous avez remarqué ? co-mmuniquer, co-llaborer : un travail de partage, d’enrichissement et d’ouverture grâce à l’Autre 🙂 — SEA : le New Deal 2013-06-27 13:50 sea-new-deal Or donc, nous voici au point de rupture, celui où le glissement est en train d’opérer. La tectonique des plaques, et la formation d’un nouveau continent du référencement…