Pourquoi désoptimiser son site web ?

Dans la course à la visibilité sur Google, en première page des résultats de recherche du moteur (ou Serps pour Search Engine Results Pages) si possible, les acteurs de plus en plus nombreux du web se jettent littéralement sur toute technique ou méthode qui permettrait de passer devant les autres, c'est à dire de mieux se classer. Ces trucs et astuces peuvent se résumer par :

  1. Avoir un besoin
  2. Avoir une idée de projet en ligne
  3. Avoir une estimation de la faisabilité par rapport au marché, qu'on va mettre en rapport avec un objectif
  4. Lancer son site web et tout mettre en œuvre pour qu'il obtienne les meilleurs résultats

Si on devait détailler cela pourrait se faire ainsi :

J'ai un besoin : il me faut de l'argent

J'ai une idée : je vais lancer un site web sur ma passion

J'ai une estimation du secteur : mon idée n'est pas nouvelle, et c'est une passion que beaucoup d'internautes partagent, il y a déjà beaucoup de sites sur le sujet depuis plusieurs années

Je lance mon site web en espérant vendre suffisamment mon produit, qui est un ebook sur ma méthode, pour en vivre décemment (un SMIC les deux premières années).

Ce qu'il faut retenir : si l'idée est déjà présente sur le web, il va falloir fournir beaucoup d'efforts pour se faire une place dans les Serps.

Et c'est ainsi que se profile le drame...

Comment se faire une place dans les Serps ?

L'un des premiers leviers de visibilité qui est clamé haut et fort dans les forums et autres blogs d'entrepreneurs qui cherchent à populariser leur offre c'est l'optimisation pour les moteurs de recherche (SEO).

Ainsi commence le chemin de croix pour le porteur de projet, qui va devoir intégrer tous les éléments de la grande trousse du spécialiste es référencement qu'est l'expert SEO :


  • balisage sémantique optimisé in-page (balisage xHTML ou HTML5, micro-données...),
  • maillage interne in-site optimisé façon coquille d'escargot ou silo via le cocon sémantique,
  • thésaurus et corpus ultra-qualitatif ET quantitatif, à un rythme régulier s'il vous plaît,
  • linking externe réalisé depuis des sites ultra-qualitatifs sélectionnés pour leur rapport avec le sujet,
  • optimisation technique pour un chargement rapide des pages,
  • optimisation technique pour une compatibilité tous supports (pc desktop, portables, tablettes, smartphones, consoles de jeux...) via le responsive design,
  • etc

L'éditeur du site, convaincu du bien-fondé de ces "bonnes pratiques" qui sont publiées partout, va donc se mettre à optimiser tout ce qu'il est possible d'améliorer.

Mais le site aura beau obtenir les meilleurs notes de tous les audits SEO du monde, ce n'est pas cela qui va le placer en tête des Serps.

Beaucoup d'éditeurs de sites ne comprennent pas la phrase précédente, car pour eux, "qui peut le plus, peut le moins". Ils vont donc t'expliquer inlassablement qu'un site optimisé SEO ne présente pas de facteur bloquant pour les robots crawlers, et que "ça ne peut être que mieux".

Si le raisonnement se tient, il faut aussi remettre l'opti. dans le contexte du web : combien de sites sur le sujet sont déjà optimisés et présents dans les Serps ?

Pourquoi le contenu est roi sur le web ?

Parce qu'il suffit d'un technicien pour optimiser un site. Et qu'un SEO coûte moins cher qu'un journaliste, un rédacteur-concepteur ou un écrivain. D'autant plus qu'avec tous les sites qui abondent sur le sujet, on peut apprendre à faire son SEO soi-même sans problèmes.

Alors vous pourriez me répondre : et les blogueurs ? Et la fameuse blogueuse mode par exemple, qui écrit comme elle parle, avec son ♥ ? Elle ne coûte pas cher...

Eh bien justement son contenu n'est bien souvent pas optimisé SEO. La valeur de son blog, c'est le ton de sa personnalité et le réseau de ses ami(e)s. Google ne lui amène pas beaucoup de trafic organique mais elle s'en fiche car elle est présente sur tous les réseaux sociaux et les plateformes de blog, actus mode et j'en passe.

Lorsque la blogueuse mode (cherche à) optimise son site, cela passe par un rappel à l'ordre de Google qui vient évoquer la nécessité d'avoir des liens nofollow sur tous les articles sponsorisés...

La désoptimisation est la planche de salut du site web moyen

Aucun jugement de valeur là-dessus. D'ailleurs ce site a beau se positionner en 1ère position de Google sur la requête "désoptimisation", je le considère comme un site au contenu "de base", c'est à dire "moyen". Bien sûr, les haterz vont dire que c'est facile d'être au top des serps avec un EMD sur une niche, ce pour quoi j'expliquerais aux novices que le secteur de la desoptimisation SEO est une niche : comme il y a très peu de recherches d'internautes sur cette requête, cela n'attire pas les concurrents. Et pour aller plus loin, le fait même d'inciter les webmasters à désoptimiser leurs sites est à contre-courant de ce qu'on lit dans 99% de la sphère SEO. Donc c'est non seulement confidentiel mais également impopulaire. Est-ce inexact pour autant ? Est-ce que la majorité a toujours raison ? Bref.

Le but de cet article est de mettre le doigt sur la raison même qui pousse la plupart des infopreneurs à recourir aux services d'un SEO, ou à la faire eux-même.

Désoptimiser la médiocrité

Il faut comprendre que les techniques des référenceurs ne fonctionnent que tant qu'elles ne compromettent pas la moyenne. Le jour où tout le monde fera bien attention à ce que la balise Title de chacune de ses pages atteigne sans jamais dépasser les 65 caractères, avec un ou deux mots-clés habilement placés, Google modifiera une fois de plus son algorithme pour que critère perde en importance. Et au vu de l'importance qu'à pris le SEO ces dernières années (comme s'il s'agissait d'une méthode infaillible pour assurer le succès de son site), le jour n'est pas loin où l'optimisation web in-page et in-site sera réalisée sur plus de la majorité des sites.

Mais avant cela, les sites aux contenus pauvres qui essaient de compenser avec une technicité élevée feront les frais de nouvelles mises à jour du moteur Google. Pourquoi optimiser un site qui n'en vaut pas la peine ? C'est espérer gagner quelques secondes de plus, le temps que l'internaute, séduit par le graphisme ou la mise en page, réalise que les articles sont absolument insipides et quitte le site. Autant pour le taux de rebond !

Pour autant, il est évident qu'on ne peut pas toujours produire un contenu ultra-qualitatif, intéressant et pertinent, rarement abordé sur la Toile. Mon conseil est donc de pratiquer une désoptimisation choisie sur les articles que vous jugez moins bons, peut-être à cause d'un manque d'inspiration ou par manque de temps par exemple. Comment ?

En rédigeant un titre (trop) long, une description qui ne contienne pas de mot-clé, un balisage HTML plutôt orienté lecteur que robot... Vous allez donner un profil naturel à certaines pages de votre site, cela va donc diluer quelque peu le signal et vous faire éviter le piège de la sur-optimisation systématique.

L'autre avantage est que votre lectorat se trouvera également épargné de lire un article plutôt moyen truffé d'expressions-clés mises en gras ou avec des liens, car ce genre d'optimisation se remarque très rapidement et a plutôt tendance à faire fuir l'internaute avisé ;-)

Nous verrons prochainement un peu plus concrètement les différentes façons de réaliser cette désoptimisation. Une autre façon d'évoquer le sujet serait de dire "si tu n'as rien à dire d'intéressant ou qui est déjà dit ailleurs sur la Toile, abstiens-toi !"

Ça vous fait réfléchir ?