Slow content is king

Vous aussi, vous avez lu partout, sur tous les blogs SEO, qu'il fallait produire des contenus le plus régulièrement possible ? Rédiger des articles (300 mots étant le minima, 500 mots étant ok, plus de 1 000 mots étant considéré comme nice-to-have), pour tester l'appétence de GoogleBot à venir sur vos pages et se délecter de votre prose. Ou pas.

FMO (Fear of Missing Out)

Il fut un temps où faire de la veille signifiait vraiment référencer ses sources et en auditer la qualité. Avant 2012 (filtre Google Penguin sur l'algorithme de classement) mener une veille SEO avait un double avantage : se tenir au courant des techniques et méthodes bénéfiques pour améliorer la visibilité d'un site dans les pages de résultats (SERPS) de Google. Et pouvoir appliquer des "plans" directement utilisables partagés au sein de la communauté de référenceurs.

Puis ce temps céda la place à un autre, plus austère, au cours duquel mener une veille impliquait de chercher des retours d'expérience, des use-case, des stories.

Depuis quelques années, faire de la veille SEO revient principalement à trier parmi la grosse majorité d'articles et/ou de sources qui rédigent des publipostages, c'est à dire des contenus sponsorisés, des articles guest-blogging, des articles destinés à mettre en avant une certaine forme de monétisation via des liens d'affiliations... On trouve pêle-mêle beaucoup de contenus centrés sur les outils seo, les évènements, beaucoup plus rarement de vrais articles de fond, même si sur ce point la francophonie est chanceuse d'avoir des talents liés à la recherche et développement en référencement naturel (nous reviendrons sur le sujet prochainement).

Le syndrome "fresh content"

Est un beau footprint.

Publier des articles dans le but d'amener GoogleBot sur son site le plus rapidement possible est une stratégie rédactionnelle pour certains. Les amateurs d'analyse de logs seront formels : plus vous publiez souvent, plus les crawlers viennent régulièrement, et à des intervalles de plus en plus rapprochés, sur votre site.

Mais que se passe t-il si ce que vous publiez et inintéressant au possible ?

Alors il devient évident que vous ne rédigez des contenus que dans le but d'obtenir cette régularité du passage du crawler sur vos pages. Autrement dit, c'est pour la performance mécanique.

Evitez le contenu snack, préférez les articles durables

C'est une véritable écologie éditoriale qui se met en place : plutôt que privilégiez le quantitatif (le nombre de nouveaux billets de blog que vous pouvez mettre en ligne à la semaine par exemple), publiez qualitatif !

Désoptimiser un site consiste donc à ne pas lui imposer un planning éditorial serré uniquement dans le but de tenter de faire revenir le crawler le plus souvent possible.

C'est en effet une forme d'optimisation désormais bien trop connue et utilisée :

Si poster régulièrement des contenus envoie un signal favorable aux moteurs de recherche, cela ne suffit plus en 2019 à vous assurer un avantage concurrentiel en terme de visibilité dans les SERPS.

Sauf bien évidemment, si la concurrence du secteur dans lequel vous souhaitez vous positionnez est plus faible sur ce point, et à toutes choses égales par ailleurs...

Un exemple vaut mieux qu'un long discours...

Ce site est en première page de la page de résultats de Google.fr devant de très nombreux média très populaires, avec des volumes de contenus de l'ordre des centaines de milliers de pages indexées par Google et qui publient très régulièrement.

Il répond très spécifiquement à la stratégie de désoptimisation et a donc toute légitimité pour garder cette tribune. Il faut reconnaître qu'il est sur un secteur de niche du SEO, ce qui contribue énormément à ce bon positionnement.