Comment ne pas sur-optimiser ses pages pour le référencement naturel ?

Difficile d’aborder les techniques d’optimisation des pages pour le SEO sans parler de sur-optimisation. Car l’optimisation SEO signifie tout simplement le fait d’utiliser les méthodes d’optimisation mais de manière abusive. Ainsi, tandis qu’optimiser ses pages web consiste à mettre des mots-clés dans la page, sur-optimiser revient à en mettre trop et partout !

Sur-optimisation SEO

Echapper à la sur-optimisation pour son SEO

Dans cet article, nous allons aborder à la fois les méthodes de rédaction à éviter pour ne réveiller les radars de Google et étudier les critères appliqués par l’algorithme Panda pour déceler les pages avec un « contenu de mauvaise qualité » afin de les pénaliser et les déclasser.

Les techniques de sur-optimisation SEO

Reprenons chaque technique de sur-optimisation SEO sanctionnées par Google et tentons de les définir. Le Duplicate content consiste à utiliser un contenu qui a déjà été utilisé soit sur un autre site, soit sur une autre pages de votre site. Le principe du Scraping est identique à celui du Duplicate content puisque cette méthode consiste à récupérer un texte sur un autre site. C’est donc un vol de contenu. Viennent ensuite deux techniques qui concernent plus exactement la rédaction naturelle : le keyword stuffing qui consiste à bourrer de manière hystérique votre page de mots-clés et sa petite soeur, la triplette du bourrin, dont le principe est de répéter les mêmes mots-clés dans la balise title, la balise <h1> et l’adresse de la page. Bien évidemment, le principe « Tripette du bourrin » n’a pas été mentionné par Google parmi les motifs de pénalisations. Par ailleurs, le cloaking permet de proposer un contenu optimisé pour les moteurs de recherche et un contenu plus esthétique et marketing pour les humains. Finissons avec le Content Spinning, un procédé qui permet de générer automatiquement une multitude de contenus différents à partir d’un texte original que vous lui aurez soumis. Des sites sont exclusivement constitués de pages dont le contenu provient de cette pratique automatisée. Inutile de vous dire que leur existence sera courte, s’ils sont encore en vie.

Google Panda

Google Panda a vu le jour en février 2011. C’était à l’origine un simple filtre destiné à pénaliser les fermes de liens (sites exclusivement constitués pour héberger une multitude de backlinks) et les sites usant allègrement de Scraping et de duplicate content. Depuis mars 2013, Panda est un composant de l’algorithme de Google (Panda Everflux). Il est mis à jour en temps réel et agit dans le processus même d’indexation de Google. Voilà pourquoi son impact est moins percevable aujourd’hui, excepté dans le cas d’une grande mise à jour de Panda (ex : ). Certains types de sites connus pour la médiocrité de leur contenu peuvent être pénalisés par Panda : les agrégateurs de contenus, les comparateurs de prix, les forums et sites de questions/réponses. Toutes les techniques de sur-optimisation citées plus haut sont bien évidemment dans le collimateur de Panda.

 

Poursuivre la lecture :
Qu’est ce qu’un contenu de qualité pour le SEO ?
Comment optimiser les balises de vos pages pour le SEO ?

Share Button
Comment ne pas sur-optimiser ses pages pour le référencement naturel ?

Un commentaire sur “Comment ne pas sur-optimiser ses pages pour le référencement naturel ?

  • 24 novembre 2017 à 9 h 11 min
    Permalink

    Ces techniques sont très adaptables aux travaux de référencement je pense surtout Google Panda, merci pour ce texte bien pertinent.

Commentaires clos.