Je précise que dans cet article, je fais part d'hypothèses sur le nouvel algorithme de Google, puisque Google ne fournit pas de mode d'emploi ni de liste détaillée des bonnes pratiques. Ces hypothèses sont en partie alimentées par des experts US du référencement: Josh Bachynski, Dan Thies, Leslie Rohde…
Selon eux, ce qui est en cause avec Penguin, ce sont essentiellement les critères "on-page" et non les backlinks.
On sait déjà que depuis le précédent algorithme (Panda), Google pénalise davantage certaines pratiques:
- Duplicate content (à partir de 40% de contenu identique).
- Duplicate design.
- Contenu texte insuffisant: moins de 250 mots.
- Contenu "pauvre": ni image, ni vidéo, ni graphique…
- Plus de 10 liens sortants par page.
- Prise en compte des liens sortants.
Google Penguin
Avec le lancement de ce nouvel algorithme (24/25 avril 2012), Google cherche à pénaliser davantage les sites de spam et les pages de faible qualité.
Pour éviter que ses pages soient indexées par Google comme étant de faible qualité, il semble qu'il faille respecter les points suivants:
- Densité d'un mot-clé inférieure à 4%.
- Eviter les mots-clés dans les zones non visibles d'un oeil humain (balise keyword par exemple). On peut utiliser des balises comme la balise description, mais pas en y insérant une liste de mots-clés comme beaucoup le font encore.
Si un site est indexé par Google comme site de mauvaise qualité, il perd progressivement son classement sur le sujet. Et il a de fait ensuite un moins bon impact sur les sites vers lesquels il renvoie.
Se prémunir de Google Penguin
- Rester le plus naturel possible.
- Optimiser la qualité de ses pages (contenu encore et toujours).
- Ajouter des liens de qualité sur les mots-clés pertinents: 30% de liens vers le mot-clé exact / 30% vers un mot-clé partiel / 30% vers d'autres pages du site / 10% vers des sites génériques.
- Eviter la sur-optimisation.