Interventions de Roger Balmer (Metapeople) & François Planque (seofrancois.com)
Ce qui pose problème aux robots:
Evitez les technologies “flash” qui posent problème aux moteurs. Non pas que les moteurs ne sachent pas lire le “flash”, mais cela demande plus de temps, donc génère plus de coûts. Du coup, les moteurs l’ignorent. Mettez un code html alternatif à côté.
Eviter également le javascript.
Vérifiez vos redirections et ne confondez pas les redirections temporaires (302) et permanentes (301).
Attention quand vous avez plusieurs pays pour la même langue (France, Suisse, Belgique, Luxembourg, Guébec…). Selon que votre site ne soit destiné qu’à 1 pays ou à plusieurs, vos paramètres ne doivent pas être les mêmes.
Pensez à utiliser Google Webmaster Tools et un sitemap si vous avez beaucoup de pages.
Pour attirer les robots:
Design simple: html & css.
Url simples & courtes, qui parlent à l’utilisateur.
Plan du site.
Architecture à 3 niveaux: pas plus de 3 clics pour toute info.
Structurez votre page comme un article de journal: un titre unique et attractif.
Mettez des attributs ALT pour vos images.
Css plutôt que javascript.
Fil d’Ariane.
Important:
N’oubliez jamais que le texte est essentiel: texte des liens (internes et entrants), texte des url, texte de la page, titres…
Mais les liens sont encore plus essentiels: liens de navigation, liens depuis le texte (ce sont ceux qui ont le plus de valeur).
Pensez “utilisateur” avant de penser “moteur”.
Regardez votre site avec l’oeil d’un moteur: désactivez flash, les css et javascript et regardez à nouveau votre site (assez simple avec les plug-ins de firefox).
Trucs:
<IMG> est à réserver aux vraies images (photos et illustrations)
Optimiser la vitesse de chargement: firebug+yslow (https://developper.yahoo.com/yslow).
Signaler à Google ce qui est important: mettre le contenu avant la navigation.
Steve Krug: "Je ne veux pas chercher" (don't make me think).