Le référencement naturel ou SEO (Search Engine Optimization) regroupe l’ensemble des pratiques visant à rendre un site internet visible dès la première page des résultats de recherche Web quel que soit les moteurs utilisés (Google, Yahoo, bing, etc.) en se conformant aux critères imposés par ces derniers sous peine de pénalisation ou de radiation. Un certain nombre de règles sont à respecter pour ce faire.
1. Le balisage titre : en termes de codage HTML, les balises sont détectées par les moteurs de recherche pour la qualification d’un site web et la détermination de la pertinence des requêtes. Les balises titre et méta description sont celles qui s’affichent généralement sur les pages de résultat de recherche.
2. L’optimisation de contenu : la suroptimisation est pénalisée par Google. La recherche du parfait équilibre entre lisibilité et optimisation est en effet indispensable pour faire bénéficier à un site du meilleur positionnement dans les résultats de recherche.
3. Le choix du nom de domaine : il occupe aussi une importance primordiale en termes de référencement SEO dans la mesure où le nom de domaine est aussi pris en considération dans l’algorithme des robots de recherche.
4. La nomenclature d’URL : Un site web bien référencé se doit de posséder des URLs respectivement cohérentes et uniques. Google accorde notamment de l’importance à chaque mot clé qu’elles contiennent.
5. La page Rank : cet indicateur de popularité de nom de domaine consiste en l’attribution de notation d’une page d’une échelle allant de 0 à 10. Pour optimiser la visibilité de leur site, les référenceurs envisagent généralement des échanges de liens avec des sites à haut niveau de page Rank.
6. Le netlinking : pour accroître la popularité d’un site, l’une des pratiques les plus fréquentes et non pénalisées consiste également en la récupération de liens de qualité (généralement, en provenance de sites bénéficiant d’un haut page Rank) qui pointent sur les pages du site à référencer.
7. Linkbaiting : L’enrichissement et la personnalisation de contenu constituent l’une des pratiques les plus encouragées par Google afin d’optimiser le positionnement d’un site. La production de contenus pertinents, originaux et régulièrement actualisés permet de générer spontanément un volume important de liens entrants vers le contenu qualifié du site à référencer.
8. Les fichiers robots txt : situé à la racine du site web, les fichiers robots sont les premiers à être explorés par les moteurs de recherche. Ils permettent d’indiquer aux robots l’indexation ou la non-indexation de telle ou telle page. Le protocole d’exclusion des robots (« no follow ») permet par exemple le masquage aux robots de certaines pages avec peu de contenus originaux.
9. Les inconvénients du duplicate content : Le cas se présente lorsqu’un robot de recherche repère le même contenu sur deux ou plusieurs URL différentes. Le contenu dupliqué, et celui qu’il va certainement juger comme étant le moins pertinent sera moins bien positionné par rapport à l’original et risque de ne pas s’afficher à la première page des résultats de recherche.
10. Les autres pratiques à éviter : le cloaking, les splogs et le spam referer sont des pratiques proscrites en référencement SEO. La première consiste à générer un contenu HTML différent selon qu’il s’agisse d’un lecteur humain ou d’un robot. La seconde consiste en la création d’un blog ayant pour unique objectif d’accroître la côte Page Rank d’un ou de plusieurs sites affiliés. Il sert généralement de pointeur vers d’autres sites à indexer. La troisième consiste en l’envoi de requêtes automatiques vers un site en se servant de l’adresse du site à promouvoir comme adresse de référent.

3 Commentaires

Laisser un commentaire