Qu’est-ce que le Search Engine Optimization ou SEO ?


En France, on parle souvent de référencement naturel ou d’optimisation pour les moteurs de recherche. Le SEO fait partie pourtant aujourd’hui de l’usage courant du langage dans les professions du web et même ailleurs comme nous allons le voir. Le Search Engine Optimization est un ensemble de techniques qui permet d’améliorer visibilité, positionnement et popularité d’un site Internet.

Le but principal reconnu étant de positionner des pages sur des requêtes d’internautes le plus haut dans les résultats de recherche. Beaucoup de techniques existent pour se faire, toutes basées sur une compréhension des robots d’indexation tels que Google Bot. Une des conséquences d’un meilleur positionnement sur des mots clés choisis est l’augmentation du trafic du site web mais au-delà un enjeu économique fort dans une société très digitalisée. Abordons dans cet article quelques usages en matière de Search Engine Optimization. Si vous souhaitez quelques conseils de base, rendez-vous plutôt sur l’article consacré aux 10 conseils SEO.

Les usages du SEO pour mieux comprendre

L’objectif de ce procédé vise à améliorer le positionnement d’une page web dans les pages de résultats de recherche des moteurs sur des mots-clés ciblés (correspondant généralement aux thèmes principaux du site). Les pratiques pour amener à un bon positionnement d’une page, c’est-à-dire sur les 10 premiers résultats de recherche, ont considérablement évolué durant depuis les débuts de web.

evolution du seo

L’histoire du SEO est entièrement dépendante de l’évolution du Web qui fut fondé en 1989 mais surtout de l’évolution des robots dédiés à l’indexation des pages. Dans les années 90 apparaissent les premiers crawlers de sites qui permettent une indexation et un classement des sites Internet. En 1997, un moteur de recherche comme Lycos indexait un peu plus de 60 millions de documents. Seulement la précision et surtout la pertinence n’était pas forcément très présente, y compris chez Yahoo pourtant précurseur en la matière.

C’est en 1998 que Google lance son premier PageRank pour améliorer les résultats de recherche. Le lien est à l’honneur à l’époque (il l’est toujours) pour déterminer le classement. Les meta tags (en français meta balises ou « balises ») à partir de la fin du siècle dernier ont eu une influence encore aujourd’hui très perceptible. Ici une liste des metas.

Aujourd’hui, le web sémantique est en passe de considérablement modifier les techniques ; les metas étant pour certaines toujours indispensables à un bon référencement mais non suffisantes. L’analyse des logs, l’analyse des datas, le bon usage des techniques de codages et le contenu sémantique d’un site sont une priorité à bien des égards.

La lutte de Google contre le black Hat

Le SEO est traditionnellement décomposé en trois grandes familles de référenceurs :

  • Les référenceurs White Hat qui respectent de manière dite « éthique »les guidelines de Google,
  • Les référenceurs Grey Hat qui utilisent pour la plupart des techniques proscrites de manière modérée,
  • Les référenceurs dits Black Hat qui contreviennent à ces règles édictées par le géant de Mountain View.

Pendant de nombreuses années, le spamming était la règle, encore présent aujourd’hui bien évidemment. C’est en 2005 que Google sort le « nofollow » pour tenter de lutter contre cette technique de liens multiples présents essentiellement dans les blogs.

En 2006, Google tente de lutter également contre le cloaking, une technique consistant à proposer un contenu différent selon le visiteur, robot ou humain. Ces techniques, et d’autres constituent dès lors pour Google une sorte de manquement pénalisant et pénalisé. Les Spécialistes du Black Hat y voient plutôt une transgression légitimée. La lutte est toujours d’actualité.

Les filtres pour le classement, à étudier pour le SEO

Comprendre le fonctionnement du moteur de recherche leader dans le monde occidental a un réel intérêt pour faire du référencement, cela commence par la compréhension des différents filtres algorithmiques de Google qui composent ce que l’on a appelé un temps le zoo de Google.

Panda sort ainsi en 2011. Panda, c’est au fond l’exemple parfait de la main mise de Google sur le Search. Édictant ses règles en matière de qualité de contenu, Google modélise jusqu’à son interprétation de l’expérience utilisateur et en crée des normes que les webmasters reproduisent.

Le Search Engine Optimization version Web sémantique, vers une nouvelle définition

15% des requêtes étant toujours nouvelles pour Google (voir l’article sur le filtre Rank Brain), le métier du SEO a toujours de l’avenir devant lui, bien que l’importance des annonces payées sur les résultats de recherche sont plus présentes, bien que l’influence des réseaux sociaux soit à intégrer dans le métier lui-même.

Les champs sémantique sont à étudier de différentes manières car ils permettent de trouver de nouvelles opportunités, que ce soit dans l’écrit ou dans l’usage de médias comme la vidéo. Soit via l’exploitation d’outils SEO mis à disposition , soit par la construction d’outils propres au consultant SEO basés sur l’exploitation des données du sites Internet à référencer, le référenceur est en mesure d’apporter un nouveau regard sur l‘activité d’une entreprise par le prisme du web. Dans tous les cas, le SEO est devenu un métier parfaitement intégré au web marketing en ce sens qu’il requiert techniques de type informatique, culture générale, connaissance du marché et évidemment marketing.

Votre consultant SEO
Xavier Deloffre, consultant et formateur en référencement naturel et payant.