Une brève histoire du référencement naturel (SEO)

Le référencement naturel, vous le savez, est la discipline qui s’attache à améliorer le positionnement des sites et des pages web dans les résultats des moteurs de recherche. Devenue incontournable à mesure qu’Internet s’est étendu, elle est pratiquée au quotidien par des millions de personnes aux quatre coins du globe. Et joue un rôle majeur dans la stratégie de visibilité digitale d’un très grand nombre d’entreprises. Mais d’où vient le SEO ? Comment est-il né ? Comment a-t-il pris autant d’importance au fil des années ? Nous vous proposons de découvrir l’histoire du SEO et de ses liens intimes avec les moteurs de recherche.

Quel est l’acte de naissance du référencement naturel ?

Si l’on considère le SEO (Search Engine Optimization) comme une discipline à part entière, son acte de naissance ne coïncide pas avec l’émergence des moteurs de recherche, contrairement à ce qu’on pourrait croire.

Non. Le référencement naturel voit véritablement le jour lorsque les webmasters prennent conscience qu’il est possible de manipuler les résultats des moteurs de recherche pour générer du trafic. Et, in fine, tirer d’Internet des revenus conséquents. Pour les empêcher de « tricher » avec les algorithmes, et ainsi proposer des contenus qualitatifs et pertinents aux internautes, les moteurs ont élevé des garde-fous que les webmasters, à leur tour, ont tâché d’outrepasser.

Le SEO est né de cette tension permanente entre la volonté des uns de positionner leurs pages au plus haut dans la SERP (la page des résultats). Et celle des autres de veiller à la qualité des réponses proposées.

Revenons trois décennies en arrière pour regarder cela de plus près.

© janjf93 – Licence Pixabay

Le SEO primitif : les années 1990 et l’essor des moteurs de recherche

En novembre 1990, Tim Berners-Lee met en ligne la toute première page web. À compter de cette date, de plus en plus de sites internet voient le jour. Avec pour ambition commune de proposer des informations aux utilisateurs, dont le nombre augmente doucement. Cette hausse du volume de ressources est bientôt si importante qu’il devient nécessaire de structurer ces données afin de simplifier leur accessibilité. C’est à ce besoin que répondent les moteurs de recherche.

Dès 1993, la plateforme Excite révolutionne la façon dont l’information digitale est indexée, catégorisée et classée, en s’appuyant sur les termes employés dans les pages mises en ligne par les webmasters. En 1994, le World Wide Web Worm (un moteur de recherche parmi les plus anciens) dispose d’un index fort de 110 000 pages et documents en ligne. Trois ans plus tard, les principaux moteurs indexent entre 2 et 100 millions de ressources. Dans le même temps, le nombre de requêtes croît exponentiellement. En mars 1994, le WWWW enregistre une moyenne de 1 500 requêtes quotidiennes. En novembre 1997, Altavista en compte 20 millions par jour.

Tout au long des années 1990, plusieurs moteurs de recherche arrivent sur le marché :

  • Yahoo ;
  • Altavista et Lycos en 1994 ;
  • AskJeeves (futur Ask.com) et Google en 1997.

Tous apportent des améliorations en matière d’indexation et de classement des résultats. En parallèle, la notion de « Search Engine Optimization » voit le jour, sans doute en 1997, pour désigner la pratique consistant à manipuler les algorithmes naissants pour booster le positionnement des pages web. Tout en profitant du manque de contrôles mis en place par les moteurs.

Les résultats de recherche ont alors un point commun. Ils sont de piètre qualité. Pour classer les résultats, les moteurs se contentent d’établir une correspondance entre les termes tapés par les utilisateurs et les pages proposées. Pour évaluer la pertinence de celles-ci, ils s’appuient notamment sur les occurrences des expressions-clés.

Cette constatation ouvre la porte à des techniques de référencement naturel qualifiées de « black hat ». Des méthodes officieuses qui tirent parti des manquements des moteurs, à l’image des :

  • « bourrage de mots-clés » (keyword stuffing, répétition abusive d’une expression dans un contenu aux dépens de la lisibilité) ;
  • étiquetage HTML ;
  • multiplication de liens entrants (backlinks) de mauvaise qualité.

Les mises à jour algorithmiques prennent des mois à être implémentées. Ce qui permet aux webmasters et aux proto-référenceurs de tirer avantage de ces techniques pendant de longues périodes de temps. C’est une sorte de « Far West » du référencement naturel, une période de non-droit dans l’histoire du SEO.

Le SEO se structure (et Google impose son rythme)

Les choses changent avec l’entrée en jeu de Google. En développant leur propre outil, Larry Page et Sergey Brin ont vocation à répondre à la question qui taraude tous les moteurs de recherche :

comment améliorer la qualité de l’information à laquelle ont accès les internautes ?

Dans un article fondateur de 1998, Page et Brin écrivent que leur « but premier est d’améliorer la qualité des moteurs de recherche ». Ils dressent un état des lieux peu reluisant : « N’importe quel utilisateur peut témoigner du fait que la complétude de l’index n’est pas le seul facteur qui influe sur la qualité des résultats. [C’était l’ambition originelle des moteurs : indexer un maximum de données et laisser celles-ci se classer d’elles-mêmes.] Des “déchets” [junk results] se mêlent trop souvent aux résultats qui intéressent l’utilisateur. »

© 422737- Licence Pixabay

Le problème découle de l’augmentation exponentielle du volume de ressources disponibles, alors que les comportements des utilisateurs, eux, ne changent pas. « Les internautes se focalisent sur les dix premiers résultats [de la SERP]. Pour absorber l’accroissement rapide du nombre de pages, nous avons besoin d’outils capables de faire remonter les résultats les plus pertinents dans les dix premières places. » Toute la philosophie de Google est contenue dans ce manifeste. Et l’on peut constater que l’habitude des internautes au regard du nombre de liens consultés n’a pas fondamentalement évolué.

Dès le début des années 2000, cette vision d’une SERP axée sur la qualité des résultats fait école. Pour donner corps à sa démarche, Google commence à élaborer des « bonnes pratiques » de référencement naturel. Dites « white hat » car conformes aux directives officielles. En opposition aux leviers « black hat ».

En somme, le SEO se structure en se moulant sur les règles édictées par Google. Donc au rythme des améliorations de l’algorithme de ce dernier. C’est le point de départ d’une hégémonie que le lancement de Bing en 2009 par Microsoft ne parviendra pas à remettre en cause. On ne s’étonnera donc pas que l’histoire du SEO soit si intimement liée à celle de Google.

Le SEO se professionnalise et les moteurs commencent à taper fort sur les contrevenants

Pour autant, au début des années 2000, les directives de Google ont encore peu de répercussions sur le référencement naturel des sites. Dans les faits, peu de webmasters les appliquent. La faute à un manque criant d’outils de contrôle. Par exemple, PageRank (l’algorithme de Google) vérifie le nombre de liens entrants, sans prévoir de moyens de mesurer leur authenticité. Pour les webmasters (et les référenceurs qui commencent à pulluler, le SEO devenant un métier à part entière), il est plus lucratif de continuer avec les anciennes pratiques que de suivre les guidelines.

Mais Google travaille discrètement à des mesures de rétorsion. C’est l’arrivée des mises à jour de l’algorithme, qui contraignent les acteurs du SEO à revoir leurs tactiques. En novembre 2003, Florida est ainsi la première mise à jour majeure de l’algorithme de Google.

Florida, dont l’objectif serait de cibler la qualité des backlinks occasionne des dégâts jusqu’à l’aube de 2004. L’usage du conditionnel est de rigueur : Google ne communique jamais sur la teneur de ses mises à jour, même a posteriori. C’est un raz-de-marée qui emporte de nombreux sites web. Y compris des pages innocentes que l’entreprise qualifie de « faux positifs ». Et ce avec des conséquences commerciales catastrophiques, surtout à l’approche des fêtes de fin d’année.

Pour la première fois, des sites web sont pénalisés pour l’utilisation de techniques considérées comme de « mauvaises pratiques ». C’est aussi l’entrée en jeu de la notion de « qualité des backlinks ».Renforcée en 2005 par le développement de l’attribut nofollow (conjointement par Google, Yahoo et MSN) pour réduire le spamming de liens.

Les moteurs de recherche s’appliquent de plus en plus à favoriser l’utilisateur et à lui proposer des résultats pertinents. En juin 2005, Google lance la recherche personnalisée qui tient compte de l’historique de navigation et de recherche des utilisateurs pour améliorer la qualité des pages suggérées. Quelques années plus tard, ce sera la prise en compte des posts sociaux dans la SERP. Autant de changements qui contribuent à modifier grandement l’optique des moteurs. Désormais, ce sont tous les acteurs du web (journalistes, marketeurs, rédacteurs, community managers…) qui sont concernés par le SEO. Et plus seulement les webmasters.

© Templune – Licence Pixabay

En parallèle, le référencement naturel se professionnalise en prenant acte de ces changements. En novembre, le lancement de Google Analytics leur permet de mesurer les résultats de leurs campagnes SEO et d’optimiser en temps réel leurs actions de référencement.

Les nouveaux piliers du référencement naturel

À partir de 2010, nous entrons dans l’ère contemporaine de l’histoire du SEO. Cette période se caractérise par la volonté des moteurs de recherche de forcer les professionnels à se positionner dans la SERP par le biais de contenus centrés sur l’utilisateur, donc pertinents et qualitatifs. Avec, en cas de rébellion, une pelletée de sanctions nouvelles à la clé.

En effet, les mises à jour successives de l’algorithme de Google imposent des règles concernant la qualité des contenus, la pertinence des mots-clés ou le manque d’optimisation technique. À ce titre, les filtres Panda (2011) et Penguin (2012) marquent des tournants majeurs. Le premier s’attaque aux contenus de mauvaise qualité qui n’ont d’autre but que de générer du trafic. Le second cible les sites qui proposent des liens entrants de piètre valeur. Soit, sans rapport avec le contenu, publiés sur des annuaires, etc. Ces évolutions contribuent à donner aux acteurs du web (et du référencement naturel) une direction claire à suivre. Tout en montrant du doigt les leviers SEO qui ne doivent plus avoir cours.

En simultané, les moteurs de recherche développent des outils innovants pour améliorer toujours plus la pertinence des résultats en tenant compte des habitudes changeantes des utilisateurs. C’est, sur Google :

  • l’intégration progressive des posts sociaux (et la création de Google+) ;
  • l’apparition du Knowledge Graph (qui apporte une réponse immédiate à l’internaute, sans qu’il ait besoin de cliquer sur un lien);
  • l’essor des recherches locales (la mise à jour Pigeon visant à améliorer les recherches via Google Maps) ;
  • la priorité donnée à l’indexation mobile (Index Mobile First testé à partir de 2015) ;
  • etc.

Cette partie de l’histoire du SEO, vous la connaissez. C’est celle que nous vivons aujourd’hui.

Pourquoi s’intéresser à l’histoire du référencement naturel ? Parce qu’il est important de savoir comment le SEO est né et a grandi pour mieux comprendre comment il fonctionne et, plus encore, dans quelle direction il va.

En suivant la ligne tracée par Google depuis sa création, on peut, par exemple, observer un vaste mouvement allant vers toujours plus de :

  • lisibilité;
  • pertinence dans les contenus ;
  • qualité dans l’expérience utilisateur.

On peut ainsi saisir l’ambition des moteurs de recherche qui est de s’imposer, à terme, comme des solutions à part entière qui ne nécessiteront (presque) plus la présence de liens à cliquer. Ainsi qu’on le voit déjà avec les assistants vocaux intégrés aux smartphones et aux enceintes intelligentes.

Enfin, cela nous donne une idée de ce qu’il faudra faire, demain, pour continuer à séduire non plus les moteurs, mais leurs utilisateurs. Ce qui est désormais l’essence même du référencement naturel.

Le saviez-vous ? Il existe également un référencement pour les magasins d’applications, ça s’appelle l’ASO, et c’est tout aussi important que le SEO !

Visuel d’entête : © mohamed_hassan – Licence Pixabay

Des questions ?

E-book gratuit

E-book gratuit

Rédiger du contenu SEO : les pièges à éviter

Découvrez les pièges auxquels vous pourrez être confrontés lors de votre production de contenus SEO et comment les éviter. 

Intéressés par nos services éditoriaux ?

Recevez la newsletter hREF