L’actualité du SEO est rythmée par des noms exotiques scandés avec régularité par les ingénieurs de chez Google : Panda, Pingouin, Colibri, RankBrain… Ces termes renvoient à des mises à jour majeures de l’algorithme de classement utilisé par le célèbre moteur de recherche. Tellement majeures qu’elles sont considérées par les référenceurs comme de nouveaux algorithmes à part entière.
Parmi ces algorithmes, certains visent à favoriser des sites web méritants, d’autres à pénaliser ceux qui le sont moins. D’autres encore ont une raison d’être essentiellement technique. Mais tous ont un point commun : ils tendent à améliorer l’expérience des internautes en augmentant la pertinence des résultats. Car la pertinence, c’est le cœur de métier de Google, qui a exprimé à plusieurs reprises le souhait de devenir un « moteur de réponse » plutôt que de recherche.
La majorité d’entre eux ont aussi un impact sur le référencement naturel, dans la mesure où les leviers SEO existent avant tout pour répondre aux exigences du moteur. Quel est l’impact de ces algorithmes de Google sur le référencement ? Comment fonctionnent-ils ? Nous vous proposons de partir à la découverte des principales évolutions algorithmiques de Google, ainsi que la façon dont elles ont transformé la pratique du SEO.
Google, algorithmes et référencement naturel
Le fonctionnement de l’algorithme de Google est un secret bien gardé. Nul, en dehors des ingénieurs de la firme, ne le connaît dans le détail. Et pour cause : cet algorithme est un facteur différenciant. Pour le comprendre, il faut en revenir aux bases du moteur de recherche et à l’intérêt du référencement naturel.
La pertinence des résultats
Quand un internaute formule une requête sur Google, il obtient une série de réponses sous forme de liens vers des pages web. Ces réponses sont issues d’un index minutieusement constitué par les robots qui parcourent Internet en continu, à la recherche des nouvelles pages et des actualisations de celles qui existent déjà. Cet index ressemble à une vaste bibliothèque dont les contenus sont classés par pertinence.
Le lien entre les mots tapés par l’internaute et les résultats proposés est assuré par l’algorithme de classement. C’est lui qui garantit la pertinence des seconds en réponse aux premiers. Il permet à l’outil de choisir telles pages plutôt que telles autres, et de décider comment elles doivent être positionnées. Par exemple, si l’on tape « meilleur téléviseur 4K », on obtient une suite de liens vers des sites spécialisés dans le high-tech.
Mais comment Google décide-t-il de placer des liens naturels du site Les Numériques avant celui de Cnet France ? Ça, c’est le boulot de l’algorithme de classement, qui permet à la plateforme de décréter que l’ordre d’affichage des liens reflète le degré de pertinence des réponses. Plus un site se positionne haut dans les résultats, plus il est pertinent au regard de la requête formulée… Ou mieux il a su jouer avec les codes de l’algorithme (les deux aspects étant souvent concomitants).
Les secrets de l’algorithme (ou des algorithmes)
Voilà pourquoi Google reste discret quant au fonctionnement de son algorithme. S’il était connu de tous, n’importe qui serait en mesure d’actionner les leviers nécessaires pour afficher un site dans les meilleures positions. Or, comment seraient sélectionnés les sites s’ils répondaient tous parfaitement aux exigences du moteur ? En gardant le secret sur les rouages de son algorithme de classement, Google joue intelligemment de la carotte et du bâton. La première pour inciter les webmasters à proposer des pages toujours plus pertinentes, le second pour taper sur les doigts des resquilleurs.
C’est là qu’entre en jeu le référencement naturel, dont la raison d’être se résume à percer les mystères de l’algorithme. S’il est impossible d’en maîtriser les critères à 100 %, la tâche des experts SEO consiste à s’en approcher au maximum.
Le problème, c’est que les critères de classement évoluent tout le temps, au gré des mises à jour de l’algorithme – parmi lesquelles on distingue les mises à jour majeures (considérées comme des algorithmes indépendants) et mineures (de simples actualisations des algorithmes existants). Oui, on parle bien de plusieurs algorithmes, et non d’un seul. Ils se cumulent pour former un écheveau complexe. Tous visent à améliorer l’expérience des utilisateurs et la qualité des résultats de recherche en s’adaptant aux évolutions du comportement des internautes. Le référencement naturel, à son tour, s’adapte au fonctionnement de Google pour faire en sorte que les sites web répondent avec toujours plus de pertinence aux attentes des utilisateurs.
Vous l’aurez compris : pour pratiquer un SEO efficace, il est indispensable de suivre de près les mises à jour et de tenir compte des nouveaux algorithmes de Google pour le référencement. Au gré de ces updates, certaines techniques SEO autrefois communément admises disparaissent corps et biens. Tandis que d’autres, auparavant marginales, prennent de plus en plus de poids.
Les algorithmes de Google qui impactent le référencement
Il n’y a pas de référencement naturel efficace sans une connaissance pointue des algorithmes de classement de Google. Voilà pourquoi nous vous proposons de faire le tour des mises à jour les plus importantes au regard de la pratique du SEO. Et de visualiser, au gré des évolutions de l’algorithme principal, comment le moteur de recherche influe progressivement sur la qualité des contenus.
Des algorithmes pour améliorer la pertinence des résultats (et pénaliser les mauvaises pratiques SEO)
Florida
Remontons quinze ans en arrière. Google, qui n’est pas encore la machine de guerre que l’on connaît, lance la première mise à jour ayant un impact notable sur l’écosystème du SEO. Florida entend pénaliser la pratique du bourrage de mots-clés, l’une des techniques de référencement les plus répandues depuis la fin des années 90. Le tremblement de terre ne tarde pas à se faire sentir. En effet, de nombreux sites bien installés chutent dans le classement. Mais à quelque chose, malheur est bon. Florida signe l’acte de naissance du référencement naturel moderne, plus respectueux de l’expérience utilisateur.
Panda
En 2011, Google s’attaque frontalement à la mauvaise qualité qui règne sur le web. Derrière son air innocent, le Panda scrute le contenu des pages et le comportement des internautes pour évaluer le niveau de qualité des sites, en mettant l’accent sur les pratiques abusives :
- fermes de liens ;
- agrégateurs de contenus ;
- publicités trop nombreuses ;
- contenus dupliqués…
Plutôt que d’algorithme, on parle volontiers de « filtre de nettoyage », car il passe l’ensemble du web au tamis pour désindexer les pages sanctionnées. On estime que 12 % des sites ont subi une baisse dans le classement après son lancement !
Panda occupe une place majeure dans l’histoire des algorithmes Google de référencement, dans la mesure où c’est la première mise à jour à mettre en avant la notion de qualité pour les contenus. Cette notion devient alors un critère majeur de référencement naturel. Depuis 2016, Panda est intégré pleinement à l’algorithme de Google. En effet, il est pris en compte en continu pour définir le classement d’un site web.
Pingouin
Si Panda visait le contenu (référencement on-site), son camarade Pingouin cible les pratiques indélicates de netlinking (référencement off-site). En 2012, le lancement du « Penguin » de Google vise à démotiver les spammeurs qui casent des liens externes (backlinks) un peu partout, sans se soucier de leur qualité ni de celle des sites d’accueil. De nombreuses pratiques sont montrées du doigt :
- trop grand nombre de liens placés sur des ancres optimisées ;
- backlinks tous identiques ;
- publication sur des sites hasardeux et/ou de mauvaise qualité ;
- insertion de liens en masse dans des annuaires, etc.
Ainsi, c’est la pratique du multi-site qui est remise en cause. Technique consistant, pour une entreprise, à créer plusieurs sites web distincts afin de publier des backlinks.
3 à 5 % des sites ont été impactés par le Pingouin. Comme Panda, la mise à jour a été définitivement intégrée à l’algorithme de Google.
Exact Match Domaine (EMD)
Cette pratique consiste à choisir un nom de domaine composé de ses mots-clés principaux. Rien de répréhensible en soi. Sauf pour un site de très mauvaise qualité qui utilise cette méthode pour gagner artificiellement des places dans les résultats !
Cette mise à jour, lancée en 2012, diminue le poids du nom de domaine dans le positionnement, de façon à ce que les sites de faible qualité soient moins bien référencés. Par exemple, avant cette mise à jour, un URL du type « www.televiseur-pas-cher.com » aurait bénéficié d’un bon placement sur la requête « téléviseur pas cher », indépendant de la qualité des pages de destination. Ce n’est plus le cas.
Articles de fond
En 2013, cette mise à jour mineure a un impact majeur sur la notion de qualité, en favorisant des contenus longs (plusieurs milliers de mots) et persistants (qui restent valables des années).
Pigeon et Opossum
Lancées respectivement en 2014 et en 2016, ces deux mises à jour ont pour but de favoriser les résultats de recherche locaux en réponse à des requêtes géographiquement ciblées. Pigeon réduit à trois le nombre de résultats placés sous la carte Google Maps, affine la pertinence des réponses, et s’adapte à la localisation de l’internaute. Quant à Opossum, il augmente la zone couverte par les résultats locaux et prend en compte l’ordre des mots utilisés dans la requête. En somme, ce sont là deux évolutions majeures du référencement naturel de type local.
Des algorithmes techniques qui puisent dans les innovations pour optimiser la qualité des réponses
Colibri et RankBrain
Le lancement de Colibri (« Hummingbird » en anglais) en 2013 coïncide avec l’entrée de Google dans une nouvelle ère : celle de l’intelligence artificielle. Cet algorithme ne se contente pas d’influer sur le classement des résultats, il essaie de deviner ce qui se cache derrière une requête en la traduisant en interrogation courte. Dans le but de mieux la comprendre et d’en saisir les intentions cachées. En 2015, son successeur, RankBrain, va plus loin en s’appuyant sur les progrès du machine learning (apprentissage automatique), en passe de devenir un pan majeur du référencement naturel.
Ces deux algorithmes ont pour mission de répondre aux requêtes inédites, qui représentent environ 15 % du total. Ainsi qu’aux requêtes dites « conversationnelles » formulées en langage naturel (surtout dans le cadre de la recherche vocale). Une nouvelle évolution de l’algorithme est en train de voir le jour sous le nom de Bert (pour Bidirectional Encoder Representations from Transformers). Lancée en octobre 2019 et seulement appliquée aux États-Unis pour les requêtes en anglais (pour l’instant).
Mobile Friendly
En 2015, Google lance une mise à jour qui n’a l’air de rien, mais qui s’apprête à changer en profondeur la façon de penser le référencement naturel. L’algorithme Mobile Friendly favorise les sites compatibles avec les appareils mobiles. Uniquement pour les recherches effectuées depuis des supports nomades (smartphones et tablettes). Mais pour les référenceurs, c’est une telle révolution que la mise à jour est rapidement baptisée « Mobilegeddon » dans le petit monde du SEO. Il s’agit alors de fournir un gros travail en vue d’adapter les sites web aux interfaces mobiles. Ce qui nous semble aujourd’hui si évident ne l’était nullement à l’époque.
Lancé à partir de 2016, le projet d’Index Mobile-First confirme le changement de cap de Google au regard de la hiérarchie de son classement, dans la continuité du Mobile Friendly. L’idée de cette mise à jour est d’évaluer les pages web non plus à partir de leur version desktop, mais de leur version mobile (alors que c’est traditionnellement l’inverse). Un tournant qui s’explique par l’essor des usages mobiles. En effet, 96 % des 15-34 ans préfèrent naviguer sur Internet depuis leur device nomade (source). Entré en vigueur en 2018, l’Index n’en est encore qu’à ses balbutiements et ne concerne que quelques sites web. Mais nul doute que son importance ne va cesser de grandir.
L’algorithme de Google, ou plutôt les algorithmes de Google, évolue(nt) en permanence. C’est un défi constant en termes de référencement naturel. Seule possibilité : s’adapter en continu. Et appliquer quelques principes fondamentaux :
- publier des contenus de qualité, à forte valeur ajoutée ;
- ne pas sur-optimiser ses pages ;
- travailler d’abord son contenu et l’expérience utilisateur sur son site web ;
- prendre en compte les évolutions des usages (surtout en ce qui concerne le mobile) ;
- et sécuriser ses supports (passer son site en HTTPS).
Tels sont les critères SEO qui ne sont pas prêts de changer, quels que soient les algorithmes Google de référencement à venir !
Visuel d’entête : © Simon – Licence Pixabay.