Dans le domaine du marketing digital, la seule constante est celle du changement permanent. Garder un œil sur les dernières innovations en date, se tenir au courant des tendances, anticiper les grandes évolutions de demain… Ce ne sont pas des options, mais des nécessités absolues. Or, en matière de référencement naturel, il y a une nouveauté que les experts ne peuvent pas ignorer ! L’émergence des moteurs de recherche dopés à l’IA (Copilot, SearchGPT, AI Overviews, Perplexity…) et les changements dans la manière qu’ont les internautes de trouver l’information pertinente.
Parce que l’ère du Generative Engine Optimization (GEO) se profile, il est essentiel de comprendre de quoi il s’agit. Et surtout comment fonctionne cette nouvelle façon de positionner ses pages web sur une SERP chamboulée.
Qu’est-ce que le Generative Engine Optimization ?
Pour comprendre ce qu’est le Generative Engine Optimization, il faut en revenir aux fondamentaux du fonctionnement d’un moteur de recherche en ce qui concerne l’expérience utilisateur. En substance, ce type d’outil renvoie une liste de liens organiques (complétés par des liens payants) parmi lesquels l’internaute doit faire son choix. Et sur lesquels il doit cliquer pour trouver l’information désirée. De plus en plus, les SERPs (pages de résultats des moteurs de recherche) affichent des réponses synthétiques plus directes, intégrées dans des encadrés dédiés… Mais cela ne change pas la donne, dans la mesure où l’on retrouve toujours la même succession de liens.
Avec l’émergence des moteurs de recherche à base d’IA, néanmoins, cette dynamique a changé. Les nouveaux algorithmes des moteurs s’appuient sur les LLM (Large Language Models, ou grands modèles de langage) pour améliorer leur compréhension des requêtes formulées par les utilisateurs en langage naturel. Puis pour leur apporter une réponse directe, générée par un bot. L’information est synthétisée à partir de plusieurs sources triées sur le volet. L’internaute peut accéder à ces sources, mais, dans l’absolu, il n’a plus besoin de cliquer sur des liens. L’information lui est accessible d’emblée et de façon aussi complète que possible. Y compris pour des requêtes complexes qui auraient nécessité plusieurs recherches dans le cadre d’une SERP classique.
Le Copilot intégré à Bing fonctionne déjà sur ce principe. Google vient de lancer AI Overviews (anciennement Search Generative Experience) aux États-Unis, et d’autres acteurs se déploient sur le même marché (OpenAI avec SearchGPT ou Perplexity AI, Inc. avec Perplexity.ai).
Consommation du contenu
Cette approche modifie en profondeur la manière dont les internautes consomment le contenu… Et celle dont les webmasters se chargent de référencer leurs pages. Car un tel changement dans le processus de présentation des résultats a forcément un impact majeur sur les leviers d’optimisation. Or, il est crucial, pour les webmasters, de tenir compte de ce changement… Qui n’a rien de temporaire. ChatGPT compte déjà 200 millions d’utilisateurs actifs et le taux de recherche sur Perplexity a bondi de 420 % entre 2023 et 2024.
C’est là que le Generative Engine Optimization (GEO) entre en jeu. Cette méthodologie est une branche du SEO qui vise à assimiler l’évolution des moteurs de recherche. Et à identifier de nouveaux leviers pour optimiser les pages web de manière à ce qu’elles soient toujours présentes dans la liste des résultats générés par l’IA.
GEO VS SEO : qu’est-ce qui change ?
Dans les faits, le GEO a les mêmes ambitions que le SEO. Actionner des leviers permettant aux sites web :
- de gagner en visibilité ;
- d’attirer du trafic qualifié ;
- de transformer les visiteurs occasionnels en utilisateurs intéressés, susceptibles de revenir pour s’engager.
Le tout, dans un nouvel environnement incarné par la SERP nouvelle version, riche en résultats produits par l’intelligence artificielle.
En ce sens, l’on retrouve grosso modo les mêmes stratégies en matière d’utilisation :
- des mots-clés ;
- d’accent mis sur la qualité de l’expérience utilisateur ;
- de compréhension des besoins et des attentes des consommateurs. Notamment en termes d’intention de recherche ;
- de nécessité de produire des contenus à forte valeur ajoutée.
Néanmoins, il s’agit de deux approches distinctes :
- Le SEO traditionnel vise à maximiser la visibilité des pages dans la SERP en jouant sur trois grandes familles de facteurs. La technique, la popularité, et le contenu (celui-ci intégrant la sémantique). L’aspect technique occupe une place déterminante dans toute bonne stratégie de référencement naturel. Dans la mesure où la pertinence structurelle d’une page joue un rôle majeur dans son indexation par les robots. Ainsi, l’accent est mis sur la gestion du crawl, la hiérarchisation du contenu, les éléments sémantiques… Ainsi que l’autorité du domaine.
- Le GEO s’appuie sur les mêmes bases. Mais en se focalisant sur la manière dont le contenu est utilisé par les moteurs IA afin de pouvoir répondre aux questions posées par les utilisateurs. Le Generative Engine Optimization s’intéresse donc, avant tout, à la clarté et à la pertinence contextuelle du contenu, de façon à permettre aux algorithmes de s’y référer pour générer une réponse adaptée. Ainsi qu’à sa capacité à répondre à une intention spécifique de recherche (au-delà des seuls mots-clés).
Vers une nouvelle SERP ?
Ce qui est intéressant, néanmoins, c’est que la SERP version IA ne transforme pas radicalement la SERP traditionnelle. En attendant un accès complet à AI Overviews, on peut d’ores et déjà le constater sur Bing, le moteur de recherche de Microsoft. Pour l’essentiel, la SERP conserve son apparence habituelle — et cela ne tient certainement pas du hasard. Ainsi, une requête sur Bing donne lieu à l’affichage d’une SERP classique composée de liens et de rich snippets. Il faut activer Copilot pour obtenir une réponse générée par l’IA. C’est donc d’une démarche active de la part de l’internaute.
Comment l’expliquer ? En réalité, c’est assez simple ! Les revenus perçus par les moteurs de recherche sont issus, pour l’essentiel, de la publicité (Microsoft Ads, Google Ads…). Or, pour que cette manne continue d’exister, il faut que les annonces payantes s’affichent dans la SERP d’une manière ou d’une autre, et en bonne position encore — afin que les internautes soient incités à cliquer dessus. Il y a donc fort à parier que, dans un écosystème du Search dominé par l’IA, la SERP gardera globalement l’apparence qu’on lui connaît, une succession de liens payants et organiques. En y ajoutant la réponse synthétique tout en haut.
Comment optimiser des pages web pour les moteurs de recherche IA ?
Pour résumer, le Generative Engine Optimization s’attache à apporter des solutions aux référenceurs pour poursuivre le travail de mise en avant des contenus dans la SERP. En tenant compte des innovations relatives à l’intelligence artificielle. En ce sens, cette approche ne doit pas être perçue comme opposée au SEO, mais complémentaire de ce dernier.
Le GEO s’appuie sur la même méthodologie de base, tout en suivant son propre cheminement. On peut ainsi partir sur l’idée de combiner les deux approches pour un maximum d’efficacité. Et voici comment, en :
- Unifiant la stratégie de contenu. Afin de produire des contenus digitaux adaptés aussi bien à la SERP traditionnelle qu’aux nouveaux moteurs IA.
- Étendant la stratégie des mots-clés pour englober toutes les catégories d’expressions à travailler. Termes génériques, longue traîne, requêtes conversationnelles, et phases contextuellement pertinentes.
- Accordant plus d’importance à la notion d’autorité. Et plus globalement aux critères EEAT de Google. Ceux-ci sont conçus pour aider les Quality Raters à évaluer la pertinence des contenus, sur la base de l’expérience des créateurs, de leur expertise dans le domaine concerné, de leur degré d’autorité, et de la fiabilité du site dans son ensemble. C’est d’autant plus crucial que les sources mises en avant en marge de la réponse générée par l’IA renvoient à des domaines dont la fiabilité est indiscutable (sites gouvernementaux, institutions, etc.). Il faut donc, au minimum, se rapprocher de leur niveau d’autorité.
- Veillant à disposer d’un site techniquement au point. Car ce critère ne va pas disparaître du jour au lendemain, du fait d’un affichage mixte de la SERP. Il reste important d’améliorer la vitesse de chargement des pages, de veiller à leur compatibilité mobile, et d’intégrer des données structurées dans les contenus.
- Proposant une expérience utilisateur de qualité. Dans la mesure où les internautes continueront de cliquer sur les liens. Soit parce qu’ils choisiront de rester sur la SERP classique, soit parce qu’ils auront le désir de « faire leurs propres recherches » indépendamment de la réponse servie directement par l’IA. (Cette notion de choix ne doit pas être négligée ! La lente progression de Bing en termes de parts de marché, depuis plus d’un an et malgré la mise en place de Copilot, prouve que les internautes ne sont pas encore prêts à faire entièrement confiance à une réponse unique dictée par un algorithme.)
- Adoptant une approche data-driven. C’est-à-dire en collectant un maximum de données sur les comportements de recherche et les critères utilisés par les algorithmes. Afin d’affiner en permanence les stratégies SEO/GEO.
Que faut-il retenir ?
Au final, il faut garder en tête que l’évolution initiée par les moteurs IA est inéluctable, que les comportements des internautes sont en train de changer. Et que le Generative Engine Optimization apporte de nouvelles solutions aux webmasters et aux référenceurs pour garantir la visibilité des pages web dans la SERP nouvelle version. Le fait que l’IA soit progressivement en train de devenir un compagnon de notre vie quotidienne ne doit surtout pas être ignoré par les professionnels du marketing.
Pour autant, vaut mieux ne pas céder (dans l’immédiat) aux sirènes du « tout ou rien », et laisser tomber d’un bloc le SEO au profit du GEO. L’IA change certes les règles du jeu, mais elle en conserve les fondamentaux ! La SERP évolue, sans pour autant connaître une révolution. Une bonne combinaison des leviers du SEO et du GEO sera donc nécessaire pour tirer le meilleur parti d’une SERP dopée à l’IA. Sans trop bousculer des utilisateurs qui, à l’heure actuelle, ne sont pas encore prêts à basculer pleinement dans le « tout-IA » dans le cadre de leur recherche d’information.