Plans de Développement des Compétences : Faites vous accompagner par notre Equipe Pédagogique !

Compte rendu détaillé du SMX Paris 2026 : L’Avènement du GEO

L’édition 2026 du SMX Paris, qui s’est tenue les 9 et 10 mars à l’Espace Saint-Martin, a marqué un tournant définitif dans l’industrie du search. Les différentes conférences ont acté la transition du SEO (Search Engine Optimization) vers le GEO (Generative Engine Optimization), imposant aux marques de nouvelles règles pour exister sur les moteurs de réponses (ChatGPT, Perplexity, Gemini, Rufus). Voici le compte rendu détaillé, présentation par présentation.

Conférence : Votre data n’est plus vraiment la vôtre : qu’en font les IA ?

Intervenants : Maxime Guernion (Havas Market) & Aymeric Bouillat (Y’a pas de quoi !)

Cette conférence s’est penchée sur un enjeu technique majeur : la collecte de nos données par les IA et l’explosion de leur trafic. Entre janvier et août 2025, le trafic issu des bots liés aux LLM a été multiplié par 4, atteignant 10,1 % du trafic total des bots (avec par exemple 1,7 milliard de requêtes pour OpenAI sur le seul mois d’août 2025).

Les intervenants ont cartographié 4 grandes typologies de bots IA :

  • Apprentissage (Training) : Les bots qui aspirent le web pour entraîner les modèles (ex: GPTBot chez OpenAI ou ClaudeBot chez Anthropic). Bloquer ces bots empêche l’IA d’utiliser vos données pour son apprentissage.
  • Search : Les bots utilisés pour l’indexation et l’identification de sources pour les réponses de recherche (ex: OAI-SearchBot et Claude-SearchBot). Ce sont eux qu’il faut absolument autoriser (via le robots.txt) pour espérer apparaître dans les AI Overviews ou ChatGPT Search.
  • Interaction / Fetch : Récupèrent des données en temps réel pour compléter une réponse.
  • Agentique : Des bots qui agissent comme de vrais utilisateurs (capables de scroller, cliquer ou soumettre des formulaires).

Keynote SEO : “Where’s Waldo? (I Don’t Care) Follow Your Customer Instead”

Intervenante : Amanda King

Amanda King est revenue en détail sur la mécanique de « Fan-out » (la démultiplication des requêtes par l’IA). Elle a expliqué ce processus étape par étape :

  1. La requête initiale de l’utilisateur est transformée en vecteurs.
  2. Un décodeur crée « x » variations de cette requête.
  3. Ces variations sont exécutées simultanément à travers un modèle petit et rapide.
  4. L’IA récupère de petits extraits de texte (snippets) depuis un corpus documentaire.
  5. Un seuil de confiance (fixe ou dynamique) détermine quels résultats conserver.

Elle a rappelé une réalité frustrante pour les référenceurs : ce processus de sélection des extraits depuis nos pages web reste une pure « boîte noire » sur laquelle nous n’avons aucun contrôle direct. Enfin, un point crucial a été soulevé concernant la fraîcheur des contenus : les LLM ne se soucient absolument pas des dates de publication.

Keynotes SEO : Shaun Anderson (Hobo SEO) & Carolyn Shelby (Yoast) – Décoder l’E-E-A-T pour survivre à l’abondance

Intervenants : Shaun Anderson (Hobo SEO) & Carolyn Shelby (Yoast)

Carolyn Shelby a été catégorique : le « Factory SEO » (SEO d’usine) est mort. Il faut cesser de vendre des clics et aider les clients à contrôler leur propre narration, car dans la recherche IA, la marque qui contrôle la narration contrôle la visibilité.

Shaun Anderson a poussé la réflexion en traduisant l’E-E-A-T en « proxies » lisibles par les machines :

  • Expérience : Mesurée par des scores comme le contentEffort ou l’originalContentScore (exigeant un contenu difficile à répliquer et des médias originaux).
  • Expertise : Mesurée via le siteFocusScore ou les EntityAnnotations (il faut aller en profondeur sur un sujet, pas en largeur).
  • Autorité & Confiance : Mesurées par le PageRank, les clics positifs/négatifs et l’absence de signaux de spam.

L’E-E-A-T n’est pas une « checklist » universelle, mais une notion contextuelle (Contextual SEO) qui dépend du risque (YMYL) et de l’entité. La stratégie « White hat » est désormais une question de survie : « L’IA augmente l’offre. La confiance contrôle la demande ».

Conférence : De la SERP aux IA – quelles stratégies, quels formats et quelles pratiques permettent à Sofinco de se placer dans les réponses IA ?

Intervenants :Julien Bismuth, Consultant SEO / GEOGetfluence – Eric Demaret, Head of SEOOrixa Media – Chantal Abreu, Responsable SEOSofinco

Dans le monde du GEO, l’objectif n’est plus d’être en compétition pour le top 10, mais d’entrer dans la « logique probabiliste » d’un LLM pour être retenu comme source de confiance. L’autorité est évaluée sur la récurrence des citations et non plus page par page.

Pour Sofinco, l’adaptation est passée par la production de contenus « AI-First » optimisés pour être sélectionnés par les bots :

  • Formatage (Chunking) : Des paragraphes courts et des blocs de résumés (takeaways).
  • Sémantique : Éviter les phrases trop complexes ou artificielles, et favoriser les comparaisons perçues comme neutres (ex: formats « VS »).
  • Distribution : Identifier et publier sur des médias sources de confiance fréquemment utilisés par les modèles IA pour construire leurs réponses (stratégie Owned et Earned).

Conférence : GEO local : les bonnes pratiques pour remonter sur ChatGPT, Gemini ou Perplexity

Intervenants: Nicolas Bressy, Responsable Marketing DigitalMatmut, Thibault Renouf, co-CEOPartoo, Idriss Khouader, Co-fondateur & Head of AI SearchMeteoria

Les nouvelles études de Partoo ont permis de mettre en évidence des différences comportementales fascinantes entre ChatGPT et Perplexity lorsqu’il s’agit de requêtes géolocalisées :

  • ChatGPT « explore » : Ses requêtes générées sont longues et riches (11,5 mots en moyenne), multilingues, et l’outil formule des requêtes différentes à chaque fois qu’on le sollicite.
  • Perplexity « répète » : À l’inverse, Perplexity privilégie une approche très directe avec des requêtes courtes (5 mots en moyenne), limitées à la langue d’origine. Surtout, il répète presque tout le temps les mêmes requêtes (lors d’un test, il a utilisé la requête exacte « meilleure assurance Paris 10e 2026 » à 28 reprises de manière identique).

Enfin, l’étude prouve que le Store-Locator est l’arme absolue du GEO Local : sur des requêtes de type agences d’assurance, agences d’intérim, banques ou pharmacies, les pages de Store-Locators captent une part de voix colossale en tant que sources citées (jusqu’à 30% pour des marques comme Axa sur leur secteur).

Conférence : Comment le GEO transforme la visibilité des marques : un an de cas clients et d’enseignements clés

Intervenants : David Eichholtzer (WAM) & Marion Bedic-Keller

Cette conférence a posé le constat de base de ce SMX 2026 : l’arrivée des AI Overviews, Perplexity et ChatGPT signe la fin du moteur de recherche traditionnel et l’avènement du « moteur de réponse ». Le but n’est plus de classer des liens, mais de synthétiser l’information, reléguant la marque au statut de « simple source pour l’IA » plutôt que de destination finale.

Pour s’adapter, les agences préconisent une méthodologie GEO stricte :

  • Audit et Synergies : Il ne faut lancer aucune action sans un audit GEO préalable incluant l’identification des personas, la cartographie des contenus existants et un audit technique axé sur l’accessibilité LLM. La réussite du GEO exige de décloisonner les équipes (Marketing, RH, IT, Commercial, Social).
  • Nouveaux KPIs : Le trafic n’est plus le seul juge de paix. Il faut désormais mesurer le Share of Voice (SOV) (taux de visibilité et fréquence de mention par les LLM) et le Share of Model (SOM) (probabilité statistique que l’IA associe votre marque à un sujet).

Conférence : GEO – quand le SEO s’adapte aux moteurs génératifs

Intervenants : Sylvain Peyronnet, Guillaume Peyronnet & Grégory Florin

Cette présentation technique a détaillé le fonctionnement des Generative Search Engines (GSE), qui combinent la sémantique, la vision par ordinateur et l’analyse comportementale pour décoder l’intention complexe de l’utilisateur.

Le mécanisme central des LLM pour la recherche repose sur le « Fan-out » : lorsqu’un utilisateur pose une question complexe en langage naturel (ex: « On part 10 jours au Japon en avril avec deux enfants… »), le LLM décompose ce prompt en plusieurs sous-intentions. Il génère ensuite 5 à 15 requêtes classiques envoyées en parallèle sur un index classique (Google, Bing). Le levier SEO reste donc de positionner ses pages sur ces multiples requêtes de longue traîne générées par l’IA. In fine, l’objectif des LLM est de réduire le « coût delphique » du search, c’est-à-dire les efforts cognitifs et temporels non-monétaires requis pour trouver une information.

Conférence : Comment Pinterest SEO est devenu un canal incontournable de la stratégie digitale de BUT ?

Intervenants : Olivier Granda (Responsable Acquisition BUT) et Marilou Rudel (Co-fondatrice Flair Agency).

Bien qu’étant une marque très mature sur le digital, BUT sous-exploitait Pinterest en 2023 avec seulement 8 millions d’impressions organiques et 12 000 clics, se laissant distancer par des concurrents (comme Rhinov ou Côté Maison) qui atteignaient déjà 10 millions de vues mensuelles.

Pinterest ne doit pas être vu comme un simple réseau social, mais comme un moteur de recherche à part entière, fort de 2 milliards de recherches mensuelles et fonctionnant avec un algorithme de pertinence (Smart Feed). En adaptant sa stratégie (via un scorecard de données influençant la performance), la marque a atteint 23 millions d’impressions en 2025.

Conférence : Reddit & stratégie GEO : de la discussion à la citation IA

Intervenants : Zohra Belmahdi (Textbroker) & Pierre Gaudard

Puisque les LLM se nourrissent massivement de l’UGC, Reddit est devenu un terrain de jeu central pour le GEO. L’équation est simple : un post demandant un effort élevé + des insights précieux = des commentaires, des upvotes et des citations par OpenAI.

Leur méthode (« Keyword Hack » et « FAQ Mining ») se décompose ainsi :

  • Identifier les sources IA : Utiliser la technique du « Query Fan-out » en tapant ses requêtes cibles avec l’opérateur site:reddit.com sur Google pour trouver les threads exacts que l’IA va lire.
  • Infiltration : S’insérer dans ces threads avec des réponses expertes et structurées, sans être spammant, pour changer la narration de la marque.
  • FAQ Mining : Utiliser un LLM (comme Gemini) pour scrapper un subreddit, extraire les questions réelles posées par les utilisateurs et les reformuler sous forme de FAQ optimisées pour être aspirées et citées par les IA.

Conférence : Révolution du Search sur Amazon – Quel impact sur le référencement organique ? Saurez-vous dompter Rufus ?

Intervenants  : Raphaël SAMUEL, Cofondateur de Deeploy et Didier BOLLÉ, CEO de Terraillon

La mécanique de recherche sur Amazon change radicalement avec l’arrivée de l’assistant conversationnel Rufus et de l’algorithme COSMO. On passe d’une correspondance textuelle (mots-clés) à une interprétation de l’intention en langage naturel.

Les facteurs de ranking s’éloignent de la simple vélocité des ventes pour privilégier la pertinence des attributs, le sentiment des avis et la profondeur de la section Q&A (Questions & Réponses).

  • La règle d’or de Rufus : S’il ne trouve pas la réponse claire dans vos puces, votre description, votre grille de comparaison ou vos Q&A, il l’invente ou recommande un concurrent.
  • Le SEO prépare le SEA de demain : Ce qui est optimisé aujourd’hui en organique alimentera la qualité des placements payants sur Rufus demain. Une fiche pauvre donnera un prompt sponsorisé sous-performant.

Conférence : L’IA au service de l’exigence éditoriale (le cas Air France)

Intervenants : Sabine Theodore Legros, SEO ManagerAir France (groupe Air France – KLM)
Sandra Boyer, SEO Team Leader SEOPerformics (Publicis Connected Media)

Bien que le SEO technique change, la marque reste fondamentale. Air France a démontré comment cadrer l’utilisation de l’IA générative (via un « PROMPT AIR FRANCE v3.2 ») pour s’assurer que le contenu produit respecte un ton de voix « premium, inspirant et accessible », tout en bloquant des termes interdits (promotions, prix).

L’IA n’est pas là pour remplacer les processus, mais pour générer du volume utile, « scalable », et internationalisé sous contrôle humain. Ils utilisent notamment les données de citations et de requêtes (Grounding Queries) fournies par l’outil Bing Webmaster Tool AI performances pour affiner leur stratégie de visibilité et comprendre comment Bing Chat référence leurs pages.

RETROUVEZ LES ACTUALITÉS DU MONDE DIGITAL !

Découvrez ici nos analyses, les tendances, les évolutions et les innovations numériques qui impactent chaque jour les modes de communication ou de marketing sur Internet et les réseaux sociaux.

MANUEL DU SOCIAL MÉDIA MARKETING

Retrouvez les analyses, conseils et méthodologies de Laurent Rignault (Fondateur et CEO des agences Expertisme et SOS-e-reputation.com) et Ludovic Bonneton (Directeur Digital International de Yves Rocher) ainsi que des tribunes de Professionnels reconnus de l’Internet.
Ouvrage Préfacé par Gilles Babinet – Vice Président du Conseil national du numérique

Commandez ici votre manuel !
PARTAGEZ CET ARTICLE !

Auteur : Laurent Rignault

Laurent Rignault, spécialiste en Communication Digitale et Stratégie Marketing appliquée au web, est le Fondateur et CEO de l’Agence Full Service Expertisme.

Il accompagne les Grands Comptes, PME, PMI, ETI, Collectivités, Institutionnels, Start-ups, Indépendants… à définir, construire leurs stratégies et mettre en œuvre leurs discours de marque sur Internet et les Médias Sociaux.

Notre objectif est d’élaborer une stratégie de communication interactive cohérente, en phase avec les nouveaux usages de l’Internet tout en anticipant leurs évolutions pour atteindre vos objectifs de business, de notoriété et d’image.

Nous nous appuyons sur une large expertise des métiers du web et sur l’enrichissement quotidien que nous apportent nos clients BtoB et BtoC, pour proposer à la fois du conseil à la transformation digitale, des prestations digitales sur mesure et des formations digitales opérationnelles.

Prêt à donner vie à
votre projet digital ?

Prêt à donner vie à votre projet digital ?

error: Ce contenu est protégé