L’édition 2026 du SMX Paris, qui s’est tenue les 9 et 10 mars à l’Espace Saint-Martin, a marqué un tournant définitif dans l’industrie du search. Les différentes conférences ont acté la transition du SEO (Search Engine Optimization) vers le GEO (Generative Engine Optimization), imposant aux marques de nouvelles règles pour exister sur les moteurs de réponses (ChatGPT, Perplexity, Gemini, Rufus). Voici le compte rendu détaillé, présentation par présentation.
Laurent Rignault, CEO d’EXPERTISME, est intervenu en tant que Modérateur du cycle SEO / GEO et Membre du Comité de Pilotage pour cette 15ème édition des conférences SMX Paris.
Conférence : Votre data n’est plus vraiment la vôtre : qu’en font les IA ?
Intervenants : Maxime Guernion (Havas Market) & Aymeric Bouillat (Y’a pas de quoi !)
Cette conférence animée par Aymeric Bouillat et Maxime Guernion met en évidence l’aspiration massive des données du web par les IA et la nécessité pour les éditeurs de reprendre le contrôle.
Voici les 4 points essentiels à retenir :
- L’explosion de l’hyper-crawl : Entre janvier et août 2025, le trafic généré par les bots de LLM a été multiplié par 4, représentant désormais 10,1 % du trafic total des bots. OpenAI génère à lui seul 1,7 milliard de requêtes par mois, plaçant GPTBot et ClaudeBot dans le top 3 des crawlers les plus actifs au monde.
- Comprendre les 4 types de bots : Pour bien se protéger, il faut distinguer les bots d’entraînement (qui aspirent pour améliorer les modèles), de recherche (qui indexent pour citer des sources), d’interaction (qui récupèrent de la donnée en temps réel) et agentiques (qui naviguent comme des humains).
- Les nouvelles armes de blocage : Le simple fichier robots.txt ne suffit plus (et certains bots IA contournent les mesures de protection). Deux solutions émergent :
- Le Content-Signal : Une nouvelle balise qui permet de donner des directives par usage (ex: ai-train=no pour refuser l’entraînement, mais search=yes pour autoriser l’indexation).
- Le TDMRep : Un protocole ayant une valeur juridique stricte (basé sur la directive européenne CDSM) pour interdire la fouille de données, massivement utilisé par les médias français.
- L’analyse de logs devient vitale : Il faut impérativement surveiller le passage des IA avec des outils comme Oncrawl ou Botify. Parfois, ce sont les pare-feux (WAF) des sites qui bloquent l’IA en silence. Sans surveillance, un site s’expose à des erreurs : sur des sites e-commerce, il arrive fréquemment que ChatGPT invente des URLs de toutes pièces, générant des cascades d’erreurs 404.
Le constat final : L’IA se sert des données des éditeurs à un coût élevé pour eux, mais presque sans contrepartie : le trafic direct renvoyé par les IA vers les sites web reste dérisoire, se situant en moyenne à seulement 0,4 % du trafic total.
Keynote SEO : “Where’s Waldo? (I Don’t Care) Follow Your Customer Instead”
Intervenante : Amanda King
Le message central est clair : il faut cesser la course à la création frénétique de contenus et aux mots-clés, pour se concentrer sur l’audience et la construction de la marque.
- Les mots-clés sont morts, place aux concepts : Google ne raisonne plus en mots-clés stricts, mais en concepts et expressions grâce à des modèles IA puissants comme BERT et MUM (1000 fois plus puissant, multilingue et multimédia). Les moteurs génératifs utilisent le « Fan-out » (découpage de requêtes) et sélectionnent de petits extraits de texte (« snippets »). Les LLM ne se soucient absolument pas des dates de publication. L’important est le « score de consensus » entre plusieurs sources.
- Moins de pages = Plus de trafic (Approche FPMT) : L’élagage de contenu fonctionne : la réduction idéale se situe entre -10 % et -20 % du nombre de pages, ce qui génère des hausses de trafic médianes de +70,74 %. Cette stratégie « Fewer Pages More Traffic » (FPMT) cartonne dans des secteurs comme la mode (réduction de 32 % des pages pour +93 % de trafic) ou l’automobile. Exception : Les sites immenses (>100 000 pages) ont encore intérêt à produire du volume.
- La méthode de nettoyage (Cull the fluff) : Il faut auditer son site pour trouver et tuer les pages inutiles : éliminer les doublons (via Screaming Frog) et le contenu non pertinent (en analysant les impressions via la Google Search Console et BigQuery). Chaque page conservée doit répondre à une véritable intention utilisateur (« Do », « Know », « Website »). Les pages inutiles doivent être redirigées, ou supprimées (codes 404 / 410).
- Développer la Marque, la seule vraie parade : Fini le contenu bas de gamme (faible effort, mauvaise UX). Il faut un contenu qualitatif, personnel et difficile à répliquer. Il faut plus de 30 points de contact (encounters) pour que Google et l’IA mémorisent correctement votre marque. Le SEO moderne s’apparente à la gestion de la réputation (ORM) et au SEO Local : il faut exister en dehors de son propre site web via des podcasts, YouTube, des relations presse, et utiliser massivement les données structurées (Schema markup) pour valider son entité.
À retenir : Google comprend désormais ce qu’est une marque, et vous ne pouvez plus « faker » cette autorité simplement en vous positionnant sur des mots-clés importants.

Keynotes SEO : Shaun Anderson (Hobo SEO) & Carolyn Shelby (Yoast) – Décoder l’E-E-A-T pour survivre à l’abondance
Intervenants : Shaun Anderson (Hobo SEO) & Carolyn Shelby (Yoast)
Carolyn Shelby a été catégorique : le « Factory SEO » (SEO d’usine) est mort. Il faut cesser de vendre des clics et aider les clients à contrôler leur propre narration, car dans la recherche IA, la marque qui contrôle la narration contrôle la visibilité.
Shaun Anderson a poussé la réflexion en traduisant l’E-E-A-T en « proxies » lisibles par les machines :
- Expérience : Mesurée par des scores comme le contentEffort ou l’originalContentScore (exigeant un contenu difficile à répliquer et des médias originaux).
- Expertise : Mesurée via le siteFocusScore ou les EntityAnnotations (il faut aller en profondeur sur un sujet, pas en largeur).
- Autorité & Confiance : Mesurées par le PageRank, les clics positifs/négatifs et l’absence de signaux de spam.
L’E-E-A-T n’est pas une « checklist » universelle, mais une notion contextuelle (Contextual SEO) qui dépend du risque (YMYL) et de l’entité. La stratégie « White hat » est désormais une question de survie : « L’IA augmente l’offre. La confiance contrôle la demande ».
Conférence : De la SERP aux IA – quelles stratégies, quels formats et quelles pratiques permettent à Sofinco de se placer dans les réponses IA ?
Intervenants :Julien Bismuth, Consultant SEO / GEO, Getfluence – Eric Demaret, Head of SEO, Orixa Media – Chantal Abreu, Responsable SEO, Sofinco
Dans le monde du GEO, l’objectif n’est plus d’être en compétition pour le top 10, mais d’entrer dans la « logique probabiliste » d’un LLM pour être retenu comme source de confiance. L’autorité est évaluée sur la récurrence des citations et non plus page par page.
Le blocage initial : Bien que leader absolu en SEO classique, Sofinco était invisible sur l’IA car ses protocoles de sécurité bancaire bloquaient les bots IA.
- Action 1 – Technique : Autoriser l’accès aux crawlers IA (comme ChatGPT et Perplexity) sous haute surveillance via Datadome et le Robots.txt.
- Action 2 – On-site (Multimodal & Chunking) : Transformer les tableaux Javascript en HTML lisible par les bots, découper le contenu en paragraphes courts (chunking), et lancer des vidéos tutoriels (100% indexées, 300K impressions sur Google en un mois).
- Action 3 – Off-site (AI-First) : Publier des articles au format « AI-First » (phrases simples, comparaisons neutres) sur les médias externes déjà identifiés comme sources de confiance par l’IA.
Résultat : Avant la campagne, Sofinco n’avait aucune mention. Après, la marque est apparue directement comme source citée dans les réponses de l’IA.
Conférence : GEO local : les bonnes pratiques pour remonter sur ChatGPT, Gemini ou Perplexity
Intervenants: Nicolas Bressy, Responsable Marketing Digital, Matmut, Thibault Renouf, co-CEO, Partoo, Idriss Khouader, Co-fondateur & Head of AI Search, Meteoria
Les nouvelles études de Partoo ont permis de mettre en évidence des différences comportementales fascinantes entre ChatGPT et Perplexity lorsqu’il s’agit de requêtes géolocalisées :
- ChatGPT vs Perplexity : Les deux IA ne cherchent pas de la même façon. ChatGPT « explore » avec des requêtes longues et des sources très diversifiées. À l’inverse, Perplexity « répète » en utilisant des requêtes courtes et un nombre très restreint de sources.
- Le Store Locator est roi : Les pages de vos établissements (Store Locators) sont la source de données numéro 1 des IA pour répondre aux requêtes locales (elles représentent par exemple 54% des sources pour l’intérim et 39% pour l’assurance).
- Les 3 nouveaux KPIs : Face à l’IA, il faut désormais mesurer sa Visibilité (fréquence d’apparition), sa Position relative par rapport aux concurrents, et son Taux de source (le pourcentage de fois où votre site est cité en lien).
- La méthode d’optimisation en 3 piliers :
- Data Structurée : Avoir un Store Locator techniquement parfait.
- Preuve Sociale : Les avis clients garantissent la neutralité pour l’IA (la Matmut a ainsi optimisé sa note à 4,79/5 et son taux de réponse à 100%).
- Omniprésence : Être présent et à jour sur un maximum d’annuaires, de comparateurs et de plateformes (Google, réseaux sociaux).
Conférence : Comment le GEO transforme la visibilité des marques : un an de cas clients et d’enseignements clés
Intervenants : David Eichholtzer (WAM) & Marion Bedic-Keller
Cette conférence a posé le constat de base de ce SMX 2026 : l’arrivée des AI Overviews, Perplexity et ChatGPT signe la fin du moteur de recherche traditionnel et l’avènement du « moteur de réponse ».
Le but n’est plus de classer des liens, mais de synthétiser l’information, reléguant la marque au statut de « simple source pour l’IA » plutôt que de destination finale.
- Le SEO classique visait l’acquisition de trafic ; le GEO vise l’influence et la disponibilité mentale. Votre marque n’est plus la destination finale, mais une simple source pour l’IA. Les vrais KPIs deviennent le Share of Voice (votre taux de citation) et le Share of Model (votre association à un sujet par l’IA).
- Les Relations Presse (Earned Media) sont vitales : Créer de la donnée exclusive (sondages, études) génère des retombées dans les médias. Ces médias de confiance sont massivement « aspirés » par les IA pour construire leurs réponses, ce qui propulse mécaniquement la marque.
- Misez sur vos vraies « Datas » : Ne laissez pas l’IA inventer vos personas. Utilisez les vraies données de votre entreprise (CRM, commerciaux, retours clients) pour répondre avec granularité aux véritables intentions de recherche.
- La technique : alerte sur le Javascript : Un temps de chargement inférieur à 1 seconde est l’assurance d’être lu. Attention cependant au Client-Side Rendering (Javascript) : les bots IA ne le lisent souvent pas pour économiser leurs ressources. Le Server-Side Rendering (SSR) ou la balise <noscript> sont obligatoires.
- Le Store Locator règne en Local : Pour les requêtes de proximité, les IA s’abreuvent majoritairement des pages « Store Locator » des marques.
Conférence : GEO – quand le SEO s’adapte aux moteurs génératifs
Intervenants : Sylvain Peyronnet, Guillaume Peyronnet & Grégory Florin
L’objectif des Moteurs de Recherche Génératifs (GSE) est de réduire le « coût delphique », c’est-à-dire l’effort cognitif et le temps nécessaires pour trouver une information. Pour y parvenir, l’IA transforme la recherche, imposant au SEO de nouvelles règles.
Voici les 4 leviers d’action concrets pour survivre aux algorithmes de l’IA :
- Miser sur la longue traîne (Le « Fan-out ») : L’IA décompose une requête complexe en 5 à 15 sous-requêtes classiques envoyées sur Google ou Bing. Action : Il faut impérativement positionner ses pages sur ces multiples requêtes de longue traîne générées par l’IA.
- Penser en « Cocon sémantique » (La fusion RRF) : L’IA récompense un site qui apparaît dans plusieurs de ses sous-requêtes, même s’il n’est pas 1er. Action : La couverture thématique large bat la position unitaire ; couvrez toutes les facettes d’un sujet.
- Avoir un angle unique (Filtre MMR) : Si trois sites disent la même chose, l’IA élimine la redondance et n’en garde qu’un. Action : Proposer une approche inédite, des chiffres précis ou des données factuelles pour survivre à la sélection.
- Structurer en blocs autonomes (Le « Chunking ») : L’IA découpe vos textes en petits blocs (chunks) pour rédiger sa réponse. Action : Rédigez des paragraphes auto-contenus, lisibles hors contexte, avec une qualité irréprochable (signaux E-E-A-T forts).
Comment mesurer ses résultats ? Le suivi SEO classique par mots-clés est devenu aveugle. Pour monitorer sa visibilité GEO, il faut utiliser une approche par « prompts » (tester les questions de vos personas cibles) et croiser ces tests avec l’analyse de vos logs serveurs pour identifier exactement quels templates de pages sont avalés par ChatGPT.
Conférence : Comment Pinterest SEO est devenu un canal incontournable de la stratégie digitale de BUT ?
Intervenants : Olivier Granda (Responsable Acquisition BUT) et Marilou Rudel (Co-fondatrice Flair Agency).
Bien qu’étant une marque très mature sur le digital, BUT sous-exploitait Pinterest en 2023 avec seulement 8 millions d’impressions organiques et 12 000 clics, se laissant distancer par des concurrents (comme Rhinov ou Côté Maison) qui atteignaient déjà 10 millions de vues mensuelles.
Pinterest ne doit pas être vu comme un simple réseau social, mais comme un moteur de recherche à part entière, fort de 2 milliards de recherches mensuelles et fonctionnant avec un algorithme de pertinence (Smart Feed). En adaptant sa stratégie (via un scorecard de données influençant la performance), la marque a atteint 23 millions d’impressions en 2025.
Conférence : Reddit & stratégie GEO : de la discussion à la citation IA
Intervenants : Zohra Belmahdi (Textbroker) & Pierre Gaudard
Puisque les LLM se nourrissent massivement de l’UGC, Reddit est devenu un terrain de jeu central pour le GEO. L’équation est simple : un post demandant un effort élevé + des insights précieux = des commentaires, des upvotes et des citations par OpenAI.
- Le nouveau poids lourd du GEO : Reddit a triplé son trafic en un an et s’impose comme la 2ème source globale la plus citée par les IA, juste derrière Wikipedia. Aujourd’hui, le réflexe des internautes est d’ajouter » + avis reddit » à leurs recherches pour fuir les discours marketing.
- La règle d’or (« Zéro bullshit ») : Pour réussir, il faut brûler les codes du digital traditionnel : arrêtez le marketing et soyez utile (visez 80 % de valeur apportée pour 20 % de promotion). L’approche doit être 100 % humaine et authentique.
- Les 3 visages de la marque : Une entreprise peut se déployer via un Compte Officiel (u/marque) pour asseoir son autorité, un Subreddit de marque (r/marque) pour générer une masse de citations IA, ou un profil « Ninja » anonyme pour s’infiltrer incognito dans les discussions.
- Les 3 « Hacks » pour exploiter Reddit :
- Query Fan-Out : Cherchez sur Google (site:reddit.com) les sous-questions liées à votre mot-clé pour trouver les discussions exactes que l’IA va sourcer, puis allez y poster des réponses expertes.
- FAQ Mining : Donnez l’URL d’un Subreddit à une IA (comme Gemini) et demandez-lui de reformuler les vraies questions des internautes pour construire la FAQ parfaite sur votre propre site.
- Parasite SEO : Utilisez Semrush pour repérer les mots-clés faciles (KD < 40) où Reddit est dans le Top 20, et créez un contenu sur votre site pour lui voler sa place dans les résultats.
Conférence : Révolution du Search sur Amazon – Quel impact sur le référencement organique ? Saurez-vous dompter Rufus ?
Intervenants : Raphaël SAMUEL, Cofondateur de Deeploy et Didier BOLLÉ, CEO de Terraillon
L’arrivée de Rufus, l’IA conversationnelle d’Amazon, bouleverse les règles du e-commerce. Fin 2025, Rufus devrait représenter 35 % des recherches sur la plateforme, tout en augmentant la probabilité d’achat de 60 %. L’algorithme passe d’une logique de mots-clés purs (A10) à une interprétation de l’intention en langage naturel (COSMO).
Voici les 4 piliers d’action pour s’adapter :
- Fini le bourrage de mots-clés : Les titres saturés et les listes à puces répétitives perdent leur efficacité. Votre fiche doit désormais répondre clairement à l’intention : Pour qui ? Quel bénéfice ? Comment l’utiliser ?.
- La FAQ est le « cerveau » de Rufus : La section Questions/Réponses (Q&A) et les grilles de comparaison sont lues en priorité par l’IA. La règle d’or : si Rufus ne trouve pas l’information dans ces sections, il invente la réponse ou recommande un concurrent.
- Des visuels lus par l’IA (OCR) : Les simples images de produits ne suffisent plus. Il faut intégrer du texte rassurant directement sur les visuels (ex : « Garantie 2 ans », « Convient à toute la famille »), car l’outil de reconnaissance visuelle de Rufus lit et indexe ces mots.
- Les nœuds sémantiques (COSMO) : Taguez vos produits selon leur contexte d’usage. Par exemple, le terme « reconstruction musculaire » permet à l’IA de lier votre produit à la requête humaine complexe « meilleure protéine pour la récupération ».
À retenir : Le SEO organique d’aujourd’hui prépare les publicités (SEA) de demain. Sur Rufus, une fiche produit pauvre générera inévitablement un placement sponsorisé sous-performant. Vous ne faites plus du SEO classique, vous apprenez à une IA à vendre à votre place.
Conférence : L’IA au service de l’exigence éditoriale (le cas Air France)
- Sabine Theodore Legros, Responsable SEO – Air France
- Sandra Boyer, SEO Team Leader – Performics
- Grégory Florin, Directeur Expertise et Innovation SEO – Performics
Lors de cette session du SMX Paris 2026, Sabine Theodore Legros (Air France) et l’équipe Performics (Sandra Boyer, Grégory Florin) ont démontré comment générer du contenu à grande échelle sans sacrifier l’exigence de la marque. L’objectif : doper le trafic des « pages routes » (ex: Vol Paris – New York), là où se joue la conversion.
Voici leur méthode redoutable en 4 étapes pour industrialiser la production et préparer l’ère du Generative Engine Optimization (GEO).
La méthode « End-to-End » en 4 étapes
- Prioriser (Le ROI d’abord) : Avec plus de 1000 itinéraires et 90 marchés, l’équipe ne traite pas tout. Elle croise le « Potentiel SEO » (volume de recherche) avec le « Score Business » (chiffre d’affaires de l’année précédente). On optimise ce qui rapporte.
- Cadrer (Le Prompt Marque) : Utilisation d’un « Prompt Air France v3.2 » ultra-strict. Il impose le ton (premium, vouvoiement), les sources autorisées, et liste les sujets formellement interdits (prix, mentions des concurrents).
- Générer (Le RAG Hybride) : Pour éviter que l’IA n’invente des informations (« hallucinations »), ils utilisent un RAG (Retrieval-Augmented Generation). L’IA ne génère des réponses qu’à partir d’une base de données d’entreprise découpée en petits morceaux (chunks).
- Contrôler (Double QA) : La validation s’opère en 3 couches : un agent IA vérifie les mots interdits et le ton, un second agent IA vérifie la conformité locale (langue), puis un humain donne la validation finale. Un « scraping » quotidien met à jour le contenu automatiquement si une info (ex: règles de bagages) change.
Les résultats SEO organiques. Le déploiement sur 800 pages et 13 marchés prioritaires a transformé le site :
- Les pages routes sont passées de 80 à 500 mots.
- Gain de +14 points d’optimisation sémantique (score YourTextGuru).
- +15% de trafic et +27% d’impressions (Year over Year).
Le pont vers le GEO : Le cas « Kids Solo »
- Ce travail de structuration en FAQ a un effet collatéral surpuissant : il est exactement ce que cherchent les moteurs génératifs (ChatGPT, Copilot, Claude).
- En remarquant qu’Air France n’était pas cité en premier par les IA sur les requêtes concernant les mineurs voyageant seuls, l’équipe a généré un guide complet (2000 mots) sous forme de FAQ.
Résultat : En 5 jours, cette page est devenue la source unique d’information (Single Source of Truth) pour les 3 IA majeures, évinçant au passage 3 sources externes.
Comme l’a parfaitement résumé Grégory Florin : « L’IA n’est pas là pour remplacer les process, mais elle permet d’accéder au volume, sous contrôle humain ».

