Temps de lecture estimé : 9 minutes

Votre site est bien référencé sur Google, votre contenu est humain et soigné, votre équipe est fière du résultat. Et pourtant, quand un client potentiel demande à ChatGPT, Perplexity ou Gemini de lui recommander un prestataire, votre nom n'apparaît pas. Pas parce que vous manquez d'expertise. Souvent parce que les crawlers IA ne peuvent pas accéder à votre site, ou ne parviennent pas à interpréter votre contenu. Ce problème, courant, se résout de façon méthodique.

L'essentiel en 30 secondes

  • En France, ChatGPT concentre 84,47 % des clics générés par les moteurs IA, loin devant Perplexity et Gemini (SE Ranking, 2025). 
  • Le trafic issu de l'IA est encore modeste en volume, mais qualifié : les visiteurs arrivent déjà en partie convaincus.
  • Trois obstacles diminuent la visibilité IA dans cet ordre : le robots.txt, le contenu invisible derrière le JavaScript, puis la structure et la qualité du contenu.
  • Les corriger ne demande pas de refondre votre site, mais d'intervenir dans le bon ordre.

Un nouveau canal d'acquisition difficile à ignorer

Selon une étude Ahrefs publiée en février 2025 (nouvelle fenêtre) sur 3 000 sites, la part de trafic web issu des assistants IA est passée de 0,02 % à 0,17 % entre juin 2024 et juin 2025, soit une multiplication par 8,5. Le volume absolu reste très inférieur à celui de Google, mais la progression est constante et les profils de visiteurs sont différents.

Ce qui distingue ce canal, c'est la qualité du trafic. Les visiteurs issus des moteurs IA arrivent déjà partiellement convaincus : l'IA a fait une partie du travail de qualification avant même l'arrivée sur le site. Elle a analysé la requête, comparé les options disponibles, orienté le choix. 

En France, une étude SE Ranking d'octobre 2025 (nouvelle fenêtre) indique que ChatGPT concentre 84,47 % des clics pilotés par l'IA. Bien loin devant Perplexity (12,82 %) et Gemini (2,08 %). Ces chiffres progressent chaque trimestre et concernent déjà vos clients.

Premier obstacle : le robots.txt

Pour citer vos contenus, l'IA doit pouvoir y accéder. C'est une évidence ! Et pourtant, il existe peut-être à la racine de votre site une barrière invisible :  le fichier robots.txt.

Pensé à l'origine pour les crawlers classiques comme Googlebot, il indique au robots quelles pages ils peuvent explorer. 

Souvent configuré à la va-vite, parfois en copiant-collant un code issu du web, le robots.txt bloque les crawlers IA sur 46% des sites les plus visités selon le baromètre IndHack 2026 (nouvelle fenêtre) (79 % pour les sites médias). 

Ces blocages ont souvent été mis en place pour une raison légitime : éviter que le contenu soit utilisé dans les corpus d'entraînement des modèles IA, sans que les propriétaires de sites réalisent qu'ils coupent aussi leur visibilité dans les réponses en temps réel.

en effet, la plupart des fournisseurs séparent aujourd'hui explicitement leurs crawlers d'entraînement de leurs crawlers de recherche. GPTBot et OAI-SearchBot ne sont pas la même chose. Bloquer l'un n'oblige pas à bloquer l'autre. Pourtant, de nombreuses configurations robots.txt restent génériques et bloquent les deux indifféremment.

Pour vérifier votre situation, tapez votre-site.com/robots.txt dans la barre d'adresse de votre navigateur et cherchez les noms suivants :

  • GPTBot : crawler d'entraînement OpenAI
  • OAI-SearchBot : crawler de recherche OpenAI (réponses en temps réel)
  • ClaudeBot : crawler d'entraînement Anthropic
  • Claude-SearchBot : crawler de recherche Anthropic
  • PerplexityBot : Perplexity
  • Google-Extended : utilisé par Google pour Gemini
  • CCBot : Common Crawl (corpus d'entraînement de nombreux LLM)
  • GrokBot : xAI/Grok
  • MistralAI-User : Mistral

Un Disallow: / sous l'un d'eux signifie que le crawler ne peut pas accéder à votre contenu. Un User-agent: * suivi d'un Disallow: / bloque tous les bots par défaut. Pour autoriser un robot en particulier, il faut lui créer son propre bloc Allow.

Deuxième obstacle : le JavaScript que les crawlers ne lisent pas

Une fois votre robots.txt franchi, le crawler tente d'accéder au contenu. Un deuxième obstacle peut surgir, plus insidieux parce qu'invisible depuis un navigateur.

Un site visuellement parfait pour un humain peut être totalement opaque pour un crawler IA si le contenu se charge uniquement via JavaScript. Les crawlers traditionnels comme Googlebot ont mis des années à intégrer le rendu JS, et Google continue d'encourager le contenu côté serveur. ChatGPT, Claude, Perplexity et Grok ne disposent pas systématiquement d'un moteur de rendu JavaScript côté crawler : ils se basent sur le HTML brut envoyé par le serveur. Ce qui s'affiche après une seconde de chargement (menus dynamiques, témoignages, tarifs, références) n'existe pas pour eux.

Une précision utile : certains outils IA peuvent, ponctuellement, interroger une page en temps réel avec rendu JavaScript pour vérifier une information. Mais pour être présent dans leur base de connaissances de façon fiable et reproductible, le HTML brut reste le seul terrain solide.

Pour le vérifier vous-même, désactivez le JavaScript dans votre navigateur (via les paramètres ou une extension), puis rechargez vos pages clés. Si les informations essentielles disparaissent, votre site n'est sans doute pas vu par ces IA. La solution la plus robuste consiste à s'assurer que le contenu principal est déjà présent dans le HTML, sans attendre l'exécution JavaScript.

Troisième obstacle : un contenu que les IA ne peuvent pas citer

Admettons que le robots.txt soit ouvert et le contenu présent dans le HTML. Le crawler peut lire la page. La question qui reste est plus subtile : ce contenu sera-t-il cité dans une réponse IA ?

Les IA n'indexent pas des pages entières. Elles extraient des fragments, des réponses directes, des passages structurés. C'est ce qu'on nomme la retrievabilité. Un texte trop narratif ou trop marketing sera parcouru sans être repris, même s'il est bien écrit. Pour l'IA, la forme compte autant que le fond.

Une étude de référence publiée à ACM KDD 2024 (nouvelle fenêtre) par des chercheurs de Princeton, Georgia Tech et IIT Delhi montre que la probabilité d'être cité dépend fortement de la pertinence contextuelle, de l'autorité de la source et de la structuration sémantique des données, avec des signaux comme le JSON-LD qui surpassent souvent l'optimisation par mots-clés.

Les signaux de citabilité les plus récurrents :

  • Les données structurées JSON-LD. Une étude de SE Ranking de janvier 2026* indique que 65 % des pages citées par Google AI Mode et 71 % de celles citées par ChatGPT intègrent des données structurées au standard Schema.org. Ces balises servent de carte d'identité à votre page : qui parle, de quoi, pour qui.
  • La structure du contenu. Des titres hiérarchisés, des paragraphes courts, une réponse directe à la question principale dès les premiers mots.
  • La fraîcheur. Les moteurs de réponse tendent à favoriser les contenus récents, souvent inférieurs à 3 mois, surtout sur des sujets évolutifs.
  • L'autorité de marque. Être mentionné dans des contextes fiables (presse, annuaires sectoriels, sites de référence) renforce la probabilité d'être cité par une IA, au-delà des seuls backlinks.
  • Les sources citées dans votre contenu. Un texte qui s'appuie sur des données vérifiables et renvoie vers des sources d'autorité inspire davantage confiance aux LLM. Citer une étude ou un rapport, c'est signaler que l'information est attribuable, pas seulement affirmée.

SEO et GEO : deux disciplines, une même base

Le GEO (Generative Engine Optimization) est aujourd'hui à la mode. Source d'un nouveau marché et de nouvelles offres d'agences ou de freelance, il désigne l'optimisation de la présence d'une marque dans les réponses des IA conversationnelles.

En apparence, la relation entre SEO et GEO n'est pas forcément évidente. Une analyse de SemRush de 2025* révèle que les URLs citées par les IA ne recouvrent que 12 % des sites du top 10 Google et Bing. Une bonne position sur Google ne garantit donc pas d'apparaître dans les réponses IA, et des pages moins bien classées peuvent très bien être citées si leur contenu est mieux structuré.

Cependant, le SEO reste nécessaire et les deux disciplines partagent les mêmes fondations : contenu de qualité, structure claire, autorité construite dans le temps. Le GEO ajoute des exigences techniques (accessibilité du contenu, HTML brut, JSON-LD, fraîcheur) et sémantiques (réponse directe, passages extractibles, sources vérifiables).

SEO vs GEO : ce qui change
CritèreSEO traditionnelGEO
ObjectifApparaître dans une liste de liensÊtre cité dans une réponse générée
Signal principalBacklinks, mots-clés, temps de chargementStructure HTML, JSON-LD, autorité de marque
Unité d'optimisationLa pageLe passage, le fragment extractible
Mesure de succèsPosition, taux de clicTaux de citation, share of model
Contenu idéalLong, exhaustif, sémantiquement richeStructuré, sourcé, réponse directe en tête

Comment apparaître dans les réponses de ChatGPT ou Perplexity ?

Sur les sujets où votre expertise est réelle, vous pourrez très bien apparaître dans des réponses IA avant des concurrents plus gros, plus célèbres ou mieux référencés sur Google, mais seulement si votre contenu est accessible et structuré.

Avant toute chose :

  • Commencez par votre robots.txt en vérifiant que vous n'avez pas bloqué les crawlers de recherche.
  • Assurez-vous que votre contenu est présent dans le HTML brut, pas uniquement chargé par le JavaScript.
  • Vérifiez que votre site présente des données JSON-LD aux IA et si celles-ci ne méritent pas une mise à jour.
  • Assurez-vous que chaque page répond à sa question principale dans les 200 premiers mots.
  • Mettez régulièrement à jour les contenus existants en rendant les dates de modification visibles.

J'ai développé un outil gratuit qui analyse ce que reçoivent GPTBot, ClaudeBot et PerplexityBot : robots.txt, JavaScript, métadonnées, données structurées, fraîcheur du contenu, en quelques secondes, sans inscription et surtout, sans contrepartie.

Tester la visibilité IA de mon site

Une question technique et éditoriale

La visibilité IA n'est pas réservée aux développeurs. Un contenu bien structuré, qui répond directement aux questions que se posent vos clients, que les IA peuvent extraire sans ambiguïté : voilà ce qui fait la différence. 

Les exigences ne sont pas si différentes de ce qu'on attendait déjà d'un bon contenu web, mais la machine ne comble aucun vide. Si la réponse n'est pas dans les 200 premiers mots, elle cherche ailleurs.

Le GEO est encore une science très jeune. Les critères de citation de Perplexity ne sont pas ceux de ChatGPT, qui ne sont pas ceux de Gemini. Les algorithmes changent, parfois d'une semaine à l'autre. Les trois obstacles décrits dans cet article et leurs solutions (accès, lisibilité, citabilité) sont les fondations stables, celles que toutes les plateformes partagent. Pour le reste, la veille reste indispensable.