Agence 30A
  • Blog
Base de connaissance Agence 30A
/
Comment j'ai mesuré la visibilité d'Ethic First dans les LLMs grâce aux logs serveurs

Comment j'ai mesuré la visibilité d'Ethic First dans les LLMs grâce aux logs serveurs

Date de création
April 1, 2026
Sélectionner

Les outils pour suivre sa visibilité dans les IA se multiplient. On peut citer par exemple : BotRank.ai , Qwairy ou même SEM rush. La plupart fonctionnent sur le même principe : vous entrez une liste de prompts, la plateforme les soumet quotidiennement à différents LLMs et vous dit si votre marque est citée, à quelle position, sur quels modèles. C'est simple et indispensable si vous travailler sur du GEO.

Mais il existe une autre source de données, qu'on n'exploite encore peu (de ce que je vois sur LinkedIn) pour mesurer sa présence dans les IA : les logs serveurs.

C’est ce type d’analyse que j'ai réalisé pour un client il y a quelques semaines. Le client en question : Ethic First, agence spécialisée en accessibilité numérique. L'enjeu : mesurer sa visibilité dans les LLM et les contenus les plus souvent repris dans les réponses des IA. J'ai commencé par une analyse via un outil de suivi de prompt puis j'ai analysé leurs logs serveurs. Je vous partage tout ça dans l'article suivant :

📌

Pour en savoir plus sur le GEO et le SEO, j’en parle ici :

Partie 1 : Comment les LLMs crawlent le web

(un peu de théorie ici mais si vous préférez directement voir ce que ça donne pour Ethic First, rendez vous à la partie 2)

Du mot-clé au prompt : deux logiques différentes

Le search traditionnel fonctionne sur une logique simple : un utilisateur tape "meilleure agence accessibilité numérique", Google cherche dans son index les pages correspondantes, les classe, et affiche les résultats. L'utilisateur clique.

Les LLMs fonctionnent différemment. Quand quelqu'un demande à ChatGPT "quelle agence peut m'accompagner sur un audit d'accessibilité numérique ?", l'IA ne cherche pas un lien à donner, il construit une réponse sur mesure.

Pour ça, il peut s'appuyer sur deux sources :

  1. Les données d'entraînement : tout ce que le modèle a ingéré lors de son entraînement, avec une date de coupure (ChatGPT s'arrête par exemple à août 2025).
  2. Les données de recherche en temps réel : quand le mode search est activé, le LLM va effectivement requêter le web pour récupérer des contenus frais. C'est là que vos logs entrent en jeu.
📩

Votre visibilité sur Google et dans les IA, on en parle ?

Si cet article vous a donné envie de faire le point sur votre stratégie SEO/GEO, envoyez-moi un email à foucauld@agence30a.fr Je réponds personnellement à chaque message.

Le query fan-out : une requête devient multiple

Autre différence structurelle avec Google : là où un moteur de recherche reçoit une requête et cherche un match, un LLM en mode search va décomposer votre prompt en plusieurs sous-requêtes parallèles.

image

"Quelle agence pour m'accompagner sur mon audit accessibilité ?" devient par exemple :

  • agence audit accessibilité numérique France
  • cabinet conseil accessibilité numérique RGAA
  • meilleures agences accessibilité numérique 2025

ChatGPT (pour ne citer que lui) ne possédant pas d'index, il se base sur celui de Google (entre autre) pour récupérer des information. Pour chaque mots clés, il récupère des résultats de SERP. Il voit le titre, l'URL, le snippet, la date de publication. Et il décide quelles pages lire réellement.

(Précision : depuis début mars 2026, les query fan-outs de ChatGPT ne sont plus publics. La mécanique existe toujours, mais on ne peut plus les observer directement.)

Trois types de bots, trois comportements

Tous les bots IA ne font pas la même chose. C'est un point essentiel pour interpréter vos logs correctement.

  • Les LLM Bots (entraînement) : GPTBot, ClaudeBot, CCBot Ils crawlent le web pour alimenter les données d'entraînement des modèles. Comportement de spider classique, large couverture, faible fréquence de retour sur les mêmes pages. Horizon long terme.
  • Les User Bots (interaction utilisateur) : ChatGPT-User, Claude-User, Perplexity-User Ils visitent une page précise parce qu'un utilisateur vient de poser une question et que le LLM a décidé de lire cette page pour construire sa réponse. Ce sont les plus intéressants à suivre. Chaque hit est potentiellement une citation dans une réponse.
  • Les Search Bots (indexation) : OAI-SearchBot, Claude-SearchBot, PerplexityBot Ils indexent les pages pour alimenter la fonctionnalité "search" de chaque LLM. Rôle intermédiaire entre l'entraînement et la réponse en temps réel.

Ce que les logs permettent de mesurer

Les fichiers de logs serveur enregistrent tous les passages (humains et robots) sur votre site. Pour chaque requête HTTP, on y trouve notamment le user-agent, qui permet d'identifier précisément quel bot est passé.

En croisant logs et crawl du site, on peut répondre à des questions que ni la Search Console ni les outils de positionnement classiques ne traitent :

  • Quelles pages sont visitées par les User Bots (= potentiellement citées dans des réponses IA) ?
  • Certaines pages sont-elles ignorées alors qu'elles devraient être visitées ?
  • Les LLMs sont-ils bloqués par des redirections ou des erreurs ?
  • Votre site supporte-t-il le JavaScript ? (Spoiler : la plupart des bots IA ne l'exécutent pas)

Partie 2 : Retour d'expérience de l'analyse de logs d'Ethic First

Le contexte

Ethic First est une agence spécialisée en accessibilité numérique : audits RGAA, RAAM, WCAG et accompagnement à la mise en conformité.

Site WordPress lancé en 2023, environ 75 URLs indexables. L'analyse de logs couvre la période du 1er février au 15 octobre 2025.

Vue d'ensemble : qui crawle le site ?

Bots
Nombres de hits
Nombre d’URL uniques
Nombre de hits par URLs (moyen)
Google (tous les robots)
8 250
241
34,2
ChatGPT-user
8 409
62
135,6
GPT Bot
7 015
1  750
4,0
OAI Search Bot
2 897
361
8,0
Claude Bot
2 457
675
3,6
Claude User
6
5
1,2
Perplexity Bot
1 377
97
14,2
Perplexity User
443
39
11,4

Le chiffre qui interpèle le plus : ChatGPT-User fait autant de hits que Googlebot, mais sur 62 URLs seulement. Soit une moyenne de 135 passages par URL. C'est un comportement très différent de GPTBot qui couvre 1 750 URLs avec 4 hits en moyenne. Le bot ChatGPT Bot est ciblé : il revient régulièrement sur les mêmes pages parce que des utilisateurs posent régulièrement les mêmes questions sur ces sujets.

Quelles pages ChatGPT visite-t-il ?

URLs
Nombre de hits
Pourcentage du total
https://www.ethicfirst.fr/
1 378
16,39%
https://ethicfirst.fr/
1 258
14,96%
/loi-handicap-2005-accessibilite-numerique-changements/
1 246
14,82%
/accessibilite-numerique-ordonnance-renforcement-sanctions-encourues-arcom/
474
5,64%
/zoom-declaration-accessibilite-rgaa/
443
5,27%
/audits-accessibilite-numerique-rgaa-raam-wcag/
369
4,39%
/rgaa-calcul-taux-conformite-audit/
348
4,14%
/formations-accessibilite-numerique/
163
1,94%
/accessibilite-numerique-ecoconception-numerique-responsable/
155
1,84%
/formation-sensibilisation-accessibilite-numerique/
130
1,55%
/accessibilite-numerique-eaa-accessibility-act/
125
1,49%

La page sur la loi handicap 2005 représente à elle seule près de 15% des visites. C'est logique : c'est une page qui remonte bien sur les requêtes légales/réglementaires autour de l'accessibilité. Les prompts utilisateurs qui déclenchent ces visites sont vraisemblablement des questions comme "qu'est-ce que la loi handicap impose en matière d'accessibilité numérique ?"

On voit que ChatGPT User crawl beaucoup la home page sans www qui n'existe pourtant pas et n'est pas maillée sur le site.

Ce que ça signifie : une visite de ChatGPT User ≈ une citation

On pourrait se dire que chaque visite de ChatGPT User correspond donc à un prompt et une réponse de ChatGPT qui cite Ethic First. MAIS ce n'est pas exactement ça malheuresement. Les LLMs ont du cache, donc ils ne visitent pas à chaque fois qu'ils citent. Un hit de ChatGPT-User sur une page est un proxy de citation. En volume, Ethic First est cité par ChatGPT. En profondeur, les visites se concentrent sur un périmètre plus étroit.

Ce qu'on retient

L'analyse de logs ne remplace pas les outils de monitoring GEO. Elle les complète en apportant quelque chose d'unique : une vue directe sur ce que les bots font réellement sur votre site, sans intermédiaire.

Ce que les logs montrent chez Ethic First :

  • ChatGPT connaît et cite régulièrement le site, principalement sur les sujets réglementaires
  • La couverture est étroite (62 URLs) mais répétée, signe d'une vraie légitimité sur un périmètre limité
  • Claude et Perplexity sont quasi absents en mode user marge de progression importante
  • L'autorité du domaine reste le frein principal à une présence plus large dans les résultats IA
📩

Votre visibilité sur Google et dans les IA, on en parle ?

Si cet article vous a donné envie de faire le point sur votre stratégie SEO/GEO, envoyez-moi un email à foucauld@agence30a.fr Je réponds personnellement à chaque message.

image
image
image

FOUCAULD HENIN

Senior SEO consultant et fondateur de 30A  

Je vous accompagne dans conception et la mise en place de vos chantiers SEO.

Après plusieurs expériences chez des retaillers, clients grand comptes et scale up, j’apporte une vision rationnelle et data driven dans les stratégies SEO.

Références : Oscaro, Total Energie, Intermarché, Oreegami

#bigquery #Looker #data analyse