Avant d'aller plus loin : si vous n'avez pas vu les premiers tutos vous pouvez les consulter ici :
- #1 Tuto Skills Claude : comment bien commencer avec les MCP ?
- #2 Tuto Skills Claude : connecter ses données Google Search Console via MCP
- #3 Tuto Skills Claude : comment faire un audit SEO avec Claude ?
- #4 Tuto Skills Claude : connecter ses données Google Analytics via MCP
- #5 Tuto Skills Claude : analyser la SERP
Screaming Frog est un excellent outil de crawl. Il vous donne toutes les données brutes : les 404, les titles manquants, les pages orphelines, les redirections.
Le problème, c'est que ces constats unitaires, vous les avez déjà dans l'interface de Screaming Frog. Un filtre sur la colonne "Indexability", un tri sur "Title 1 Length", et c'est réglé en 10 minutes.
Là où ça devient intéressant, c'est quand il faut croiser ces données entre elles pour en tirer de vraies décisions.
- Est-ce que vos 320 pages /blog/ se cannibalisent parce que le template de title est mal configuré ?
- Est-ce que vos pages stratégiques (celles avec du vrai contenu, bien positionnées dans l'arborescence) reçoivent assez de liens internes ?
- Est-ce que la section /fiches/ gaspille du budget crawl avec 40% de pages non-indexables ?
C'est exactement ce type d'analyse croisée que Screaming Frog ne fait pas, et que Claude peut faire pour vous. En uploadant votre export CSV, Claude va segmenter votre site par répertoire, scorer l'importance stratégique de chaque page, détecter les patterns de cannibalisation, croiser la profondeur avec le maillage interne, et vous sortir un plan d'action priorisé par effort/impact.
Besoin d’intégrer les skills Claude et le Model Context Protocol (MCP) dans votre stack data et SEO ? Contactez moi pour en discuter : foucauld.henin@agence-30a.com
1. Ce que Claude fait que Screaming Frog ne fait pas
Avant de plonger dans le tutoriel, voici concrètement la différence entre ce que vous voyez dans Screaming Frog et ce que le Skill produit :
Ce que Screaming Frog vous montre | Ce que le Skill Claude produit |
"234 pages ont un title dupliqué" | "Le template /blog/ génère des titles quasi-identiques sur 180 pages. 1 correction de template = 180 pages fixées" |
"89 pages sont orphelines" | "62 orphelines sont dans /fiches/ avec > 500 mots de contenu : effort rédactionnel perdu. 27 sont du thin content à supprimer ou fusionner" |
"45 pages ont un crawl depth > 3" | "Ces 45 pages profondes reçoivent pourtant 12 inlinks en moyenne : elles sont bien linkées mais mal placées dans l'arborescence, il faut les remonter dans la navigation" |
"Title et H1 présents sur 98% des pages" | "Sur 74% du site, le H1 est identique au Title : c'est une opportunité sémantique manquée à l'échelle du site" |
Liste de 404 par URL | "La section /ancien-blog/ concentre 80% des 404 : c'est une migration incomplète, pas des erreurs dispersées" |
La valeur ajoutée tient en trois mots : croiser, segmenter, prioriser. Le Skill raisonne par section du site, distingue les problèmes de template (1 fix = N pages corrigées) des problèmes unitaires, et score chaque action par effort × impact.
2. Enjeux de réduire la consommation de token Claude
Un point technique important. Un export Screaming Frog peut contenir des dizaines de milliers de lignes et 30 à 80 colonnes. Si Claude essayait de lire ce fichier directement, il remplirait sa fenêtre de contexte avec des données brutes et il ne lui resterait plus assez de capacité pour raisonner.
Le Skill résout ce problème en demandant à Claude d'utiliser du code Python comme filtre intermédiaire :
- Vous uploadez votre CSV → le fichier est stocké dans l'environnement d'exécution de Claude (côté serveur Anthropic)
- Claude génère du code Python (pandas) qui lit le fichier et applique les analyses croisées → cette exécution se fait en dehors de la fenêtre de contexte, seul le résultat revient
- Le résultat des résumés chiffrés, des scorings par segment, des échantillons d'URLs, entre dans le contexte de Claude, qui peut alors raisonner dessus et produire des recommandations
On consomme quand même des tokens (le code généré et les résultats en sont), mais beaucoup moins que si le CSV brut était injecté directement. C'est la même logique qu'un GROUP BY en SQL plutôt que scanner toute la table ligne par ligne.
3. Tutoriel : mettre en place le Skill d'analyse de crawl
3.1 Prérequis
- Claude Pro, Team ou Enterprise (il faut l'accès aux Skills et à l'exécution de code)
- Screaming Frog installé (version payante préféré même si la version gratuite fonctionne aussi)
- Un crawl exporté en CSV (voir étape 1)
3.2 Etape 1: Exporter votre crawl depuis Screaming Frog
- Lancez un crawl de votre site dans Screaming Frog
- Une fois terminé, allez dans File > Export > Internal (ou Fichier > Exporter > Interne)
- Choisissez le format CSV
- Sauvegardez le fichier (par exemple :
crawl_monsite_2026-02-17.csv)
Point important : l'export "Internal All" contient toutes les colonnes nécessaires. Pas besoin de sélectionner des colonnes spécifiques, le Skill se chargera de filtrer.
3.3 Étape 2 : Ajouter le Skill dans Claude
- Ouvrez votre application Claude > Paramètres > Compétences
- Cliquez sur "Ajouter une compétence"
- Ajouter le skill suivant
3.4 Étape 3 : Utiliser le Skill
- Ouvrez une nouvelle conversation Claude
- Uploadez votre fichier CSV (glissez-déposez ou cliquez sur le trombone)
- Tapez votre prompt, par exemple :
Analyse ce crawl Screaming Frog et identifie les problèmes prioritaires.
Claude va automatiquement :
- Reconnaître le fichier comme un export Screaming Frog
- Exécuter le code Python pour lire et filtrer les données
- Produire un rapport structuré avec les anomalies priorisées
4. Ce que fait concrètement le Skill
Le Skill découpe l'analyse en 6 passes successives. Chaque passe exécute du code Python qui croise les données du crawl et ne renvoie que les insights.
4.1 Passe 0 : Reconnaissance & Segmentation
Claude commence par cartographier la structure du site. Il extrait les répertoires de premier et second niveau de chaque URL et calcule les métriques moyennes par segment : nombre de pages, profondeur moyenne, inlinks moyens, word count moyen.
Cette segmentation est la base de toutes les analyses suivantes. On ne raisonne plus page par page mais par section du site, ce qui permet de distinguer les problèmes de template des problèmes unitaires.
4.2 Passe 1 : Indexation croisée avec l'importance stratégique
C'est ici que le Skill se différencie d'un simple filtre Screaming Frog. Chaque page en code http 200 reçoit un score d'importance stratégique basé sur trois critères :
- sa profondeur dans l'arborescence,
- le nombre de liens internes qu'elle reçoit,
- et la richesse de son contenu (word count).
Les problèmes d'indexation sont ensuite croisés avec ce score. Une page non-indexable avec un score stratégique élevé (beaucoup d'inlinks, contenu riche) est probablement une erreur de configuration. Une page non-indexable sans inlinks et avec 50 mots, c'est peut-être intentionnel.
Le Skill détecte aussi les chaînes de redirection (URLs qui sont à la fois cible et source de redirection) et les taux d'erreur 4xx par segment pour identifier les migrations incomplètes ou les sections supprimées.
4.3 Passe 2 : Cannibalisation & Patterns de template
Deux analyses complémentaires ici.
- La cannibalisation sémantique : le Skill ne se contente pas de détecter les titles exactement identiques (ça, Screaming Frog le fait). Il identifie aussi les quasi-doublons : des pages dont les titles partagent les 40 premiers caractères.
- Les patterns de template par segment : le Skill analyse les suffixes/préfixes communs des titles dans chaque répertoire pour identifier les templates. Si 85% des pages /blog/ finissent par " - Mon Blog", c'est un template. Et si ce template génère des titles trop longs, une seule correction dans le CMS résout le problème sur toutes les pages du segment.
Le Skill vérifie aussi la cohérence H1 vs Title : si le H1 est identique au Title sur une majorité du site, c'est une opportunité sémantique manquée à grande échelle.
4.4 Passe 3 : Architecture & Distribution du linking
C'est la passe la plus riche en insights. Le Skill croise la profondeur de crawl et les liens internes pour créer une matrice de cohérence à 4 quadrants :
- Profond + bien linké : la page reçoit du jus mais est mal placée dans l'archi → la remonter dans la navigation
- Peu profond + peu linké : page structurelle accessible uniquement via le menu → renforcer le maillage contextuel
- Profond + peu linké : page véritablement abandonnée → supprimer ou fusionner
- Peu profond + bien linké : cohérent, rien à faire
Le Skill identifie ensuite les pages stratégiques sous-linkées : des pages avec un score d'importance élevé mais qui reçoivent moins de liens que la médiane du site. Ce sont vos meilleures opportunités de maillage interne.
Pour les pages orphelines, le Skill va plus loin que le simple comptage. Il distingue les orphelines avec du vrai contenu (500+ mots = effort rédactionnel perdu) de celles en thin content (candidates à la suppression). Et il analyse le taux d'orphelines par segment : un segment avec 30% d'orphelines a probablement un problème de template (pas de bloc de liens contextuels dans le gabarit de page), pas 150 oublis individuels.
4.5 Passe 4 : Budget crawl & Performance
Le Skill calcule un taux de gaspillage par segment : le ratio pages non-200 / total de pages. Un segment avec 40% de gaspillage consomme du budget crawl pour rien.
Il mesure aussi l'efficacité globale du crawl (% de pages indexables parmi les pages crawlées) et identifie les segments lents (temps de réponse moyen > 1 seconde, ce qui suggère un problème d'infrastructure plutôt qu'un problème page par page).
4.6 Passe 5 : Scoring final & Plan d'action
Chaque problème détecté devient une action scorée sur deux axes : l'impact (nombre de pages × importance stratégique) et l'effort (fix template = effort minimal, fix page par page = effort élevé).
4.6 Résultat : ce que vous obtenez
À la fin de l'analyse, Claude produit :
- Une carte du site scorée : chaque segment avec ses métriques clés (pages, taux d'indexabilité, inlinks moyens, profondeur, cannibalisation) et un indicateur de santé
- Un plan d'action Top 10 : les 10 corrections les plus rentables, scorées effort × impact, avec la distinction template vs unitaire
- Les analyses détaillées par thématique : cannibalisation, maillage, budget crawl, avec les URLs échantillons et les interprétations contextualisées
- Les quick wins templates : les 5 corrections de gabarit qui, en une seule modification, corrigent le plus de pages
Et si vous avez besoin d'un livrable client, vous pouvez demander à Claude de générer un fichier Excel avec un onglet par thématique.
FOUCAULD HENIN
Senior SEO consultant et fondateur de 30A
Je vous accompagne dans conception et la mise en place de vos chantiers SEO.
Après plusieurs expériences chez des retaillers, clients grand comptes et scale up, j’apporte une vision rationnelle et data driven dans les stratégies SEO.
Références : Oscaro, Total Energie, Intermarché, Oreegami
#bigquery #Looker #data analyse