Outils · Tool-Stack-Supermatrix · format paysage 14 × 16

Quatorze outils, seize dimensions : lisible le long de chaque axe.

Une ligne par outil, une colonne par propriété. Le premier groupe de colonnes décrit l'outil (catégorie, grandeur mesurée, source de données, moteurs, stack obligatoire ou stack de mandat). Le groupe de colonnes du milieu est la matrice de capabilités : neuf capacités en dot-grid, pour rendre visible d'un coup d'œil quel outil couvre quoi et où deux outils se chevauchent. La dernière colonne fixe la phrase clé de différenciation. Le tableau défile horizontalement, la colonne d'outils reste fixe à gauche.

Méthodologie invariante par secteur : les clusters /01 à /07 mesurent ce qu'ils mesurent, indépendamment du secteur du mandat. Le cluster /08 dépendant du mandat porte les obligations d'application spécifiques au secteur, avec un ancrage empirique dans le mandat Telco 1&1 et des indications qualitatives de transposition pour Finance, Assurance et Commerce.

Approfondissement sur la sous-page Outils
Échelle de capabilités Fonction principale Fonction partielle/secondaire Non couvert Aveugle méthodologiquement
Colonne d'obligation O Stack obligatoire M Dépendant du mandat
Défilement horizontal · 16 colonnes ← → la colonne Outil reste fixe
Outil Catégorie · couche Ce qu'il mesure et peut faire Source de données Moteurs / couverture Stack Visibi-
lité
LLM
Indice
SERP
DE
AI Over-
views
Back-
links
Fact-
check
Crawl
de site /
schéma
Index-
Push
Repor-
ting
QA
manuelle /
brouillon
Différenciation : pourquoi non remplaçable par un autre outil
/01 Visibilité LLM · multi-moteurs
Peec AIVisibilité LLM MonitoringRéponses LLM externes Part de voix et sources de citation sur des sets de requêtes larges générés automatiquement. Séries temporelles par moteur, comparaison concurrentielle, analyse des domaines sources. Polling
API LLM
ChatGPT, Claude, Gemini, Perplexity, AI Overviews O Seul outil qui rassemble les quatre moteurs de chat + AI Overviews en parallèle dans un tableau de bord. Répond à « quelle est ma part dans le discours ? », non à « est-ce que je réponds à cette question spécifique ? » (Rankscale).
RankscaleSuivi de sets de prompts MonitoringSets de prompts définis Position et apparition dans des sets de prompts définis par l'utilisateur. Détection de dérive par prompt, série temporelle par moteur. Polling
API LLM
(contrôlé)
ChatGPT, Claude, Gemini, Perplexity O Centré sur les sets de prompts : nous définissons les prompts, Peec AI les génère automatiquement. 1&1 utilise les deux en parallèle : les deux modèles de données ne sont pas convertibles entre eux. Répond à « est-ce que je réponds à cette question pertinente pour la conversion ? »
/02 SERP classique & AI Overviews · DE
Sistrix PlusSEO DE + AIO MonitoringIndice SERP DE Indice de visibilité DE sur le jeu de mots-clés commercial le plus profond disponible ; apparition d'AI Overview par mot-clé en tant que fonctionnalité SERP. Crawl
SERP propre
Google DE (primaire), autres marchés secondaires O Seul outil avec la profondeur de mots-clés indispensable dans la SERP allemande pour DACH. Voit AI Overviews comme fonctionnalité SERP, Peec AI comme composant de réponse LLM ; même surface, méthode de mesure différente, les deux nécessaires.
/03 Exactitude factuelle
Scrunch AICouche d'exactitude QAFaits dans les réponses LLM Exactitude factuelle des réponses LLM contre une valeur de référence. Signale les hallucinations et les énoncés obsolètes, par exemple des prix tarifaires erronés. Polling LLM
+ comparaison
cible/réel
ChatGPT, Claude, Gemini, Perplexity O Seule couche qui mesure non pas la visibilité, mais l'exactitude factuelle. Obligatoire pour les détails tarifaires et produits. Les outils de visibilité considéreraient un énoncé faux comme un succès.
/04 Technique & directives de crawl
Screaming FrogCrawler SEO Diagnostic · QASite propre Validité Schema.org, llms.txt, robots.txt, balises meta, canonicals, indexabilité. Crawl end-to-end du site propre. Crawl
de site propre
Domaine quelconque (vue audit technique) O Seul outil qui examine son propre site de l'intérieur. Tous les autres mesurent l'effet externe ; Screaming Frog vérifie le préalable, c'est-à-dire ce que les crawlers parviennent à voir.
/05 Reporting
Looker StudioCouche tableau de bord ReportingAgrégation Ne mesure rien par lui-même. Agrège les données de tous les outils via connecteurs vers des tableaux de bord pour parties prenantes. URLs en direct, rapports e-mail automatisés. Connecteurs
(GSC, Sistrix,
Sheets, ...)
Configurable par mandat O Pure couche de visualisation, sans sourcing de données. Ne remplace pas les outils sources, mais remplace les rapports de statut manuels et les exports PowerPoint.
/06 Distribution d'index
GSC + IndexNowIndex-Push Distribution · monitoringGoogle + Bing Statut d'indexation chez Google & Bing ; push immédiat via IndexNow dans l'index Bing, avec effet en aval sur ChatGPT-Search, Copilot, Perplexity. APIs Google +
Bing
Google, Bing, indirectement ChatGPT-Search, Copilot, Perplexity O Seul outil de distribution : modifie activement le statut d'indexation au lieu de seulement l'observer. A un effet sur trois moteurs de chat sans que ceux-ci proposent leurs propres APIs de soumission.
/07 QA manuelle & moteurs de brouillon · un par fournisseur
Claude ProAnthropic Production · QAModèles Anthropic Échantillons manuels de réponses dans Claude pour la QA, création de brouillons pour lettres, textes méthodologiques, structures. Accès
direct UI
Claude (Sonnet/Opus actuel) O Échantillonnage contre le moteur Anthropic. Capte les dérives de tonalité, les hallucinations, les motifs de citation, que le tracking agrégé ne montre pas.
ChatGPT PlusOpenAI Production · QAModèles OpenAI QA manuelle et moteur de brouillon analogue à Claude Pro, contre les modèles OpenAI. Fonctions de navigation et de mémoire pour la recherche en direct. Accès
direct UI
Famille GPT (incl. ChatGPT-Search) O Nécessaire parce que les modèles OpenAI ont la plus grande fenêtre de distribution en DACH ; l'échantillonnage manuel y a le plus grand effet de levier.
Perplexity ProPerplexity Production · QAPerplexity QA manuelle et moteur de brouillon. Les citations sont exposées dans l'UI, inspection directe du motif de citation possible. Accès
direct UI
Perplexity (modèles Sonar & routing) O Seule interface de chat qui rend la logique de citation transparente. Outil d'inspection principal pour l'ingénierie de Citation-Hook (méthode phase 03).
/08 Dépendant du mandat · là où le mandat le porte
Transposition aux quatre secteurs Le cluster /08 est le levier sectoriel du stack. Telco porte l'ancrage empirique, par exemple la dérive des prix tarifaires dans le cluster /03 et le tracking parallèle dans le mandat 1&1. Finance exige le cluster /03 pour le fact-check des conditions et rendements plus le cluster /05 pour une chaîne de reporting conforme à la BaFin. Assurance recentre le cluster /03 sur les conditions de police et le cluster /07 sur la documentation de conseil conforme au VVG. Commerce oriente le cluster /04 sur la validité des produits Schema.org et le cluster /06 sur la distribution d'index pour la cadence saisonnière. Mêmes outils, obligations sectorielles différentes : aucun outil sectoriel inventé n'est introduit ici.
AhrefsBacklinks + intl. Monitoring · diagnosticGlobal Profils de backlinks, domaines référents, textes d'ancre, visibilité SEO internationale, visibilité AI-Overview internationale. Crawl
web propre
Global, tous les grands SERPs M Seule couche de backlinks. Sistrix couvre la visibilité des mots-clés DE, pas la profondeur des backlinks. S'ajoute dès que le mandat porte un hub-and-spoke ou se met à l'échelle au-delà de DACH.
Surfer SEOou comparable DiagnosticPar brief Autorité thématique et couverture d'entités d'un contenu planifié contre les meilleurs résultats SERP. Vérification du brief avant production. Analyse NLP
SERP-Top
Par brief / set de mots-clés M Seule couche en préproduction : agit avant publication. Remplaçable par un briefing interne pour des rédactions clairement dirigées disposant de leur propre carte thématique.
ProfoundGEO Enterprise MonitoringMultilingue UE Visibilité LLM sur plusieurs marchés et langues. Reporting Enterprise, séparation des rôles/locataires. Fonctionnellement comparable à Peec AI, conçu pour la mise à l'échelle multi-pays. Polling
API LLM
(Enterprise)
ChatGPT, Claude, Gemini, Perplexity, multilingue UE M Remplacement de Peec AI pour un déploiement à l'échelle UE, non en complément. Même fonction, classe de mise à l'échelle différente. Choisi lorsque le tracking parallèle couvre plus de trois langues / marchés.
Brandwatch / TalkwalkerÉcoute sociale MonitoringSocial + forum Mentions de marque, sentiment, conjoncture thématique sur les réseaux sociaux, news, forums. Séries temporelles de volume, démographie, alertes de crise. API sociale +
crawl web
Twitter/X, Reddit (limité), news, forums, blogs M Couvre le niveau du discours que le tracking LLM ne voit pas : les sources dont les réponses LLM tirent plus tard de la matière. S'ajoute uniquement si le mandat porte méthodologiquement un levier social/PR.
02 · Méta · chevauchements et lacunes

Où les outils se chevauchent-ils volontairement ?

Redondance que nous ne résolvons pas, parce que les modèles de données ne sont pas convertibles entre eux.

  • Peec AI ⇄ RankscalePart de voix large et automatique vs. position dans des sets de prompts définis. Réponses à des questions différentes. 1&1 utilise les deux en parallèle.
  • Sistrix ⇄ Peec AI
    (AI Overviews)
    AI Overviews comme fonctionnalité SERP (Sistrix) vs. comme composant de réponse LLM (Peec AI). La double mesure montre si un AIO porte en tant que SERP ou en tant que réponse.
  • Tracking ⇄ QA manuellePeec AI / Rankscale fournissent la série temporelle ; Claude Pro / ChatGPT Plus / Perplexity Pro fournissent l'échantillon. L'agrégat ne voit pas la dérive de tonalité.
  • Screaming Frog ⇄ GSCVue pré-crawl (Frog) vs. vue post-crawl (GSC). Un site peut être techniquement propre et ne pas être indexé pour autant, les deux restent nécessaires.

Où subsistent de véritables lacunes ?

Ce que le stack ne couvre pas de manière fiable, et comment cela est compensé.

  • Reddit / communautéAucun outil ne mesure de manière fiable les discussions Reddit qui apparaissent comme source dans les réponses ChatGPT. GummySearch fermé le 30.11.2025. Compensation : recherche manuelle par mandat lors de la phase de briefing.
  • Long-tail
    conversationnel
    Les outils basés sur la recherche sont aveugles aux requêtes conversationnelles. Compensé par des sets de prompts curés manuellement dans Rankscale + échantillons dans les trois moteurs de chat.
  • Surfaces vocalesAlexa, Siri, Google Assistant, in-Car : capturés par aucun outil. Réponse méthodologique : nommer ouvertement plutôt que compenser. Volume 2026 marginal.
  • Attribution de
    citation
    Aucun outil ne répond de manière fiable à la question pourquoi un LLM choisit une source donnée. Fermé par la méthode (phase 03 : Citation-Hooks, front-loading selon Indig/Aggarwal), non par la sortie d'outil.