Strumenti · supermatrice tool-stack · landscape 14 × 16

Quattordici strumenti, sedici dimensioni: leggibili lungo ogni asse.

Una riga per strumento, una colonna per attributo. Il primo gruppo di colonne descrive lo strumento (categoria, cosa misura, fonte dati, motori, stack obbligatorio o dipendente dal mandato). Il gruppo centrale di colonne è la matrice delle capability: nove capability come griglia di pallini, così che ciò che ciascuno strumento copre — e dove due strumenti si sovrappongono — sia visibile a colpo d’occhio. L’ultima colonna contiene la frase decisiva di demarcazione. La tabella scorre orizzontalmente; la colonna dello strumento resta fissa a sinistra.

Metodologia sector-invariant: i cluster da /01 a /07 misurano ciò che misurano, indipendentemente dal settore del mandato. Il cluster /08 dipendente dal mandato porta i doveri di applicazione settore-specifici, con ancoraggio empirico nel mandato telco 1&1 e note di trasferimento qualitativo per Servizi finanziari, Assicurazioni e Commercio.

Approfondimento sulla sotto-pagina Strumenti
Scala delle capability Funzione principale Funzione parziale / secondaria Non coperta Metodologicamente cieca
Colonna stack O Stack obbligatorio M Dipendente dal mandato
Scorrere orizzontalmente · 16 colonne ← → la colonna degli strumenti resta fissa
Strumento Categoria · layer Cosa misura e cosa fa Fonte dati Motori / copertura Stack Visi-
bilità
LLM
Indice
SERP
DE
AI
over-
views
Back-
link
Fact
check
Crawl
sito /
schema
Push
indice
Report-
ing
QA
manuale /
draft
Demarcazione: perché nessun altro strumento lo sostituisce
/01 Visibilità LLM · multi-motore
Peec AILLM visibility MonitoraggioRisposte LLM esterne Share of voice e fonti di citazione su set di query ampi e generati automaticamente. Serie temporali per motore, confronto competitivo, analisi dei domini fonte. Polling
API LLM
ChatGPT, Claude, Gemini, Perplexity, AI Overviews O Unico strumento che inserisce tutti e quattro i motori chat + AI Overviews in parallelo in un’unica dashboard. Risponde a «quanto è grande la mia quota nel discorso?», non a «colpisco questa specifica domanda?» (Rankscale).
RankscalePrompt-set tracking MonitoraggioPrompt set definiti Posizione e comparsa in prompt set definiti dall’utente. Drift detection per prompt, serie temporali per motore. Polling
API LLM
(controllato)
ChatGPT, Claude, Gemini, Perplexity O Centrato sul prompt set: definiamo noi i prompt; Peec AI li genera automaticamente. 1&1 li usa entrambi in parallelo: i due modelli di dati non sono convertibili l’uno nell’altro. Risponde a «colpisco questa domanda rilevante per la conversion?»
/02 SERP classica e AI Overviews · DE
Sistrix PlusDE SEO + AIO MonitoraggioIndice SERP DE Indice di visibilità DE sul dataset di keyword commerciale più profondo; comparsa AI Overviews per keyword come SERP feature. Crawl
SERP interno
Google DE (primario), mercati aggiuntivi secondari O L’unico strumento con la profondità di keyword nella SERP tedesca indispensabile per la DACH. Vede AI Overviews come SERP feature, Peec AI come componente di risposta LLM; stessa superficie, metodo di misurazione diverso, entrambi necessari.
/03 Accuratezza fattuale dei contenuti
Scrunch AIAccuracy layer QAFatti nelle risposte LLM Accuratezza fattuale delle risposte LLM rispetto al valore target. Segnala allucinazioni e affermazioni obsolete, come prezzi tariffari errati. Polling LLM
+ confronto
target / effettivo
ChatGPT, Claude, Gemini, Perplexity O L’unico layer che misura non la visibilità ma l’accuratezza fattuale dei contenuti. Obbligatorio per dettagli tariffari e di prodotto. Gli strumenti di visibilità conterebbero un’affermazione falsa come un successo.
/04 Sito tecnico e direttive crawler
Screaming FrogSEO crawler Diagnostica · QASito proprio Validità Schema.org, llms.txt, robots.txt, meta, canonical, indicizzabilità. Crawl end-to-end del sito proprio. Crawl
del sito interno
Qualsiasi dominio (vista audit tecnico) O L’unico strumento che ispeziona il sito proprio dall’interno. Tutti gli altri misurano l’effetto esterno; Screaming Frog ispeziona la precondizione, cioè ciò che i crawler riescono effettivamente a vedere.
/05 Reporting
Looker StudioDashboard layer ReportingAggregazione Non misura nulla in proprio. Aggrega dati da tutti gli strumenti via connettori in dashboard per stakeholder. URL live, report e-mail automatizzati. Connettori
(GSC, Sistrix,
Sheets, …)
Configurabile per mandato O Puro layer di visualizzazione, nessuna acquisizione dati. Non sostituisce gli strumenti sorgente, ma sostituisce i report di stato costruiti a mano e gli export PowerPoint.
/06 Distribuzione di indicizzazione
GSC + IndexNowIndex push Distribuzione · monitoraggioGoogle + Bing Stato di indicizzazione su Google e Bing; push istantaneo via IndexNow nell’indice Bing, si propaga a valle verso ChatGPT Search, Copilot, Perplexity. API Google +
Bing
Google, Bing, indirettamente ChatGPT Search, Copilot, Perplexity O L’unico strumento di distribuzione: cambia attivamente lo stato di indicizzazione invece di limitarsi a osservarlo. Si propaga a tre motori chat senza che questi offrano proprie API di submission.
/07 QA manuale e draft engine · uno per provider
Claude ProAnthropic Produzione · QAModelli Anthropic Sampling manuale di risposte in Claude per QA, stesura di bozze per brief, testi metodologici, strutture. Accesso
diretto UI
Claude (Sonnet / Opus correnti) O Sampling sul motore Anthropic. Rileva drift di tono, allucinazioni, pattern di citazione che il tracking aggregato non porta in superficie.
ChatGPT PlusOpenAI Produzione · QAModelli OpenAI QA manuale e draft engine analogo a Claude Pro, sui modelli OpenAI. Funzioni di browsing e memoria per ricerca live. Accesso
diretto UI
Famiglia GPT (incl. ChatGPT Search) O Necessario perché i modelli OpenAI hanno la finestra di distribuzione più ampia nella DACH; il sampling manuale qui ha la leva più alta.
Perplexity ProPerplexity Produzione · QAPerplexity QA manuale e draft engine. Le citazioni sono esposte nella UI, consentendo l’ispezione diretta del citation pattern. Accesso
diretto UI
Perplexity (Sonar e modelli di routing) O L’unica superficie chat che rende trasparente la logica delle citazioni. Strumento primario di ispezione per il citation-hook engineering (fase metodologica 03).
/08 Dipendente dal mandato · dove il mandato lo porta
Trasferimento a quattro settori Il cluster /08 è la leva settoriale dello stack. Telco porta l’ancoraggio empirico, ad esempio drift dei prezzi tariffari nel cluster /03 e tracking parallelo nel mandato 1&1. Servizi finanziari richiede il cluster /03 per il fact-checking di condizioni e rendimenti e il cluster /05 per la catena di reporting conforme a BaFin (Autorità federale tedesca di vigilanza finanziaria). Assicurazioni affina il cluster /03 sulle condizioni di polizza e il cluster /07 sulla documentazione consulenziale conforme al VVG (Codice tedesco delle assicurazioni). Commercio orienta il cluster /04 sulla validità Schema.org dei prodotti e il cluster /06 sulla distribuzione di indicizzazione per il ritmo stagionale. Stessi strumenti, doveri settoriali diversi: qui non vengono introdotti strumenti settoriali inventati.
AhrefsBacklinks + intl. Monitoraggio · diagnosticaGlobale Profili backlink, referring domain, anchor text, visibilità SEO internazionale, visibilità AI Overviews a livello internazionale. Crawl web
interno
Globale, tutte le principali SERP M L’unico layer backlink. Sistrix copre la visibilità keyword DE, non la profondità backlink. Si aggiunge appena il mandato porta hub-and-spoke o scala oltre la DACH.
Surfer SEOor comparable DiagnosticaPer brief Topical authority ed entity coverage di un pezzo pianificato rispetto ai top result SERP. Revisione del brief prima della produzione. Analisi NLP
dei top SERP
Per brief / set di keyword M L’unico layer pre-produzione: morde prima della pubblicazione. Sostituibile con briefing interno in team editoriali ben condotti con una propria topic map.
ProfoundEnterprise GEO MonitoraggioMultilingue UE Visibilità LLM su più mercati e lingue. Reporting enterprise, separazione di ruolo / tenant. Funzionalmente paragonabile a Peec AI, progettato per scala multi-country. Polling
API LLM
(enterprise)
ChatGPT, Claude, Gemini, Perplexity, multilingue UE M Sostituto di Peec AI nel rollout UE, non aggiuntivo. Stessa funzione, classe di scaling diversa. Si sceglie quando il tracking gira in parallelo su più di tre lingue / mercati.
Brandwatch / TalkwalkerSocial listening MonitoraggioSocial + forum Menzioni di brand, sentiment, momentum dei topic su social, news, forum. Serie temporali di volume, demografia, alert di crisi. API social +
crawl web
Twitter/X, Reddit (limitato), news, forum, blog M Copre il layer del discorso che il tracking LLM non vede: fonti da cui le risposte LLM successivamente attingono materiale. Si aggiunge solo quando il mandato porta metodologicamente leve social / PR.
02 · Meta · sovrapposizioni e lacune

Dove gli strumenti si sovrappongono deliberatamente?

Ridondanza che non risolviamo, perché i modelli di dati non sono convertibili l’uno nell’altro.

  • Peec AI ⇄ RankscaleSoV automatico ampio vs. posizione in prompt set definiti. Ognuno risponde a una domanda diversa. 1&1 li usa entrambi in parallelo.
  • Sistrix ⇄ Peec AI
    (AI Overviews)
    AI Overviews come SERP feature (Sistrix) vs. come componente di risposta LLM (Peec AI). La doppia misurazione rivela se un AIO porta come SERP o come risposta.
  • Tracking ⇄ QA manualePeec AI / Rankscale forniscono le serie temporali; Claude Pro / ChatGPT Plus / Perplexity Pro forniscono il sample. L’aggregato non vede il drift di tono.
  • Screaming Frog ⇄ GSCVista pre-crawl (Frog) vs. vista post-crawl (GSC). Un sito può essere tecnicamente pulito e comunque non indicizzato; entrambi restano.

Dove restano lacune reali?

Ciò che lo stack non copre in modo affidabile, e come viene compensato.

  • Reddit / communityNessuno strumento misura in modo affidabile il discorso Reddit che emerge come fonte nelle risposte ChatGPT. GummySearch dismesso il 30 novembre 2025. Compensazione: ricerca manuale per mandato nella fase di briefing.
  • Long tail
    conversazionale
    Gli strumenti basati su search sono ciechi alle query conversazionali. Compensato tramite prompt set curati a mano in Rankscale + sample nei tre motori chat.
  • Superfici vocaliAlexa, Siri, Google Assistant, in-car: non catturati da alcuno strumento. Risposta metodologica: dichiarare apertamente piuttosto che compensare. Volume nel 2026 marginale.
  • Attribuzione
    delle citazioni
    Nessuno degli strumenti risponde in modo affidabile al perché un LLM scelga una particolare fonte. Si chiude per via metodologica (fase 03: citation hook, front-loading secondo Indig / Aggarwal), non tramite output dei tool.