Quattordici strumenti, sedici dimensioni: leggibili lungo ogni asse.
Una riga per strumento, una colonna per attributo. Il primo gruppo di colonne descrive lo strumento (categoria, cosa misura, fonte dati, motori, stack obbligatorio o dipendente dal mandato). Il gruppo centrale di colonne è la matrice delle capability: nove capability come griglia di pallini, così che ciò che ciascuno strumento copre — e dove due strumenti si sovrappongono — sia visibile a colpo d’occhio. L’ultima colonna contiene la frase decisiva di demarcazione. La tabella scorre orizzontalmente; la colonna dello strumento resta fissa a sinistra.
Metodologia sector-invariant: i cluster da /01 a /07 misurano ciò che misurano, indipendentemente dal settore del mandato. Il cluster /08 dipendente dal mandato porta i doveri di applicazione settore-specifici, con ancoraggio empirico nel mandato telco 1&1 e note di trasferimento qualitativo per Servizi finanziari, Assicurazioni e Commercio.
Approfondimento sulla sotto-pagina Strumenti| Strumento | Categoria · layer | Cosa misura e cosa fa | Fonte dati | Motori / copertura | Stack | Visi- bilità LLM |
Indice SERP DE |
AI over- views |
Back- link |
Fact check |
Crawl sito / schema |
Push indice |
Report- ing |
QA manuale / draft |
Demarcazione: perché nessun altro strumento lo sostituisce |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| /01 Visibilità LLM · multi-motore | |||||||||||||||
| Peec AILLM visibility | MonitoraggioRisposte LLM esterne | Share of voice e fonti di citazione su set di query ampi e generati automaticamente. Serie temporali per motore, confronto competitivo, analisi dei domini fonte. | Polling API LLM |
ChatGPT, Claude, Gemini, Perplexity, AI Overviews | O | Unico strumento che inserisce tutti e quattro i motori chat + AI Overviews in parallelo in un’unica dashboard. Risponde a «quanto è grande la mia quota nel discorso?», non a «colpisco questa specifica domanda?» (Rankscale). | |||||||||
| RankscalePrompt-set tracking | MonitoraggioPrompt set definiti | Posizione e comparsa in prompt set definiti dall’utente. Drift detection per prompt, serie temporali per motore. | Polling API LLM (controllato) |
ChatGPT, Claude, Gemini, Perplexity | O | Centrato sul prompt set: definiamo noi i prompt; Peec AI li genera automaticamente. 1&1 li usa entrambi in parallelo: i due modelli di dati non sono convertibili l’uno nell’altro. Risponde a «colpisco questa domanda rilevante per la conversion?» | |||||||||
| /02 SERP classica e AI Overviews · DE | |||||||||||||||
| Sistrix PlusDE SEO + AIO | MonitoraggioIndice SERP DE | Indice di visibilità DE sul dataset di keyword commerciale più profondo; comparsa AI Overviews per keyword come SERP feature. | Crawl SERP interno |
Google DE (primario), mercati aggiuntivi secondari | O | L’unico strumento con la profondità di keyword nella SERP tedesca indispensabile per la DACH. Vede AI Overviews come SERP feature, Peec AI come componente di risposta LLM; stessa superficie, metodo di misurazione diverso, entrambi necessari. | |||||||||
| /03 Accuratezza fattuale dei contenuti | |||||||||||||||
| Scrunch AIAccuracy layer | QAFatti nelle risposte LLM | Accuratezza fattuale delle risposte LLM rispetto al valore target. Segnala allucinazioni e affermazioni obsolete, come prezzi tariffari errati. | Polling LLM + confronto target / effettivo |
ChatGPT, Claude, Gemini, Perplexity | O | L’unico layer che misura non la visibilità ma l’accuratezza fattuale dei contenuti. Obbligatorio per dettagli tariffari e di prodotto. Gli strumenti di visibilità conterebbero un’affermazione falsa come un successo. | |||||||||
| /04 Sito tecnico e direttive crawler | |||||||||||||||
| Screaming FrogSEO crawler | Diagnostica · QASito proprio | Validità Schema.org, llms.txt, robots.txt, meta, canonical, indicizzabilità. Crawl end-to-end del sito proprio. | Crawl del sito interno |
Qualsiasi dominio (vista audit tecnico) | O | L’unico strumento che ispeziona il sito proprio dall’interno. Tutti gli altri misurano l’effetto esterno; Screaming Frog ispeziona la precondizione, cioè ciò che i crawler riescono effettivamente a vedere. | |||||||||
| /05 Reporting | |||||||||||||||
| Looker StudioDashboard layer | ReportingAggregazione | Non misura nulla in proprio. Aggrega dati da tutti gli strumenti via connettori in dashboard per stakeholder. URL live, report e-mail automatizzati. | Connettori (GSC, Sistrix, Sheets, …) |
Configurabile per mandato | O | Puro layer di visualizzazione, nessuna acquisizione dati. Non sostituisce gli strumenti sorgente, ma sostituisce i report di stato costruiti a mano e gli export PowerPoint. | |||||||||
| /06 Distribuzione di indicizzazione | |||||||||||||||
| GSC + IndexNowIndex push | Distribuzione · monitoraggioGoogle + Bing | Stato di indicizzazione su Google e Bing; push istantaneo via IndexNow nell’indice Bing, si propaga a valle verso ChatGPT Search, Copilot, Perplexity. | API Google + Bing |
Google, Bing, indirettamente ChatGPT Search, Copilot, Perplexity | O | L’unico strumento di distribuzione: cambia attivamente lo stato di indicizzazione invece di limitarsi a osservarlo. Si propaga a tre motori chat senza che questi offrano proprie API di submission. | |||||||||
| /07 QA manuale e draft engine · uno per provider | |||||||||||||||
| Claude ProAnthropic | Produzione · QAModelli Anthropic | Sampling manuale di risposte in Claude per QA, stesura di bozze per brief, testi metodologici, strutture. | Accesso diretto UI |
Claude (Sonnet / Opus correnti) | O | Sampling sul motore Anthropic. Rileva drift di tono, allucinazioni, pattern di citazione che il tracking aggregato non porta in superficie. | |||||||||
| ChatGPT PlusOpenAI | Produzione · QAModelli OpenAI | QA manuale e draft engine analogo a Claude Pro, sui modelli OpenAI. Funzioni di browsing e memoria per ricerca live. | Accesso diretto UI |
Famiglia GPT (incl. ChatGPT Search) | O | Necessario perché i modelli OpenAI hanno la finestra di distribuzione più ampia nella DACH; il sampling manuale qui ha la leva più alta. | |||||||||
| Perplexity ProPerplexity | Produzione · QAPerplexity | QA manuale e draft engine. Le citazioni sono esposte nella UI, consentendo l’ispezione diretta del citation pattern. | Accesso diretto UI |
Perplexity (Sonar e modelli di routing) | O | L’unica superficie chat che rende trasparente la logica delle citazioni. Strumento primario di ispezione per il citation-hook engineering (fase metodologica 03). | |||||||||
| /08 Dipendente dal mandato · dove il mandato lo porta | |||||||||||||||
| Trasferimento a quattro settori Il cluster /08 è la leva settoriale dello stack. Telco porta l’ancoraggio empirico, ad esempio drift dei prezzi tariffari nel cluster /03 e tracking parallelo nel mandato 1&1. Servizi finanziari richiede il cluster /03 per il fact-checking di condizioni e rendimenti e il cluster /05 per la catena di reporting conforme a BaFin (Autorità federale tedesca di vigilanza finanziaria). Assicurazioni affina il cluster /03 sulle condizioni di polizza e il cluster /07 sulla documentazione consulenziale conforme al VVG (Codice tedesco delle assicurazioni). Commercio orienta il cluster /04 sulla validità Schema.org dei prodotti e il cluster /06 sulla distribuzione di indicizzazione per il ritmo stagionale. Stessi strumenti, doveri settoriali diversi: qui non vengono introdotti strumenti settoriali inventati. | |||||||||||||||
| AhrefsBacklinks + intl. | Monitoraggio · diagnosticaGlobale | Profili backlink, referring domain, anchor text, visibilità SEO internazionale, visibilità AI Overviews a livello internazionale. | Crawl web interno |
Globale, tutte le principali SERP | M | L’unico layer backlink. Sistrix copre la visibilità keyword DE, non la profondità backlink. Si aggiunge appena il mandato porta hub-and-spoke o scala oltre la DACH. | |||||||||
| Surfer SEOor comparable | DiagnosticaPer brief | Topical authority ed entity coverage di un pezzo pianificato rispetto ai top result SERP. Revisione del brief prima della produzione. | Analisi NLP dei top SERP |
Per brief / set di keyword | M | L’unico layer pre-produzione: morde prima della pubblicazione. Sostituibile con briefing interno in team editoriali ben condotti con una propria topic map. | |||||||||
| ProfoundEnterprise GEO | MonitoraggioMultilingue UE | Visibilità LLM su più mercati e lingue. Reporting enterprise, separazione di ruolo / tenant. Funzionalmente paragonabile a Peec AI, progettato per scala multi-country. | Polling API LLM (enterprise) |
ChatGPT, Claude, Gemini, Perplexity, multilingue UE | M | Sostituto di Peec AI nel rollout UE, non aggiuntivo. Stessa funzione, classe di scaling diversa. Si sceglie quando il tracking gira in parallelo su più di tre lingue / mercati. | |||||||||
| Brandwatch / TalkwalkerSocial listening | MonitoraggioSocial + forum | Menzioni di brand, sentiment, momentum dei topic su social, news, forum. Serie temporali di volume, demografia, alert di crisi. | API social + crawl web |
Twitter/X, Reddit (limitato), news, forum, blog | M | Copre il layer del discorso che il tracking LLM non vede: fonti da cui le risposte LLM successivamente attingono materiale. Si aggiunge solo quando il mandato porta metodologicamente leve social / PR. | |||||||||