Vierzehn Tools, sechzehn Dimensionen: scannbar entlang jeder Achse.
Eine Zeile pro Tool, eine Spalte pro Eigenschaft. Erste Spaltengruppe beschreibt das Tool (Kategorie, gemessene Größe, Datenquelle, Engines, Pflicht- oder Mandats-Stack). Mittlere Spaltengruppe ist die Capability-Matrix: neun Fähigkeiten als Dot-Grid, damit auf einen Blick sichtbar wird, welches Tool was abdeckt und wo zwei Tools sich überschneiden. Letzte Spalte hält den entscheidenden Abgrenzungssatz fest. Die Tabelle scrollt horizontal, die Tool-Spalte bleibt links sticky.
Methodik sektor-invariant: die Cluster /01 bis /07 messen, was sie messen, unabhängig vom Mandats-Sektor. Cluster /08 Mandatsabhängig trägt die sektor-spezifischen Anwendungs-Pflichten, mit empirischem Anker im Telco-Mandat 1&1 und qualitativen Übertragungs-Hinweisen für Finance, Insurance und Commerce.
Vertiefung zur Werkzeuge-Sub-Seite| Tool | Kategorie · Schicht | Was es misst & kann | Datenquelle | Engines / Abdeckung | Stack | LLM- Sicht- barkeit |
DE- SERP- Index |
AI Over- views |
Back- links |
Fakten- check |
Site- Crawl / Schema |
Index- Push |
Repor- ting |
Manuelle QA / Draft |
Abgrenzung: warum nicht durch ein anderes Tool ersetzbar |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| /01 LLM-Sichtbarkeit · Multi-Engine | |||||||||||||||
| Peec AILLM-Visibility | MonitoringExterne LLM-Antworten | Share of Voice und Zitatquellen über breite, automatisch generierte Query-Sets. Zeitreihen pro Engine, Wettbewerbs-Vergleich, Quellen-Domain-Analyse. | LLM-API- Polling |
ChatGPT, Claude, Gemini, Perplexity, AI Overviews | P | Einziges Tool, das alle vier Chat-Engines + AI Overviews parallel in einem Dashboard fasst. Beantwortet „wie groß ist mein Anteil am Diskurs?“, nicht „treffe ich diese spezifische Frage?“ (Rankscale). | |||||||||
| RankscalePrompt-Set-Tracking | MonitoringDefinierte Prompt-Sets | Position und Erscheinen in vom Anwender definierten Prompt-Sets. Drift-Erkennung pro Prompt, Zeitreihe pro Engine. | LLM-API- Polling (kontrolliert) |
ChatGPT, Claude, Gemini, Perplexity | P | Prompt-set-zentrisch: wir definieren die Prompts, Peec AI generiert sie automatisch. 1&1 fährt beide parallel: die beiden Datenmodelle sind nicht ineinander überführbar. Beantwortet „treffe ich diese Conversion-relevante Frage?“ | |||||||||
| /02 Klassische SERP & AI Overviews · DE | |||||||||||||||
| Sistrix PlusDE-SEO + AIO | MonitoringDE-SERP-Index | DE-Sichtbarkeitsindex auf dem tiefsten kommerziell verfügbaren Keyword-Datensatz; AI-Overview-Erscheinen pro Keyword als SERP-Feature. | Eigener SERP-Crawl |
Google DE (primär), weitere Märkte sekundär | P | Einziges Tool mit der für DACH unverzichtbaren Keyword-Tiefe in der deutschen SERP. Sieht AI Overviews als SERP-Feature, Peec AI als LLM-Antwort-Bestandteil; gleiche Oberfläche, unterschiedliche Messmethode, beide nötig. | |||||||||
| /03 Inhaltliche Richtigkeit | |||||||||||||||
| Scrunch AIAccuracy-Layer | QAFakten in LLM-Antworten | Faktenrichtigkeit von LLM-Antworten gegen Soll-Wert. Flaggt Halluzinationen und veraltete Aussagen, etwa falsche Tarifpreise. | LLM-Polling + Soll/Ist- Vergleich |
ChatGPT, Claude, Gemini, Perplexity | P | Einziger Layer, der nicht Sichtbarkeit, sondern inhaltliche Richtigkeit misst. Pflicht bei Tarif- und Produktdetails. Sichtbarkeits-Tools würden eine falsche Aussage als Erfolg werten. | |||||||||
| /04 Technik & Crawler-Direktiven | |||||||||||||||
| Screaming FrogSEO-Crawler | Diagnose · QAEigene Site | Schema.org-Validität, llms.txt, robots.txt, Meta, Canonicals, Indexierbarkeit. End-to-End-Crawl der eigenen Site. | Eigener Site-Crawl |
Beliebige Domain (technische Audit-Sicht) | P | Einziges Tool, das die eigene Site von innen prüft. Alle anderen messen externe Wirkung; Screaming Frog prüft die Voraussetzung, also was Crawler überhaupt zu sehen bekommen. | |||||||||
| /05 Reporting | |||||||||||||||
| Looker StudioDashboard-Layer | ReportingAggregation | Misst nichts selbst. Aggregiert Daten aller Tools über Connectoren zu Stakeholder-Dashboards. Live-URLs, automatisierte E-Mail-Reports. | Connectoren (GSC, Sistrix, Sheets, ...) |
Pro Mandat konfigurierbar | P | Reine Visualisierungs-Schicht, kein Daten-Sourcing. Ersetzt nicht die Quell-Tools, ersetzt aber händische Status-Reports und PowerPoint-Exporte. | |||||||||
| /06 Index-Distribution | |||||||||||||||
| GSC + IndexNowIndex-Push | Distribution · MonitoringGoogle + Bing | Indexierungsstatus bei Google & Bing; Sofort-Push via IndexNow in den Bing-Index, wirkt nachgelagert auf ChatGPT-Search, Copilot, Perplexity. | Google + Bing APIs |
Google, Bing, mittelbar ChatGPT-Search, Copilot, Perplexity | P | Einziges Distributions-Tool: verändert Indexierungsstatus aktiv, statt ihn nur zu beobachten. Wirkt auf drei Chat-Engines durch, ohne dass diese eigene Submission-APIs anbieten. | |||||||||
| /07 Manuelle QA & Draft-Engines · eine pro Anbieter | |||||||||||||||
| Claude ProAnthropic | Produktion · QAAnthropic-Modelle | Manuelle Antwort-Stichproben in Claude für QA, Draft-Erstellung für Briefe, Methodentexte, Strukturen. | Direkter UI-Zugriff |
Claude (Sonnet/Opus aktuell) | P | Stichprobe gegen die Anthropic-Engine. Fängt Tonalitäts-Drift, Halluzinationen, Citation-Pattern, die Aggregat-Tracking nicht zeigt. | |||||||||
| ChatGPT PlusOpenAI | Produktion · QAOpenAI-Modelle | Manuelle QA und Draft-Engine analog Claude Pro, gegen OpenAI-Modelle. Browsing- und Memory-Funktionen für Live-Recherche. | Direkter UI-Zugriff |
GPT-Familie (inkl. ChatGPT-Search) | P | Notwendig, weil OpenAI-Modelle in DACH das größte Distributionsfenster haben; manuelle Stichprobe hier hat höchste Hebelwirkung. | |||||||||
| Perplexity ProPerplexity | Produktion · QAPerplexity | Manuelle QA und Draft-Engine. Citations werden im UI offengelegt, direkte Inspektion des Citation-Patterns möglich. | Direkter UI-Zugriff |
Perplexity (Sonar & Routing-Modelle) | P | Einzige Chat-Oberfläche, die Citation-Logik transparent macht. Für Citation-Hook-Engineering (Methode Phase 03) das primäre Inspektionswerkzeug. | |||||||||
| /08 Mandatsabhängig · wo das Mandat es trägt | |||||||||||||||
| Vier-Sektor-Übertragung Cluster /08 ist der Sektor-Hebel des Stacks. Telco trägt den empirischen Anker, etwa Tarifpreis-Drift in Cluster /03 und parallel-Tracking im Mandat 1&1. Finance verlangt Cluster /03 für Konditions- und Renditen-Faktencheck plus Cluster /05 für BaFin-konforme Reporting-Kette. Insurance spitzt Cluster /03 auf Police-Bedingungen und Cluster /07 auf VVG-konforme Beratungs-Dokumentation zu. Commerce dreht Cluster /04 auf Schema.org-Produkt-Validität und Cluster /06 auf Index-Distribution für Saison-Tempo. Gleiche Tools, andere Sektor-Pflichten: erfundene Sektor-Tools werden hier nicht eingeführt. | |||||||||||||||
| AhrefsBacklinks + Intl. | Monitoring · DiagnoseGlobal | Backlink-Profile, Referring Domains, Anchor-Texte, internationale SEO-Sichtbarkeit, AI-Overview-Sichtbarkeit international. | Eigener Web-Crawl |
Global, alle großen SERPs | M | Einziger Backlink-Layer. Sistrix deckt DE-Keyword-Sichtbarkeit, nicht Backlink-Tiefe. Kommt hinzu, sobald das Mandat Hub-and-Spoke trägt oder über DACH skaliert. | |||||||||
| Surfer SEOo. vergleichbar | DiagnosePro Brief | Topical Authority und Entity-Coverage eines geplanten Inhalts gegen die SERP-Top-Resultate. Brief-Prüfung vor Produktion. | NLP-Auswertung SERP-Top |
Pro Brief / Keyword-Set | M | Einziger Pre-Production-Layer: greift vor Veröffentlichung. Bei klar geführten Redaktionen mit eigener Topic-Map ersetzbar durch internes Briefing. | |||||||||
| ProfoundEnterprise-GEO | MonitoringEU-mehrsprachig | LLM-Sichtbarkeit über mehrere Märkte und Sprachen. Enterprise-Reporting, Rollen-/Mandanten-Trennung. Funktional vergleichbar mit Peec AI, für Mehrländer-Skala gebaut. | LLM-API- Polling (Enterprise) |
ChatGPT, Claude, Gemini, Perplexity, EU-mehrsprachig | M | Ersatz für Peec AI bei EU-weitem Rollout, nicht zusätzlich. Gleiche Funktion, andere Skalierungs-Klasse. Gewählt, wenn Tracking über mehr als drei Sprachen / Märkte parallel läuft. | |||||||||
| Brandwatch / TalkwalkerSocial Listening | MonitoringSocial + Forum | Markenerwähnungen, Sentiment, Themen-Konjunktur über Social, News, Foren. Volumen-Zeitreihen, Demographie, Krisen-Alerts. | Social-API + Web-Crawl |
Twitter/X, Reddit (begrenzt), News, Foren, Blogs | M | Deckt die Diskurs-Ebene ab, die LLM-Tracking nicht sieht: Quellen, aus denen LLM-Antworten später Material ziehen. Kommt nur dazu, wenn das Mandat methodisch Social-/PR-Hebel trägt. | |||||||||