Werkzeuge · Tool-Stack-Supermatrix · Querformat 14 × 16

Vierzehn Tools, sechzehn Dimensionen: scannbar entlang jeder Achse.

Eine Zeile pro Tool, eine Spalte pro Eigenschaft. Erste Spaltengruppe beschreibt das Tool (Kategorie, gemessene Größe, Datenquelle, Engines, Pflicht- oder Mandats-Stack). Mittlere Spaltengruppe ist die Capability-Matrix: neun Fähigkeiten als Dot-Grid, damit auf einen Blick sichtbar wird, welches Tool was abdeckt und wo zwei Tools sich überschneiden. Letzte Spalte hält den entscheidenden Abgrenzungssatz fest. Die Tabelle scrollt horizontal, die Tool-Spalte bleibt links sticky.

Methodik sektor-invariant: die Cluster /01 bis /07 messen, was sie messen, unabhängig vom Mandats-Sektor. Cluster /08 Mandatsabhängig trägt die sektor-spezifischen Anwendungs-Pflichten, mit empirischem Anker im Telco-Mandat 1&1 und qualitativen Übertragungs-Hinweisen für Finance, Insurance und Commerce.

Vertiefung zur Werkzeuge-Sub-Seite
Capability-Skala Kernfunktion Teil-/Nebenfunktion Nicht abgedeckt Methodisch blind
Pflicht-Spalte P Pflicht-Stack M Mandatsabhängig
Horizontal scrollen · 16 Spalten ← → Tool-Spalte bleibt sticky
Tool Kategorie · Schicht Was es misst & kann Datenquelle Engines / Abdeckung Stack LLM-
Sicht-
barkeit
DE-
SERP-
Index
AI Over-
views
Back-
links
Fakten-
check
Site-
Crawl /
Schema
Index-
Push
Repor-
ting
Manuelle
QA /
Draft
Abgrenzung: warum nicht durch ein anderes Tool ersetzbar
/01 LLM-Sichtbarkeit · Multi-Engine
Peec AILLM-Visibility MonitoringExterne LLM-Antworten Share of Voice und Zitatquellen über breite, automatisch generierte Query-Sets. Zeitreihen pro Engine, Wettbewerbs-Vergleich, Quellen-Domain-Analyse. LLM-API-
Polling
ChatGPT, Claude, Gemini, Perplexity, AI Overviews P Einziges Tool, das alle vier Chat-Engines + AI Overviews parallel in einem Dashboard fasst. Beantwortet „wie groß ist mein Anteil am Diskurs?“, nicht „treffe ich diese spezifische Frage?“ (Rankscale).
RankscalePrompt-Set-Tracking MonitoringDefinierte Prompt-Sets Position und Erscheinen in vom Anwender definierten Prompt-Sets. Drift-Erkennung pro Prompt, Zeitreihe pro Engine. LLM-API-
Polling
(kontrolliert)
ChatGPT, Claude, Gemini, Perplexity P Prompt-set-zentrisch: wir definieren die Prompts, Peec AI generiert sie automatisch. 1&1 fährt beide parallel: die beiden Datenmodelle sind nicht ineinander überführbar. Beantwortet „treffe ich diese Conversion-relevante Frage?
/02 Klassische SERP & AI Overviews · DE
Sistrix PlusDE-SEO + AIO MonitoringDE-SERP-Index DE-Sichtbarkeitsindex auf dem tiefsten kommerziell verfügbaren Keyword-Datensatz; AI-Overview-Erscheinen pro Keyword als SERP-Feature. Eigener
SERP-Crawl
Google DE (primär), weitere Märkte sekundär P Einziges Tool mit der für DACH unverzichtbaren Keyword-Tiefe in der deutschen SERP. Sieht AI Overviews als SERP-Feature, Peec AI als LLM-Antwort-Bestandteil; gleiche Oberfläche, unterschiedliche Messmethode, beide nötig.
/03 Inhaltliche Richtigkeit
Scrunch AIAccuracy-Layer QAFakten in LLM-Antworten Faktenrichtigkeit von LLM-Antworten gegen Soll-Wert. Flaggt Halluzinationen und veraltete Aussagen, etwa falsche Tarifpreise. LLM-Polling
+ Soll/Ist-
Vergleich
ChatGPT, Claude, Gemini, Perplexity P Einziger Layer, der nicht Sichtbarkeit, sondern inhaltliche Richtigkeit misst. Pflicht bei Tarif- und Produktdetails. Sichtbarkeits-Tools würden eine falsche Aussage als Erfolg werten.
/04 Technik & Crawler-Direktiven
Screaming FrogSEO-Crawler Diagnose · QAEigene Site Schema.org-Validität, llms.txt, robots.txt, Meta, Canonicals, Indexierbarkeit. End-to-End-Crawl der eigenen Site. Eigener
Site-Crawl
Beliebige Domain (technische Audit-Sicht) P Einziges Tool, das die eigene Site von innen prüft. Alle anderen messen externe Wirkung; Screaming Frog prüft die Voraussetzung, also was Crawler überhaupt zu sehen bekommen.
/05 Reporting
Looker StudioDashboard-Layer ReportingAggregation Misst nichts selbst. Aggregiert Daten aller Tools über Connectoren zu Stakeholder-Dashboards. Live-URLs, automatisierte E-Mail-Reports. Connectoren
(GSC, Sistrix,
Sheets, ...)
Pro Mandat konfigurierbar P Reine Visualisierungs-Schicht, kein Daten-Sourcing. Ersetzt nicht die Quell-Tools, ersetzt aber händische Status-Reports und PowerPoint-Exporte.
/06 Index-Distribution
GSC + IndexNowIndex-Push Distribution · MonitoringGoogle + Bing Indexierungsstatus bei Google & Bing; Sofort-Push via IndexNow in den Bing-Index, wirkt nachgelagert auf ChatGPT-Search, Copilot, Perplexity. Google +
Bing APIs
Google, Bing, mittelbar ChatGPT-Search, Copilot, Perplexity P Einziges Distributions-Tool: verändert Indexierungsstatus aktiv, statt ihn nur zu beobachten. Wirkt auf drei Chat-Engines durch, ohne dass diese eigene Submission-APIs anbieten.
/07 Manuelle QA & Draft-Engines · eine pro Anbieter
Claude ProAnthropic Produktion · QAAnthropic-Modelle Manuelle Antwort-Stichproben in Claude für QA, Draft-Erstellung für Briefe, Methodentexte, Strukturen. Direkter
UI-Zugriff
Claude (Sonnet/Opus aktuell) P Stichprobe gegen die Anthropic-Engine. Fängt Tonalitäts-Drift, Halluzinationen, Citation-Pattern, die Aggregat-Tracking nicht zeigt.
ChatGPT PlusOpenAI Produktion · QAOpenAI-Modelle Manuelle QA und Draft-Engine analog Claude Pro, gegen OpenAI-Modelle. Browsing- und Memory-Funktionen für Live-Recherche. Direkter
UI-Zugriff
GPT-Familie (inkl. ChatGPT-Search) P Notwendig, weil OpenAI-Modelle in DACH das größte Distributionsfenster haben; manuelle Stichprobe hier hat höchste Hebelwirkung.
Perplexity ProPerplexity Produktion · QAPerplexity Manuelle QA und Draft-Engine. Citations werden im UI offengelegt, direkte Inspektion des Citation-Patterns möglich. Direkter
UI-Zugriff
Perplexity (Sonar & Routing-Modelle) P Einzige Chat-Oberfläche, die Citation-Logik transparent macht. Für Citation-Hook-Engineering (Methode Phase 03) das primäre Inspektionswerkzeug.
/08 Mandatsabhängig · wo das Mandat es trägt
Vier-Sektor-Übertragung Cluster /08 ist der Sektor-Hebel des Stacks. Telco trägt den empirischen Anker, etwa Tarifpreis-Drift in Cluster /03 und parallel-Tracking im Mandat 1&1. Finance verlangt Cluster /03 für Konditions- und Renditen-Faktencheck plus Cluster /05 für BaFin-konforme Reporting-Kette. Insurance spitzt Cluster /03 auf Police-Bedingungen und Cluster /07 auf VVG-konforme Beratungs-Dokumentation zu. Commerce dreht Cluster /04 auf Schema.org-Produkt-Validität und Cluster /06 auf Index-Distribution für Saison-Tempo. Gleiche Tools, andere Sektor-Pflichten: erfundene Sektor-Tools werden hier nicht eingeführt.
AhrefsBacklinks + Intl. Monitoring · DiagnoseGlobal Backlink-Profile, Referring Domains, Anchor-Texte, internationale SEO-Sichtbarkeit, AI-Overview-Sichtbarkeit international. Eigener
Web-Crawl
Global, alle großen SERPs M Einziger Backlink-Layer. Sistrix deckt DE-Keyword-Sichtbarkeit, nicht Backlink-Tiefe. Kommt hinzu, sobald das Mandat Hub-and-Spoke trägt oder über DACH skaliert.
Surfer SEOo. vergleichbar DiagnosePro Brief Topical Authority und Entity-Coverage eines geplanten Inhalts gegen die SERP-Top-Resultate. Brief-Prüfung vor Produktion. NLP-Auswertung
SERP-Top
Pro Brief / Keyword-Set M Einziger Pre-Production-Layer: greift vor Veröffentlichung. Bei klar geführten Redaktionen mit eigener Topic-Map ersetzbar durch internes Briefing.
ProfoundEnterprise-GEO MonitoringEU-mehrsprachig LLM-Sichtbarkeit über mehrere Märkte und Sprachen. Enterprise-Reporting, Rollen-/Mandanten-Trennung. Funktional vergleichbar mit Peec AI, für Mehrländer-Skala gebaut. LLM-API-
Polling
(Enterprise)
ChatGPT, Claude, Gemini, Perplexity, EU-mehrsprachig M Ersatz für Peec AI bei EU-weitem Rollout, nicht zusätzlich. Gleiche Funktion, andere Skalierungs-Klasse. Gewählt, wenn Tracking über mehr als drei Sprachen / Märkte parallel läuft.
Brandwatch / TalkwalkerSocial Listening MonitoringSocial + Forum Markenerwähnungen, Sentiment, Themen-Konjunktur über Social, News, Foren. Volumen-Zeitreihen, Demographie, Krisen-Alerts. Social-API +
Web-Crawl
Twitter/X, Reddit (begrenzt), News, Foren, Blogs M Deckt die Diskurs-Ebene ab, die LLM-Tracking nicht sieht: Quellen, aus denen LLM-Antworten später Material ziehen. Kommt nur dazu, wenn das Mandat methodisch Social-/PR-Hebel trägt.
02 · Meta · Überlappungen und Lücken

Wo überlappen Tools bewusst?

Redundanz, die wir nicht auflösen, weil die Datenmodelle nicht ineinander überführbar sind.

  • Peec AI ⇄ RankscaleSoV breit-automatisch vs. Position in definierten Prompt-Sets. Beide Antworten unterschiedlicher Fragen. 1&1 fährt parallel.
  • Sistrix ⇄ Peec AI
    (AI Overviews)
    AI Overviews als SERP-Feature (Sistrix) vs. als LLM-Antwort-Bestandteil (Peec AI). Doppelmessung zeigt, ob ein AIO als SERP oder als Antwort trägt.
  • Tracking ⇄ Manuelle QAPeec AI / Rankscale liefern die Zeitreihe; Claude Pro / ChatGPT Plus / Perplexity Pro liefern die Stichprobe. Aggregat sieht keine Tonalitäts-Drift.
  • Screaming Frog ⇄ GSCPre-Crawl-Sicht (Frog) vs. Post-Crawl-Sicht (GSC). Eine Site kann technisch sauber sein und trotzdem nicht indexiert werden, beide bleiben.

Wo bleiben echte Lücken?

Was der Stack nicht zuverlässig abdeckt, und wie es kompensiert wird.

  • Reddit / CommunityKein Tool misst zuverlässig Reddit-Diskurse, die als Quelle in ChatGPT-Antworten auftauchen. GummySearch eingestellt 30.11.2025. Kompensation: manuelle Recherche pro Mandat zur Briefing-Phase.
  • Conversational
    Long-Tail
    Search-backed Tools sind blind für Conversational-Queries. Kompensiert über manuell kuratierte Prompt-Sets in Rankscale + Stichproben in den drei Chat-Engines.
  • Voice-SurfacesAlexa, Siri, Google Assistant, in-Car: in keinem Tool erfasst. Methodische Antwort: offen benennen statt kompensieren. Volumen 2026 marginal.
  • Citation-
    Attribution
    Keines der Tools beantwortet zuverlässig, warum ein LLM eine bestimmte Quelle wählt. Geschlossen über Methode (Phase 03: Citation-Hooks, Front-Loading nach Indig/Aggarwal), nicht über Tool-Output.