Herramientas · tool-stack supermatrix · panorama 14 × 16

Catorce herramientas, dieciséis dimensiones: escaneables por cualquier eje.

Una fila por herramienta, una columna por atributo. El primer grupo de columnas describe la herramienta (categoría, qué se mide, fuente de datos, motores, stack obligatorio o dependiente de mandato). El grupo central es la matriz de capacidades: nueve capacidades como rejilla de puntos, de modo que lo que cubre cada herramienta —y dónde se solapan dos herramientas— resulta visible de un vistazo. La última columna sostiene la frase decisiva de demarcación. La tabla se desplaza horizontalmente; la columna de herramienta permanece fija a la izquierda.

Metodología invariable al sector: los clústeres /01 a /07 miden lo que miden, con independencia del sector del mandato. El clúster /08 dependiente de mandato porta los deberes de aplicación específicos del sector, con ancla empírica en el mandato telco 1&1 y notas de transferencia cualitativas para Finance, Insurance y Commerce.

Profundización en la subpágina Herramientas
Escala de capacidades Función central Función parcial / secundaria No cubierta Metodológicamente ciega
Columna stack P Stack obligatorio M Dependiente de mandato
Desplazarse horizontalmente · 16 columnas ← → la columna de herramienta queda fija
Herramienta Categoría · capa Qué mide y hace Fuente de datos Motores / cobertura Stack Visi-
bilidad
LLM
Índice
SERP
DE
AI over-
views
Back-
links
Fact
check
Crawl
sitio /
schema
Push
de
índice
Repor-
ting
QA
manual /
borrador
Demarcación: por qué ninguna otra herramienta la reemplaza
/01 Visibilidad LLM · multi-motor
Peec AIVisibilidad LLM MonitoringRespuestas LLM externas Share of voice y fuentes de cita sobre conjuntos amplios de consultas generadas automáticamente. Series temporales por motor, comparación competitiva, análisis de dominios fuente. Polling de
API LLM
ChatGPT, Claude, Gemini, Perplexity, AI Overviews P Única herramienta que encaja los cuatro motores de chat + AI Overviews en paralelo en un solo dashboard. Responde a «¿qué tamaño tiene mi cuota del discurso?», no a «¿le doy a esta pregunta concreta?» (Rankscale).
RankscaleTracking de prompt-sets MonitoringConjuntos de prompts definidos Posición y aparición en conjuntos de prompts definidos por el usuario. Detección de drift por prompt, series temporales por motor. Polling de
API LLM
(controlado)
ChatGPT, Claude, Gemini, Perplexity P Centrada en prompt-sets: nosotros definimos los prompts; Peec AI los genera automáticamente. 1&1 ejecuta ambas en paralelo: los dos modelos de datos no son convertibles entre sí. Responde a «¿le doy a esta pregunta relevante para conversión?»
/02 SERP clásico y AI Overviews · DE
Sistrix PlusSEO DE + AIO MonitoringÍndice SERP DE Índice de visibilidad DE sobre el dataset de keywords comercialmente más profundo; aparición de AI Overview por keyword como SERP feature. Crawl SERP
propio
Google DE (primario), mercados adicionales secundarios P La única herramienta con la profundidad de keywords en el SERP alemán imprescindible para DACH. Ve los AI Overviews como SERP feature, Peec AI como componente de respuesta LLM; misma superficie, método de medición distinto, ambas necesarias.
/03 Exactitud factual de contenido
Scrunch AICapa de exactitud QAHechos en respuestas LLM Exactitud factual de respuestas LLM frente al valor objetivo. Marca alucinaciones y afirmaciones desactualizadas, como precios de tarifa incorrectos. Polling LLM
+ comparación
objetivo / real
ChatGPT, Claude, Gemini, Perplexity P La única capa que no mide visibilidad sino exactitud factual de contenido. Obligatoria para detalles de tarifas y productos. Las herramientas de visibilidad contarían una afirmación falsa como éxito.
/04 Sitio técnico y directivas de crawler
Screaming FrogCrawler SEO Diagnóstico · QASitio propio Validez Schema.org, llms.txt, robots.txt, meta, canonicals, indexabilidad. Crawl integral del sitio propio. Crawl del
sitio propio
Cualquier dominio (vista de auditoría técnica) P La única herramienta que inspecciona el sitio propio desde dentro. Todas las demás miden efecto externo; Screaming Frog inspecciona la condición previa, es decir, qué llegan a ver los crawlers.
/05 Reporting
Looker StudioCapa de dashboard ReportingAgregación No mide nada por sí mismo. Agrega datos de todas las herramientas vía connectors en dashboards para stakeholders. URLs en vivo, informes automatizados por correo electrónico. Connectors
(GSC, Sistrix,
Sheets, …)
Configurable por mandato P Capa de visualización pura, sin sourcing de datos. No reemplaza herramientas fuente, pero reemplaza informes de estado hechos a mano y exports PowerPoint.
/06 Distribución de índice
GSC + IndexNowPush de índice Distribución · monitoringGoogle + Bing Estado de indexación en Google y Bing; push inmediato vía IndexNow al índice Bing, se propaga aguas abajo a ChatGPT Search, Copilot, Perplexity. APIs de
Google y Bing
Google, Bing, indirectamente ChatGPT Search, Copilot, Perplexity P La única herramienta de distribución: cambia activamente el estado de indexación en lugar de limitarse a observarlo. Se propaga hasta tres motores de chat sin que esos motores ofrezcan APIs de envío propias.
/07 QA manual y motores de borradores · uno por proveedor
Claude ProAnthropic Producción · QAModelos Anthropic Sampling manual de respuestas en Claude para QA, redacción de borradores para briefs, textos metodológicos, estructuras. Acceso
directo UI
Claude (Sonnet / Opus actuales) P Sampling contra el motor Anthropic. Detecta drift de tonalidad, alucinaciones, patrones de cita que el tracking agregado no aflora.
ChatGPT PlusOpenAI Producción · QAModelos OpenAI QA manual y motor de borradores análogo a Claude Pro, contra modelos OpenAI. Funciones de browsing y memoria para investigación en vivo. Acceso
directo UI
Familia GPT (incl. ChatGPT Search) P Necesario porque los modelos OpenAI tienen la ventana de distribución más amplia en DACH; el sampling manual aquí tiene el mayor apalancamiento.
Perplexity ProPerplexity Producción · QAPerplexity QA manual y motor de borradores. Las citas se exponen en la UI, lo que permite inspección directa del patrón de citas. Acceso
directo UI
Perplexity (Sonar y modelos de routing) P La única superficie de chat que hace transparente la lógica de citas. La herramienta primaria de inspección para ingeniería de citation hooks (fase metodológica 03).
/08 Dependiente de mandato · donde el mandato lo porta
Transferencia a cuatro sectores El clúster /08 es la palanca sectorial del stack. Telco porta el ancla empírica, p. ej. el drift de precios de tarifa en el clúster /03 y el tracking paralelo en el mandato 1&1. Finance exige el clúster /03 para fact-checking de condiciones y rendimientos más el clúster /05 para la cadena de reporting conforme a BaFin. Insurance agudiza el clúster /03 sobre condiciones de póliza y el clúster /07 sobre documentación de asesoramiento conforme a VVG. Commerce orienta el clúster /04 hacia la validez Schema.org de productos y el clúster /06 hacia la distribución de índice para el tempo estacional. Mismas herramientas, deberes sectoriales distintos: aquí no se introducen herramientas sectoriales inventadas.
AhrefsBacklinks + intl. Monitoring · diagnósticoGlobal Perfiles de backlinks, dominios referentes, textos de anchor, visibilidad SEO internacional, visibilidad AI Overview a nivel internacional. Crawl web
propio
Global, todos los SERP principales M La única capa de backlinks. Sistrix cubre la visibilidad de keywords DE, no la profundidad de backlinks. Se incorpora en cuanto el mandato porta hub-and-spoke o escala más allá de DACH.
Surfer SEOo comparable DiagnósticoPor brief Topical authority y cobertura de entidades de una pieza planeada frente a los top results SERP. Revisión de brief antes de la producción. Análisis NLP
del top SERP
Por brief / conjunto de keywords M La única capa previa a la producción: muerde antes de la publicación. Reemplazable por briefing interno en equipos editoriales bien dirigidos con su propio mapa temático.
ProfoundGEO enterprise MonitoringMulti-idioma UE Visibilidad LLM en varios mercados e idiomas. Reporting enterprise, separación de roles y tenants. Funcionalmente comparable a Peec AI, construida para escala multi-país. Polling de
API LLM
(enterprise)
ChatGPT, Claude, Gemini, Perplexity, multi-idioma UE M Reemplazo de Peec AI en rollout UE, no adicional. Misma función, clase de escalado distinta. Se elige cuando el tracking corre en paralelo en más de tres idiomas / mercados.
Brandwatch / TalkwalkerSocial listening MonitoringSocial + foros Menciones de marca, sentimiento, momentum temático en social, noticias, foros. Series temporales de volumen, demografía, alertas de crisis. API social +
crawl web
Twitter/X, Reddit (limitado), noticias, foros, blogs M Cubre la capa de discurso que el tracking LLM no ve: fuentes de las que las respuestas LLM posteriormente extraen material. Se incorpora solo cuando el mandato porta metodológicamente palancas social / PR.
02 · Meta · solapamientos y huecos

¿Dónde se solapan deliberadamente las herramientas?

Redundancia que no resolvemos, porque los modelos de datos no son convertibles entre sí.

  • Peec AI ⇄ RankscaleSoV automático amplio frente a posición en prompt-sets definidos. Cada una responde a una pregunta distinta. 1&1 ejecuta ambas en paralelo.
  • Sistrix ⇄ Peec AI
    (AI Overviews)
    AI Overviews como SERP feature (Sistrix) frente a componente de respuesta LLM (Peec AI). La doble medición revela si un AIO porta como SERP o como respuesta.
  • Tracking ⇄ QA manualPeec AI / Rankscale entregan la serie temporal; Claude Pro / ChatGPT Plus / Perplexity Pro entregan el sample. El agregado no ve el drift de tonalidad.
  • Screaming Frog ⇄ GSCVista pre-crawl (Frog) frente a vista post-crawl (GSC). Un sitio puede estar técnicamente limpio y aun así no estar indexado; ambas permanecen.

¿Dónde quedan huecos reales?

Lo que el stack no cubre de forma fiable y cómo se compensa.

  • Reddit / comunidadNinguna herramienta mide de forma fiable el discurso en Reddit que aflora como fuente en respuestas ChatGPT. GummySearch descontinuada el 30 de noviembre de 2025. Compensación: investigación manual por mandato en la fase de briefing.
  • Long tail
    conversacional
    Las herramientas basadas en búsqueda son ciegas a las consultas conversacionales. Compensado vía prompt-sets curados manualmente en Rankscale + muestras en los tres motores de chat.
  • Superficies de vozAlexa, Siri, Google Assistant, in-car: no capturadas en ninguna herramienta. Respuesta metodológica: nombrar abiertamente en lugar de compensar. Volumen en 2026 marginal.
  • Atribución
    de citas
    Ninguna de las herramientas responde de forma fiable al porqué un LLM escoge una fuente concreta. Se cierra vía metodología (fase 03: citation hooks, front-loading según Indig / Aggarwal), no vía output de herramienta.