Tres siglas, un problema. GEO, AEO y LLMO miden cosas ligeramente distintas, se aplican en contextos ligeramente distintos, y la industria las usa de forma intercambiable sin ningún criterio. Antes de entender qué deberían medir, hay que entender qué mide cada una hoy y por qué la confusión no es accidental.
Qué dice medir cada una
GEO y LLMO comparten aproximadamente un 80% de superposición funcional. Ambas optimizan para citaciones en IA. La distinción principal es el origen: GEO viene de la academia (el paper de Princeton de 2023), LLMO emergió de comunidades de profesionales al mismo tiempo. GEO apunta a todos los motores generativos, LLMO específicamente a modelos de lenguaje grandes. En la práctica, la diferencia es casi cosmética.
AEO es la más antigua de las tres y la más honesta en su definición original: optimizar para aparecer como respuesta directa en motores de búsqueda, featured snippets y búsquedas por voz. El problema es que desde 2023 le pegaron encima el contexto de IA generativa y ahora la usan para todo.
Cualquier agencia que ofrezca GEO, AEO o LLMO está ofreciendo técnicamente un subconjunto de lo mismo. La terminología está fragmentada porque el mercado es nuevo y todos compiten por definirlo primero. No te confundas por falta de conocimiento. Es que la industria tampoco se ha puesto de acuerdo.
Lo que realmente se mide hoy
Las métricas que el mercado ha estandarizado, al menos provisionalmente, son estas:
| Métrica | Qué mide |
|---|---|
| Visibility Score | Proporción de respuestas de IA donde aparece tu marca para un tema dado |
| Share of Voice (SOV) | Tus citaciones vs. las de tus competidores en los mismos motores |
| Citation Authority | Calidad y consistencia de las fuentes que te citan |
| Sentiment | Tono de las menciones de tu marca en respuestas generadas |
| Prominence | Posición de tu marca dentro de la respuesta (si aparece al inicio o al final importa) |
| Crawl Health | Frecuencia y completitud con que los bots de IA acceden a tu sitio |
El problema con estas métricas no es que sean incorrectas. Es que son extraordinariamente inestables. La volatilidad mensual de citaciones en los principales motores oscila entre el 40% y el 60%. Google AI Overviews muestra un 59.3% de cambio mes a mes, ChatGPT un 54.1%, y Microsoft Copilot un 53.4%. Eso significa que la mitad de lo que midiste el mes pasado cambió sin que hayas hecho nada. Medir algo tan volátil con herramientas que cuestan entre 200 y 500 dólares al mes tiene una utilidad cuestionable para la mayoría de las empresas.
Lo que deberían medir y casi nadie mide
Aquí está el argumento central: las métricas de GEO/AEO/LLMO que el mercado promueve miden visibilidad, no impacto de negocio. Saber que apareces en el 23% de las respuestas relevantes de ChatGPT es una métrica de vanidad si no puedes conectarla con tráfico, leads o ventas.
El problema de fondo es técnico. Los motores de IA no generan datos de clics ni keywords como Google Search Console. No hay keyword data disponible sobre qué prompt generó una visita. La misma pregunta puede producir resultados distintos para usuarios diferentes en el mismo momento. El canal es real, pero la atribución es opaca.
Lo que sí se puede medir con las herramientas que ya tienes:
Primero, el tráfico referido por IA en GA4. Busca sesiones con fuente directa que crezcan en paralelo con tu actividad en motores generativos. No es atribución perfecta, pero es una señal.
Segundo, el tráfico de marca en Search Console. Cuando alguien te ve citado en ChatGPT y luego te busca por nombre en Google, ese branded search aparece en tus datos. Una curva de branded searches creciente mientras el non-branded se mantiene estable es un indicador indirecto de visibilidad en IA.
Tercero, menciones externas independientes. Analizar qué fuentes citan los motores de IA cuando hablan de tu categoría te dice exactamente qué tipo de presencia externa necesitas construir. Si los modelos citan consistentemente a ciertos medios del sector, esos son tus objetivos de relaciones públicas digitales.
Las métricas propias de OCTOPUS para visibilidad en IA
En OCTOPUS medimos la visibilidad en motores generativos con tres indicadores que conectan con resultados reales:
El OVI (Opportunity Visibility Index) es el termómetro estratégico del crecimiento orgánico. No mide tráfico ni posiciones aisladas: mide cuánto del mercado orgánico potencial estás capturando en relación con la oportunidad existente. Integra volumen de búsqueda, posición promedio, CTR estimado, nivel de intención y potencial estratégico del cluster. La pregunta que responde es: ¿qué porcentaje del mercado orgánico relevante estoy capturando hoy?
El OTV (Organic Traffic Value) es la consecuencia económica del OVI. Si el OVI mide visibilidad estratégica, el OTV mide el valor monetario estimado del tráfico orgánico capturado, ya sea por CPC equivalente, valor promedio por conversión o ticket promedio por tasa de conversión. Uno mide territorio. El otro mide rentabilidad.
El Share of Answers mide qué proporción de respuestas relevantes incluyen tu marca frente a competidores directos, en un conjunto fijo de preguntas que se monitorean mensualmente.
Ninguna de las tres reemplaza el SEO tradicional. Las tres son capas adicionales sobre una base que ya tiene que estar sólida.
Si quieres entender cómo aplicamos estas métricas en la práctica, aquí explicamos nuestra metodología como parte de nuestra estrategia GEO.
Medir bien es más valioso que medir mucho. Tres métricas conectadas al negocio valen más que quince dashboards de visibilidad que cambian el 50% cada mes.
