En OCTOPUS no apostamos por corazonadas. Trabajo con datos a escala y contexto real. Esa es la única forma de tomar decisiones que muevan ingresos.
Desde 2014 ayudamos a marcas grandes. En varios casos, multiplicamos ingresos de 2 a 10 veces. No lo logramos por suerte. Lo logramos porque medimos bien.
En esta guía te explico, paso a paso, cómo diseño y ejecuto un estudio SEO serio. Vas a ver qué datos uso, cómo los limpio, qué pruebo y cómo lo convierto en acciones claras. Puedes replicarlo con tu equipo.
El reto hoy no es “rankeo o no rankeo”. El reto es entender cómo cambia la atención en la SERP, con IA, módulos y pantallas que ya no se leen igual. Vamos a medirlo con cabeza.
Por qué trabajamos con grandes muestras, no con casos aislados
Un caso te cuenta una historia. Una muestra grande te permite ver patrones. Yo no tomo decisiones con una cuenta de Search Console y un “me pasó”. En SEO intervienen muchas variables: intención, marca, país, dispositivo, tipo de página, y ahora módulos de IA.
Si estudias un solo dominio, todo está correlacionado. Es fácil confundir causa con efecto. Por eso uso entre 50 y 100 sitios, mínimo. Con datos de varios meses y miles de consultas por sitio.
Al mezclar sectores, idiomas y países, la señal se hace más clara. También puedo aislar efectos. Por ejemplo, separar móvil de escritorio, o branded de no branded. Así evito que una campaña fuera de línea infle mi CTR “orgánico”. Con escala, reduzco sesgos y gano certeza práctica.
La hipótesis guía, medimos algo concreto, no todo
Un estudio serio empieza con una pregunta precisa. No con “el SEO cambió”. Yo formulo una hipótesis clara, medible y acotada en tiempo, tipo de búsqueda y dispositivo. Por ejemplo: “El CTR en posición 1 bajó en mobile, en búsquedas informativas sin marca, tras el despliegue de AI Overviews”.
Esa frase fija qué mido, cuándo comparo y dónde miro. Me obliga a segmentar desde el inicio. Así evito conclusiones vagas y gráficos bonitos sin valor.
Con la hipótesis lista, defino variables, fuentes y cortes. El objetivo no es probar una idea a la fuerza. Es intentar refutarla con datos honestos. Si sobrevive a la prueba, la uso. Si no, la descarto y aprendo. Ese es el juego.
Datos que necesito y cómo los obtengo a escala
Trabajo con Google Search Console vía API. Exporto por sitio: fecha, query, página, clics, impresiones, CTR, posición promedio, país y dispositivo. Pido al menos seis meses por sitio, mejor si es más. Cada sitio debe sumar miles de clics y consultas por mes. Si no, el ruido arruina los promedios.
¿De dónde saco la muestra? Tengo propiedades propias y de clientes. También armo alianzas con sitios que comparten datos anonimizados. A veces uso datasets públicos de apoyo, pero no son mi fuente central. Quiero clics reales, no estimaciones.
Todo lo dejo en una base limpia y normalizada. Mismo esquema, mismas reglas. Sin eso, comparar es imposible. La estructura simple funciona muy bien y evita errores al segmentar.
Limpieza y segmentación, de ruido crudo a patrones claros
GSC da posiciones promedio. Eso es útil pero engañoso. No es lo mismo 1.0 que 1.6. Por eso creo buckets de posición. El Bucket 1 va de 1.0 a 1.2. Allí tengo alta confianza de “posición 1 real”. Los demás buckets agrupan rangos cercanos.
Luego filtro queries de marca y navegacionales. Inflan el CTR y destruyen la comparación. Uso diccionarios y patrones como “oficial”, “.com” o “inicio”. También aplico un umbral de impresiones. Sin mínimo, una query con dos impresiones deforma todo.
Después segmento por intención: informativa, transaccional y navegacional. Sumó valor separar por tipo de página también. No se comporta igual una categoría que un artículo. Al final, lo divido por país, idioma y dispositivo. Así veo dónde está el cambio real.
Comparaciones justas: buckets, ventanas y filtros que no engañan
No comparo mayo con mayo sin revisar qué pasó en medio. Defino ventanas de tiempo comparables. Por ejemplo, enero a abril como pre evento, y junio a septiembre como post. Evito el mes del cambio, porque trae ruido y pruebas de Google.
Comparo el mismo grupo de sitios en ambos periodos. Mantengo la muestra estable. Si un sitio entra o sale, documento por qué. Cruzo siempre el mismo bucket, la misma intención y el mismo dispositivo. Así evito mezclar peras con manzanas.
También reviso otros cambios en la SERP. Anuncios, snippets, mapas o módulos de IA. Si puedo, corro un scraping ligero para validar presencia de features. No lo tomo como verdad absoluta, pero ayuda a leer el contexto de pantalla.
Pruebas, gráficos e ideas que sí resisten preguntas
Una bajada de 8 puntos puede verse grande y no ser real. Por eso corro pruebas simples y claras. Para promedios entre dos periodos, uso prueba t. Si tengo varios grupos, uso ANOVA y luego comparo pares. Cuando trabajo con clic o no clic, aplico chi cuadrado.
No busco p-hacking. Uso alfa 0.05 y reporto tamaños de efecto. Además, muestro la dispersión con boxplots. Así veo si el cambio es general o vive en outliers. Las barras comparativas sirven para explicar por segmento. Un heatmap ayuda a detectar países o dispositivos con caídas fuertes.
Las gráficas no son adorno. Son la forma más clara de contar la historia del dato sin humo.
Límites del estudio y cómo los documento sin maquillaje
Hoy GSC no te dice si hubo AI Overviews en esa query. Entonces parto de inferencias por fecha, tipo de búsqueda y validaciones visuales. Lo aclaro con todas sus letras. Posición promedio no es visibilidad real. Tu resultado puede quedar bajo IA, bajo un snippet, o fuera de pantalla en mobile.
El CTR depende también de marca, títulos, metadescripción y competencia. No existe “CTR puro de posición”. Anoto estacionalidad, cambios de algoritmo y ajustes de anuncios. No atribuyo todo a la IA por reflejo. Prefiero una lectura sobria a una frase pegajosa.
Documento extracción, filtros, buckets, segmentación, pruebas y exclusiones. Así alguien más puede replicar o desafiar mi trabajo. La ciencia avanza cuando otros pueden repetir el camino.
De hallazgos a decisiones, qué cambia en tu SEO hoy
Si la posición 1 pierde clics en ciertas búsquedas, no insistas a ciegas. Replantea metas y reportes. Reporta contexto de SERP, no solo ranking. Informa si hay IA, snippets, mapas y anuncios, y en qué orden aparecen. Pondera el CTR por visibilidad.
Ajusta tu contenido según el segmento. Para informativas, busca ser citado por la IA. Estructura con entidades claras, respuestas breves y fuentes confiables. Para búsquedas con intención activa, apunta a páginas que la IA no reemplaza.
Evalúa jugar en el Bucket 2 con mejor visibilidad real, antes que “ser primero” enterrado. Y si tienes dudas, replica el estudio en otro país, sector o periodo. En OCTOPUS vivimos así el SEO: medimos, probamos, documentamos y actuamos. Esa es la ruta que sostiene crecimientos de 2 a 10 veces.
