SEO programático en serio: cómo pasamos un sitio de 8 páginas a 175 en dos meses
Hace dos meses, este mismo sitio que estás leyendo tenía 8 páginas. Hoy tiene 175, todas con contenido propio y posicionando. Te cuento cómo lo hicimos y cuándo este enfoque tiene sentido para tu negocio.
10 de enero de 2026
Hace dos meses, este mismo sitio que estás leyendo tenía 8 páginas indexables. Hoy tiene 175. No son 175 copias de la misma página con palabras cambiadas: son 175 páginas con contenido diferente, datos reales propios, y posicionando por términos específicos. Esto es SEO programático hecho en serio, y vale la pena explicar cómo funciona porque hay mucha confusión en el tema.
Qué es SEO programático (y que no)
SEO programático es generar muchas páginas indexables a partir de combinar dimensiones de datos. El ejemplo clásico es Airbnb: una página por ciudad, por barrio, por tipo de alojamiento. Eso genera miles de páginas que rankean por búsquedas long-tail tipo "departamentos en Palermo" o "casas en Bariloche con piscina".
Lo que no es SEO programático: armar 500 páginas identicas con el nombre de una ciudad reemplazado. Eso se llama thin content, y Google lo detecta hace más de 10 años. Las páginas quedan en el limbo de "Rastreada: actualmente sin indexar" y nunca rankean.
Cuándo conviene y cuando no
El SEO programático tiene sentido si:
- Tu producto o servicio se ofrece en muchas variantes naturales (ciudades, modelos, categorías, marcas, profesiones).
- Cada combinación tiene búsquedas reales atrás (no inventas un long-tail, lo descubris en Search Console o keyword tools).
- Podés generar contenido genuinamente único por cada combinación, no párrafos calcados.
No tiene sentido si tu negocio es de un solo producto, un solo servicio, una sola ciudad. En ese caso lo que necesitas es un blog editorial bien hecho, no 200 landings programadas.
El patrón N+M = N*M
El truco central del SEO programático eficiente: generar contenido por dimensión, componer en build time.
Para este mismo sitio definimos dos dimensiones principales:
- Locaciones: 12 (CABA, Buenos Aires, La Plata, Cordoba, Rosario, Mendoza, Mar del Plata, Tucuman, Mexico, Chile, Colombia, Uruguay).
- Servicios: 9 (B2B SaaS, CRM, ERP, Automatización n8n, Cloud & DevOps, SEO, Modernización Legacy, QA, Branding).
Si quisieramos escribir manualmente todas las combinaciones, son 12 x 9 = 108 páginas. Pero con el patrón correcto, solo generamos 12 + 9 = 21 contenidos base y los combinamos en build time. Cada página termina siendo: párrafo de la locación + párrafo del servicio + datos reales locales + FAQs combinadas + interlinking.
21 llamadas a un LLM (Groq o Gemini) generan 108 páginas reales. Ese es el factor de multiplicación que hace que SEO programático funcione economicamente.
La capa que separa programático de thin content
Esta es la parte que la mayoría de los tutoriales en internet omiten, y por eso fallan. Una página generada por IA con un párrafo y tres FAQs no alcanza para indexarse. Google la ve como contenido sintético y la descarta.
Lo que la hace indexable es al menos un dato único verificable por página. Por ejemplo, la página de desarrollo de software en Cordoba incluye:
Cordoba es el segundo polo IT de Argentina con aproximadamente 14.000 empleos formales en el sector software. Fuente: OPSSI - CESSI, 2024.
Ese dato no está en otra página del sitio. Cambia según la locación. Es verificable (está la fuente). Y le dice a Google "esto no es un template, es contenido específico".
En verticales como seguros, ese dato es DNRPA: patentamientos por modelo y provincia. En real estate, datos de catastro. En salud, plazas hospitalarias por región. Cada vertical tiene su fuente pública de datos reales.
Cómo lo aplicamos en Mi Seguro de Auto
Antes de Pair Programming, donde más trabajamos esto fue en Mi Seguro de Auto. El sitio combina modelos de moto (Honda Wave 110, Honda Tornado, etc.) con ciudades. Cada página /seguro/{ciudad}/{modelo} muestra:
- Cuánto cuesta el seguro de ese modelo (dato propio, agregado de cotizaciones reales).
- Cuantas motos de ese modelo se patentaron en esa provincia (dato DNRPA verificable).
- Que coberturas son comunes en esa zona.
- FAQs específicas del modelo y la zona.
Ese contenido no se puede copiar. Genera autoridad. Y Google lo trata como fuente, no como página hermana de otras 500 iguales.
El pipeline técnico (alto nivel)
Para que escale, necesitas tres capas:
- Capa 1 - Contenido generado por LLM: párrafos y FAQs base por cada dimensión. Resumable, con normalización de respuestas, con rate limiting. Se ejecuta una sola vez y se cachea.
- Capa 2 - Datos reales: JSONs estáticos con datos de fuentes oficiales. Se actualizan cada 3-6 meses. Esta es la capa que la mayoría omite y por eso falla.
- Capa 3 - Schema.org estructurado: FAQPage, BreadcrumbList, Service, FinancialProduct, lo que aplique. Esto le dice a Google literalmente que es cada cosa en la página.
Las tres juntas son lo que separa SEO programático que rankea de SEO programático que se queda sin indexar.
El feedback loop
Una vez deployadas las páginas, el trabajo no termina, empieza. La mecanica:
- Search Console semanal: páginas indexadas, queries que aparecen, posiciones.
- Identificar low-hanging fruit: URLs en posición 5-15 con muchas impresiones y pocos clicks. Esas son las que están a un ajuste de title/meta de empezar a traer tráfico.
- Iterar el contenido: mejorar las páginas mejor posicionadas para empujarlas al top 3.
En Pair Programming construimos un pipeline propio para automatizar este ciclo, que combina datos de Search Console con múltiples LLMs que debaten entre si para generar briefs de mejora. Lo usamos en Mi Seguro de Auto y empezamos a aplicarlo a otros proyectos.
Conclusión
SEO programático bien hecho es la técnica de SEO con mejor retorno hoy para sitios verticalizados. Mal hecho, es la receta más rápida para que Google te penalice el dominio entero.
Si tu negocio tiene múltiples dimensiones naturales (ciudades, modelos, categorías) y querés escalar tráfico orgánico sin escribir 200 artículos a mano, hablemos. En una primera llamada de 30 minutos vemos si tu vertical se presta y qué volumen de páginas y tráfico podrías generar.
Por Esteban Aleart, Founder & Lead Engineer de Pair Programming. Lo que estás leyendo es contenido del blog de un sitio que aplica SEO programático a si mismo.
FAQ
Cuántas páginas se pueden generar con SEO programático?
Depende de las dimensiones del producto. Sitios verticales generan entre 100 y 5.000 páginas indexables típicamente. Más que eso suele ser señal de que las páginas están muy diluidas y conviene revisarlas.
Google penaliza el contenido generado por IA?
Google penaliza contenido sin valor para el usuario, no contenido generado por IA. Si el contenido (sea de IA o humano) aporta información única y útil, se indexa bien. La clave es la capa de datos reales que diferencia páginas, no el origen del texto.
Cuánto tiempo tarda en posicionar un sitio con SEO programático?
Las primeras páginas se indexan en 2-4 semanas. Empezar a rankear en posiciones de tráfico real (top 10) toma de 3 a 6 meses para términos competitivos. Long-tails muy específicos pueden rankear desde las primeras semanas.
Qué pasa con los datos reales si la fuente cambia los números?
Esa actualización es parte del flujo. El sistema tiene un JSON de datos que se revisa cada 3-6 meses y se redeploya. Es lo que también le da señal a Google de freshness, que ayuda al posicionamiento.
Necesito Next.js para hacer SEO programático?
No es obligatorio pero ayuda muchísimo. Cualquier framework que permita rendering server-side y generación estática sirve. Next.js, Astro, Remix, SvelteKit son buenas opciones. Lo que NO sirve es un SPA cliente puro: Google ve páginas vacias.
Artículos relacionados
Agentes de IA en la empresa: qué son, qué no son, y cuándo valen la pena
Hoy le dicen "agente de IA" a cualquier formulario que llama a la API de OpenAI. Vamos a separar lo que es marketing de lo que es ingeniería real, con un caso propio en producción.
Inteligencia ArtificialRAG y embeddings: cómo darle a un LLM acceso al conocimiento propio de tu empresa
Hay una pregunta que viene en casi toda llamada con clientes: "como le hago para que el LLM responda con MIS datos, no con datos genéricos de internet". La respuesta es RAG. Vamos a desarmarlo.
Inteligencia ArtificialFine-tuning de LLMs: cuándo vale la pena y cuando es overkill
Fine-tuning es la técnica de IA que más mal se vende: caro, complejo y muchas veces innecesario. Vamos a ver cuando si conviene y cuando RAG o un buen prompt resuelven el problema por la decima parte.