Desindexar una URL es el proceso de quitarla del índice de Google sin necesariamente eliminarla del sitio. Hay varias situaciones donde es la decisión correcta: contenido legacy de baja calidad, páginas de paginación profunda, áreas internas que no deben aparecer en SERP. Hecho mal, podés desindexar páginas que sí querías rankear. Hecho bien, mejora la calidad relativa percibida del sitio entero.
Cuándo desindexar
El reflejo común es “más URLs indexadas = mejor SEO”. Es falso. Lo que importa es la calidad relativa de las URLs indexadas. Si tu sitio tiene 200 URLs útiles + 800 URLs thin/duplicadas/legacy, Google evalúa la calidad promedio del sitio entero — y eso afecta cómo trata todo tu contenido. Desindexar lo que no aporta puede subir el ranking de lo que sí aporta.
Casos típicos donde desindexar es correcto: páginas de tag o categoría sin posts, paginación profunda (página 5+ de comments o productos), áreas de admin o checkout, landings creadas solo para campañas pagas que no deberían rankear, contenido legacy obsoleto que ya no se actualiza, y duplicados que existen por razones técnicas.
Los métodos para desindexar
Meta robots noindex
Etiqueta en el <head> de la página. La forma más usada y recomendada. Detalle en robots.txt y crawling.
X-Robots-Tag header
Para archivos no-HTML (PDFs, imágenes, videos). Configurado a nivel servidor o CDN.
Status 404 / 410
Eliminación física. URL deja de existir y devuelve error. 410 desindexa más rápido que 404. Detalle en HTTP status codes.
Search Console – Removals
Solicitud manual en GSC para remoción temporal (~6 meses). Útil para urgencias. No es solución permanente.
El error más común
Bloquear una URL en robots.txt esperando que se desindexe. NO funciona — robots.txt impide rastreo, no indexación. Si la URL ya estaba indexada, queda en el índice con un mensaje “no description available because robots.txt blocks crawling”. Peor: Google nunca puede leer un eventual noindex porque le bloqueaste el acceso.
El flujo correcto cuando querés sacar una URL del índice: (1) permitir rastreo (NO bloquear en robots.txt), (2) agregar meta robots noindex, (3) esperar que Google revisite y procese el noindex (días o semanas), (4) opcionalmente bloquear en robots.txt una vez confirmada la desindexación. Saltarse el paso 1 hace que el resto no funcione.
Cuánto tarda
Google no desindexa instantáneamente. El timeframe típico: 1-3 semanas para URLs con tráfico bajo y crawl frecuencia normal. Hasta 6 meses para URLs con poco tráfico que Google no visita seguido. Para forzar visita de Googlebot y acelerar: solicitud de inspección en Search Console (URL Inspection → Request Indexing — sí, también funciona para forzar revisita después de cambios).
Para urgencias absolutas (ej: contenido sensible publicado por error), Search Console → Removals devuelve resultado en horas pero es temporal (~6 meses). Después la URL vuelve a indexarse a menos que también tenga noindex.
El caso de paginación profunda
En sitios grandes con paginación (?page=2, ?page=3, etc.), las páginas profundas suelen ser thin para Google — son listados de items sin contenido único. La solución dominante en 2026: rel=”prev”/”next” fue deprecado, así que la práctica actual es noindex,follow en página 2+ (no se indexa pero los links a productos sí pasan equity). Combinado con sitemap que solo lista la página 1 de cada listado.
La auditoría de qué desindexar
El stack que aplico en proyectos enterprise: análisis de URLs indexadas via Search Console (Index Coverage report), cruce con tráfico orgánico de los últimos 6 meses (las URLs con cero tráfico son candidatas), revisión manual de muestreo para validar que la URL es efectivamente thin/duplicada/obsoleta antes de desindexar, y plan de implementación priorizado por volumen.
Cómo se aplica en la práctica
El stack típico de gestión de desindexación en proyectos enterprise: auditoría trimestral con foco en URLs sin tráfico, validación que las URLs candidatas no tienen backlinks externos relevantes (esos hay que redirigir 301, no desindexar), implementación de noindex via meta robots o X-Robots-Tag, y monitoreo post-implementación en Search Console para confirmar la desindexación. La metodología completa está en /servicios/seo-tecnico/.