Sin noindex accidental
Las páginas públicas que deberían posicionar no deberían llevar un noindex accidental.
Las directivas meta robots indican a los buscadores cómo debe tratarse una página a nivel de indexación. En una revisión previa a la publicación o entrega de una web WordPress, este check sirve para confirmar que la página pública no arrastra un noindex accidental ni otra directiva a nivel de página que contradiga la configuración esperada.
Una página puede ser accesible públicamente y aun así estar marcada para no indexarse. Por eso meta robots es un check técnico distinto de la accesibilidad de la home o de robots.txt. Actúa a nivel de página y puede afectar directamente a si los buscadores deben indexar o no ese contenido.
Esto importa porque un noindex accidental en páginas públicas clave puede bloquear visibilidad sin que la web parezca rota. Google también distingue claramente ambos niveles: robots.txt se usa principalmente para control de rastreo, mientras que noindex es el mecanismo correcto cuando lo que se quiere es sacar una página de los resultados de búsqueda.
Antes de dar este check por correcto, conviene revisar lo siguiente:
Las páginas públicas que deberían posicionar no deberían llevar un noindex accidental.
La página no debería enviar directivas robots contradictorias en HTML o en cabeceras HTTP.
La configuración de visibilidad debería encajar con el estado real de publicación de la web.
noindex debería ser intencionado cuando se usa, no un resto de staging o de revisión privada.
robots.txt no debería bloquear páginas que dependen de noindex, porque los rastreadores necesitan acceder a la página para ver esa directiva.
PreFlight inspecciona las directivas robots a nivel de página expuestas por la URL pública y revisa si las instrucciones de indexación son coherentes con una web en producción. El objetivo es detectar noindex accidentales, señales contradictorias o directivas que no encajan con el estado esperado del sitio.
Este check es especialmente útil antes de la entrega porque los controles de indexación a nivel de página se olvidan con facilidad durante migraciones, revisiones en staging o configuraciones temporales de privacidad. Ayuda a sacar a la luz problemas silenciosos de visibilidad antes de dar una web por técnicamente lista.
Las directivas robots a nivel de página son coherentes con una web pública y no hay instrucciones evidentes de bloqueo que impidan indexar páginas que deberían ser visibles en buscadores.
Las directivas existen, pero hay algo que conviene revisar, por ejemplo combinaciones inesperadas, comportamientos poco habituales o ajustes que quizá no encajan con el estado real de lanzamiento.
La página expone una directiva robots bloqueante o contradictoria, como un noindex accidental, en un contexto en el que debería ser indexable y pública.
Dejar noindex activo en páginas públicas después del staging o de una revisión.
Suponer que robots.txt puede sustituir a un noindex a nivel de página.
Enviar directivas contradictorias entre HTML y cabeceras HTTP.
Aplicar reglas de visibilidad de forma global sin revisar páginas clave de entrada.
Olvidar que los rastreadores necesitan acceder a una página para poder ver su directiva noindex.
Meta robots funciona a nivel de página y puede controlar la indexación directamente. robots.txt funciona a nivel de rastreo y no es el método correcto para sacar de forma fiable una página de los resultados.
Sí. Una página puede cargar con normalidad para los usuarios y aun así incluir una directiva noindex que diga a los buscadores que no deben indexarla.
Sí. Si el rastreador no puede acceder a la página, puede no llegar a ver la directiva noindex, por eso no conviene confundir bloqueo de rastreo con control de indexación a nivel de página.
Reduce retrabajo, detecta errores de última hora y revisa lo crítico antes de publicar.
Analizar ahora