SitemapScan Blog

Bloqueado por robots.txt pero listado en un sitemap: por qué importa el conflicto

Cuando una URL aparece en un sitemap pero está bloqueada por robots.txt, el sitio le está diciendo dos cosas distintas a los crawlers. Así se evalúa ese conflicto.

Por qué importa este conflicto

El sitemap dice que la URL merece ser descubierta. El bloqueo en robots.txt dice que no se debe rastrear. Eso crea una contradicción evitable.

Cómo suele ocurrir

Suele aparecer tras migraciones, reglas temporales, patrones disallow heredados o generadores que no conocen la política robots aplicada en otro sitio.

Cómo auditarlo

Comprueba si el bloqueo es intencional, si la URL realmente debería estar en el sitemap y si afecta a unas pocas URLs o a toda una sección.

Related pages

Leer artículo