SitemapScan Blog

Bloqué par robots.txt mais listé dans un sitemap : pourquoi le conflit compte

Quand une URL est listée dans un sitemap mais bloquée par robots.txt, le site dit deux choses différentes aux crawlers. Voici pourquoi ce conflit compte et comment l'auditer.

Pourquoi ce conflit est important

Le sitemap dit que l'URL mérite d'être découverte. Le blocage robots.txt dit qu'il ne faut pas la crawler. Cela crée une contradiction évitable.

Comment cela arrive

On voit souvent ce cas après des migrations, des règles temporaires, des patterns disallow hérités ou des générateurs qui ignorent la politique robots.

Comment auditer ce conflit

Vérifiez si le blocage est intentionnel, si l'URL devrait réellement figurer dans le sitemap et si le conflit touche quelques URLs ou toute une section.

Related pages

Lire l'article