SitemapScan Blog

Von robots.txt blockiert, aber in der Sitemap gelistet: Warum der Konflikt wichtig ist

Wenn eine URL in der Sitemap steht, aber durch robots.txt blockiert wird, sendet die Website gleichzeitig zwei widersprüchliche Signale. So sollte man diesen Konflikt bewerten.

Warum dieser Konflikt relevant ist

Die Sitemap sagt, dass die URL wichtig genug für Discovery ist. Die robots.txt-Sperre sagt, dass Crawler den Pfad nicht abrufen sollen. Das schafft einen unnötigen Widerspruch.

Wie so etwas entsteht

Häufig passiert das nach Migrationen, bei temporären Staging-Regeln, geerbten Disallow-Mustern oder Generatoren, die Robots-Policies nicht kennen.

Wie man den Konflikt auditieren sollte

Prüfen Sie, ob die Sperre beabsichtigt ist, ob die URL wirklich in die Sitemap gehört und ob nur einzelne URLs oder ganze Verzeichnisse betroffen sind.

Related pages

Artikel lesen