SitemapScan Blog

Zablokowane przez robots.txt, ale wpisane do sitemapy: dlaczego ten konflikt ma znaczenie

Gdy URL jest wpisany do sitemapy, ale zablokowany w robots.txt, witryna mówi crawlerom dwie różne rzeczy naraz. Tak warto oceniać ten konflikt.

Dlaczego ten konflikt jest ważny

Sitemapa mówi, że URL warto odkryć. Blokada w robots.txt mówi, że ścieżki nie wolno pobierać. To niepotrzebna sprzeczność.

Jak zwykle do tego dochodzi

Często zdarza się to po migracjach, tymczasowych regułach, odziedziczonych wzorcach disallow lub generatorach, które nie znają polityki robots.

Jak to audytować

Sprawdź, czy blokada jest zamierzona, czy URL naprawdę powinien być w sitemapie i czy konflikt dotyczy kilku adresów czy całej sekcji.

Related pages

Przeczytaj artykuł