SitemapScan Blog

Wiele sitemap w robots.txt: co to znaczy i jak to audytować

Niektóre serwisy deklarują jedną mapę witryny w robots.txt, inne dwadzieścia. Oto co naprawdę oznaczają liczne dyrektywy Sitemap i jak poprawnie ocenić taką strukturę.

Dlaczego serwis deklaruje więcej niż jedną sitemap

Wiele adresów sitemap w robots.txt jest całkowicie poprawne. Duże serwisy często dzielą mapy według typu treści, świeżości, języka lub sekcji.

Najczęstszy błąd

Wiele checkerów zatrzymuje się na pierwszej linii Sitemap i traktuje ją jako główny plik. Tymczasem prawdziwy plik koordynujący może być indeksem zadeklarowanym później.

Jak oceniać to poprawnie

Najpierw zbierz wszystkie dyrektywy Sitemap z robots.txt. Następnie sprawdź każdy plik: czy odpowiada, czy jest URL set czy indeksem oraz czy wygląda na koordynator czy tylko fragment.

Related pages

Przeczytaj artykuł