SitemapScan Blog
Wiele sitemap w robots.txt: co to znaczy i jak to audytować
Niektóre serwisy deklarują jedną mapę witryny w robots.txt, inne dwadzieścia. Oto co naprawdę oznaczają liczne dyrektywy Sitemap i jak poprawnie ocenić taką strukturę.
Dlaczego serwis deklaruje więcej niż jedną sitemap
Wiele adresów sitemap w robots.txt jest całkowicie poprawne. Duże serwisy często dzielą mapy według typu treści, świeżości, języka lub sekcji.
Najczęstszy błąd
Wiele checkerów zatrzymuje się na pierwszej linii Sitemap i traktuje ją jako główny plik. Tymczasem prawdziwy plik koordynujący może być indeksem zadeklarowanym później.
Jak oceniać to poprawnie
Najpierw zbierz wszystkie dyrektywy Sitemap z robots.txt. Następnie sprawdź każdy plik: czy odpowiada, czy jest URL set czy indeksem oraz czy wygląda na koordynator czy tylko fragment.
Related pages
- Sitemap index vs URL set: jak zobaczyć różnicę i dlaczego to ważne — Sitemap index i sitemap URL set nie pełnią tej samej roli. Rozpoznanie, z czym masz do czynienia, zmienia całą ocenę pokrycia i struktury.
- News sitemapy i Google News: co musi być w nich inne — News sitemap to nie jest zwykła mapa XML z nowszymi URL-ami. Ma własne oczekiwania, ograniczenia i typowe błędy. Oto jak ją poprawnie ocenić.
- Sitemapy .xml.gz: jak je audytować bez zgadywania — Sitemap .xml.gz może być URL setem, sitemap indexem albo skompresowanym child sitemapem. Samo rozszerzenie mówi prawie nic. Tak oceniasz go poprawnie.
- Blog — Wskazówki, przewodniki i najlepsze praktyki dotyczące sitemap XML i technicznego SEO.