SitemapScan Blog
Mehrere Sitemaps in der robots.txt: Was das bedeutet und wie man es prüft
Manche Websites deklarieren eine Sitemap in der robots.txt, andere zwanzig. Hier erfahren Sie, was mehrere Sitemap-Direktiven tatsächlich bedeuten und wie Sie die Struktur korrekt prüfen.
Warum Websites mehr als eine Sitemap deklarieren
Mehrere Sitemap-URLs in der robots.txt sind völlig gültig. Große Websites segmentieren Sitemaps oft nach Inhaltstyp, Aktualität, Sprache oder Bereich der Website.
Der häufige Fehler: die erste Sitemap als Hauptsitemap zu behandeln
Ein einfacher Checker stoppt oft bei der ersten Sitemap-Zeile und behandelt diese Datei als zentrale Sitemap der Website. Dadurch kann die eigentliche Struktur verborgen bleiben, wenn die wichtigere Datei später als Sitemap-Index folgt.
Wie man eine Multi-Sitemap-Struktur korrekt bewertet
Sammeln Sie zuerst alle Sitemap-Direktiven aus der robots.txt. Prüfen Sie dann jede Datei einzeln: Ist sie erreichbar, handelt es sich um ein URL-Set oder einen Index, und wirkt sie wie die koordinierende Hauptdatei oder nur wie ein Teilsegment?
Related pages
- Sitemap-Index vs. URL-Set: Wie man den Unterschied erkennt und warum er wichtig ist — Ein Sitemap-Index und ein Sitemap-URL-Set sind nicht austauschbar. Welche Datei vor Ihnen liegt, verändert die gesamte Bewertung von Reichweite, Child-Sitemaps und Struktur.
- News-Sitemaps und Google News: Was daran anders ist — Eine News-Sitemap ist nicht einfach nur eine normale XML-Sitemap mit frischeren URLs. Sie hat eigene Erwartungen, Grenzen und Fehlermuster. So prüfen Sie sie richtig.
- Komprimierte .xml.gz-Sitemaps: So prüft man sie ohne Rätselraten — Eine .xml.gz-Sitemap kann ein URL-Set, ein Index oder nur eine Child-Sitemap sein. Die Dateiendung allein sagt fast nichts. Entscheidend ist, was im XML steckt.
- Blog — Tipps, Anleitungen und Best Practices für XML-Sitemaps und technisches SEO.