SitemapScan Blog

robots.txt User-Agents erklärt: Wie man Bot-Regeln ohne Rätselraten liest

In robots.txt tauchen Suchbots, KI-Crawler, Social-Preview-Bots, Monitoring-Tools und viele seltsame User-Agents auf. Mit Funktionsgruppen wird daraus ein lesbares Signal.

Mit der Wildcard-Regel beginnen

User-agent: * ist die breite Standardregel für alle Bots, sofern kein spezifischerer Block vorhanden ist.

Warum Bot-Familien wichtig sind

Suchbots, Social-Bots, Security-Bots, KI-Crawler und Monitoring-Tools verfolgen unterschiedliche Zwecke. Wer sie zusammenwirft, verliert die eigentliche Policy.

Was man mit unbekannten Namen macht

Unbekannte Bots lassen sich meist besser nach Funktion einordnen: Discovery, Distribution, Extraction, Monitoring, Verification oder Infrastruktur.

Related pages

Artikel lesen