SitemapScan Blog

User agents i robots.txt förklarade: hur du läser botregler utan att gissa

En robots.txt kan nämna sökbottar, AI-crawlerer, social preview bots, övervakningsverktyg och en lång svans av märkliga agentnamn. Så gör du listan begriplig.

Börja med wildcard-regeln

User-agent: * är den breda standardregeln för alla bottar, så länge inte en mer specifik agent får ett eget block.

Varför botfamiljer spelar roll

Sökbottar, sociala bottar, security-bottar, AI-crawlerer och övervakningsverktyg fyller olika funktioner. Att slå ihop allt döljer den verkliga policyn.

Vad du gör med okända namn

Okända agenter blir lättare att förstå om du först grupperar dem efter funktion: discovery, distribution, extraction, monitoring, verification eller infrastruktur.

Related pages

Läs artikel