SitemapScan Blog

User-agent nel robots.txt spiegati: come leggere le regole bot senza tirare a indovinare

Nel robots.txt compaiono bot di ricerca, crawler IA, social preview bot, strumenti di monitoring e molti nomi strani. Raggrupparli per funzione rende il segnale leggibile.

Partire dalla regola wildcard

User-agent: * è la regola generale di default finché un blocco più specifico non prende il sopravvento.

Perché le famiglie di bot contano

Bot di ricerca, bot social, bot di sicurezza, crawler IA e strumenti di monitoring hanno scopi diversi. Mischiarli cancella la policy reale.

Cosa fare con i nomi sconosciuti

I bot poco noti si capiscono meglio se prima vengono raggruppati per funzione: discovery, distribution, extraction, monitoring, verification o infrastruttura.

Related pages

Leggi articolo