SitemapScan Blog

User-agents en robots.txt explicados: cómo leer reglas de bots sin adivinar

En robots.txt aparecen bots de búsqueda, crawlers de IA, social preview bots, herramientas de monitoring y muchos nombres raros. Agruparlos por función vuelve legible la señal.

Empezar por la regla comodín

User-agent: * es la regla general por defecto mientras no exista un bloque más específico.

Por qué importan las familias de bots

Bots de búsqueda, bots sociales, bots de seguridad, crawlers de IA y herramientas de monitoring persiguen fines distintos. Mezclarlos borra la política real.

Qué hacer con nombres desconocidos

Los bots poco conocidos se entienden mejor si primero se agrupan por función: discovery, distribution, extraction, monitoring, verification o infraestructura.

Related pages

Leer artículo