SitemapScan Blog

robots.txt y Sitemaps: cómo funcionan juntos

Tu archivo robots.txt y tu sitemap XML tienen roles diferentes pero complementarios. Entender cómo interactúan te ayuda a controlar el comportamiento de los rastreadores con más precisión.

Qué hace realmente robots.txt

robots.txt es un archivo de texto en la raíz de tu dominio que da directivas a los rastreadores web. Con reglas Disallow, puedes indicar a los rastreadores qué rutas omitir.

Declarar tu sitemap en robots.txt

Una directiva Sitemap: en robots.txt permite que cualquier rastreador descubra tu sitemap automáticamente, sin depender de envíos manuales.

El conflicto crítico que evitar

Nunca incluyas en tu sitemap una URL que también esté bloqueada por robots.txt. Enviarías señales contradictorias a los motores de búsqueda.

Related pages

Leer artículo