SitemapScan Blog

robots.txt e sitemaps: como eles funcionam juntos

robots.txt e sitemap XML são arquivos diferentes, mas se complementam. Um define política básica de crawl; o outro ajuda a descobrir URLs importantes.

Funções diferentes

robots.txt orienta acesso e políticas para bots, enquanto a sitemap lista URLs que valem ser descobertas e entendidas.

Onde se conectam

A diretiva Sitemap dentro do robots.txt é uma ponte simples e útil entre política de crawl e descoberta de conteúdo.

Onde a confusão acontece

Bloquear áreas importantes no robots.txt e ao mesmo tempo listá-las na sitemap cria sinais contraditórios.

Related pages

Ler artigo