SitemapScan Blog

Bloccata da robots.txt ma elencata nella sitemap: perché il conflitto conta

Quando una URL è presente nella sitemap ma bloccata da robots.txt, il sito sta dicendo due cose diverse ai crawler. Ecco perché il conflitto conta e come valutarlo.

Perché questo conflitto è importante

La sitemap dice che la URL merita discovery. Il blocco robots.txt dice che il percorso non deve essere scansionato. È una contraddizione evitabile.

Come nasce di solito

Succede spesso dopo migrazioni, regole temporanee, pattern disallow ereditati o generatori che ignorano la policy robots applicata altrove.

Come auditarlo

Verifica se il blocco è intenzionale, se la URL dovrebbe davvero stare nella sitemap e se il conflitto riguarda pochi URL o un'intera sezione.

Related pages

Leggi articolo