DevTulz Online

Generatore di Robots.txt


Cos'รจ robots.txt?

robots.txt รจ un file di testo collocato nella radice del tuo sito web (es. https://example.com/robots.txt) che indica ai crawler web quali pagine o sezioni possono o non possono accedere. Fa parte del Robots Exclusion Protocol. Mentre i bot dei motori di ricerca generalmente lo rispettano, i bot malintenzionati possono ignorarlo. Usalo per bloccare la scansione di pagine duplicate, aree di amministrazione e sezioni private.

Come usare il Generatore di Robots.txt

  1. Scegli una configurazione predefinita o inizia da zero facendo clic su '+ Aggiungi regola'.

  2. Imposta il campo User-agent per puntare a un bot specifico (usa * per tutti i bot).

  3. Aggiungi percorsi Disallow per le pagine che non vuoi vengano scansionate e percorsi Allow per le eccezioni.

  4. Imposta facoltativamente un Crawl-delay (in secondi) per rallentare i crawler aggressivi.

  5. Aggiungi l'URL della tua mappa del sito in basso.

  6. Copia l'output e salvalo come robots.txt nella directory radice del tuo sito web.

Keywords: generatore robots.txt, file robots.txt, bloccare crawler, bloccare bot, robot SEO, robot sitemap, regole crawler web