DevTulz Online

Générateur de Robots.txt


Qu'est-ce que robots.txt ?

robots.txt est un fichier texte placé à la racine de votre site web (par ex. https://example.com/robots.txt) qui indique aux robots d'exploration web quelles pages ou sections ils peuvent ou ne peuvent pas accéder. Il fait partie du Robots Exclusion Protocol. Bien que les robots des moteurs de recherche le respectent généralement, les robots malveillants peuvent l'ignorer. Utilisez-le pour bloquer l'exploration des pages dupliquées, des zones d'administration et des sections privées.

Comment utiliser le Générateur de Robots.txt

  1. Choisissez un modèle prédéfini ou commencez de zéro en cliquant sur '+ Ajouter une règle'.

  2. Définissez le champ User-agent pour cibler un bot spécifique (utilisez * pour tous les robots).

  3. Ajoutez des chemins Disallow pour les pages que vous ne voulez pas explorer, et des chemins Allow pour les exceptions.

  4. Définissez optionnellement un Crawl-delay (en secondes) pour ralentir les robots d'exploration agressifs.

  5. Ajoutez l'URL de votre plan de site en bas.

  6. Copiez le résultat et enregistrez-le sous robots.txt dans le répertoire racine de votre site web.

Keywords: générateur robots.txt, fichier robots.txt, bloquer les robots, bloquer les bots, robots SEO, robots sitemap, règles robot d'exploration web