เครื่องมือสร้าง Robots.txt
robots.txt คืออะไร?
robots.txt คือไฟล์ข้อความที่วางไว้ที่รากของเว็บไซต์ของคุณ (เช่น https://example.com/robots.txt) ซึ่งแจ้งให้ตัวรวบรวมข้อมูลเว็บทราบว่าสามารถหรือไม่สามารถเข้าถึงหน้าหรือส่วนใดได้บ้าง เป็นส่วนหนึ่งของ Robots Exclusion Protocol แม้ว่าบอตของเสิร์ชเอนจินส่วนใหญ่จะปฏิบัติตาม แต่บอตที่ประสงค์ร้ายอาจเพิกเฉยได้ ใช้เพื่อบล็อกการรวบรวมข้อมูลหน้าที่ซ้ำกัน พื้นที่ผู้ดูแลระบบ และส่วนส่วนตัว
วิธีใช้เครื่องมือสร้าง Robots.txt
-
เลือกค่าที่กำหนดไว้ล่วงหน้าหรือเริ่มตั้งแต่ต้นโดยคลิก '+ เพิ่มกฎ'
-
ตั้งค่าช่อง User-agent เพื่อกำหนดเป้าหมายเฉพาะบอต (ใช้ * สำหรับบอตทั้งหมด)
-
เพิ่มเส้นทาง Disallow สำหรับหน้าที่ไม่ต้องการรวบรวมข้อมูล และเส้นทาง Allow สำหรับข้อยกเว้น
-
เลือกตั้งค่า Crawl-delay (หน่วยเป็นวินาที) เพื่อชะลอตัวรวบรวมข้อมูลที่รุนแรง
-
เพิ่ม URL แผนผังเว็บไซต์ที่ด้านล่าง
-
คัดลอกผลลัพธ์และบันทึกเป็น robots.txt ในไดเรกทอรีรากของเว็บไซต์ของคุณ
คำถามที่พบบ่อย
ปลอดภัยไหมที่จะถอดรหัสข้อมูลที่ละเอียดอ่อนที่นี่ ใช่ การถอดรหัสทั้งหมดเกิดขึ้นในเบราว์เซอร์ของคุณโดยใช้ JavaScript ไม่มีข้อมูลถูกส่งไปยังเซิร์ฟเวอร์ใดๆ ดังนั้นสตริงที่เข้ารหัสของคุณจึงยังคงเป็นข้อมูลส่วนตัวโดยสิ้นเชิง
ความแตกต่างระหว่าง Base64 และ URL-safe Base64 คืออะไร Base64 มาตรฐานใช้อักขระ + และ / ซึ่งเป็นอักขระพิเศษใน URL URL-safe Base64 แทนที่อักขระเหล่านี้ด้วย - และ _ เพื่อให้สตริงนี้สามารถใช้ได้อย่างปลอดภัยใน URL และชื่อไฟล์โดยไม่ต้อง percent-encoding
ทำไมผลลัพธ์ที่ถอดรหัสของฉันจึงดูเหมือนข้อความไร้สาระ หากข้อมูลดั้งเดิมเป็นข้อมูลไบนารี (เช่น รูปภาพ PDF หรือไฟล์ที่ถูกบีบอัด) ผลลัพธ์ที่ถอดรหัสจะไม่ใช่ข้อความที่อ่านได้ ในกรณีนั้น สตริง Base64 แทนไฟล์ไบนารี ไม่ใช่สตริงข้อความ
Base64 เป็นรูปแบบของการเข้ารหัส (encryption) หรือไม่ ไม่ Base64 เป็นโครงร่างการเข้ารหัส (encoding) ไม่ใช่การเข้ารหัส (encryption) ใครก็ตามสามารถถอดรหัสสตริง Base64 ได้โดยไม่ต้องใช้กุญแจ ไม่ควรใช้เพื่อปกป้องข้อมูลที่ละเอียดอ่อน — ใช้การเข้ารหัสที่เหมาะสม
Keywords: เครื่องมือสร้าง robots.txt, ไฟล์ robots.txt, บล็อกตัวรวบรวมข้อมูล, บล็อกบอต, โรบอต SEO, โรบอต sitemap, กฎตัวรวบรวมข้อมูลเว็บ