Reddit ประกาศเมื่อวันอังคารว่าจะแก้ไขมาตรฐานเว็บเพื่อป้องกันการขูดข้อมูลอัตโนมัติบนแพลตฟอร์มของตน การย้ายครั้งนี้เป็นการตอบสนองต่อรายงานว่าสตาร์ทอัพ AI กําลังใช้กฎที่มีอยู่เพื่อรวบรวมเนื้อหาสําหรับระบบของตน บริษัทโซเชียลมีเดียถูกตั้งค่าให้อัปเดต Robots Exclusion Protocol หรือที่เรียกกันทั่วไปว่า "robots.txt" ซึ่งกําหนดส่วนต่างๆ ของเว็บไซต์ที่โปรแกรมรวบรวมข้อมูลอัตโนมัติสามารถเข้าถึงได้
การตัดสินใจดังกล่าวเกิดขึ้นท่ามกลางความกังวลเกี่ยวกับบริษัทปัญญาประดิษฐ์ที่ถูกกล่าวหาว่าลอกเลียนแบบเนื้อหาจากผู้เผยแพร่เพื่อสร้างบทสรุปที่สร้างโดย AI โดยไม่มีการระบุแหล่งที่มาหรือการอนุญาตที่เหมาะสม มาตรการที่อัปเดตของ Reddit จะรวมถึงการรักษาการจํากัดอัตราเพื่อควบคุมปริมาณคําขอที่ผู้ใช้คนเดียวสามารถทําได้ รวมถึงการบล็อกบอทและโปรแกรมรวบรวมข้อมูลที่ไม่ปรากฏชื่อไม่ให้รวบรวมข้อมูลจากเว็บไซต์
การใช้ "robots.txt" ได้รับความนิยมเนื่องจากผู้เผยแพร่โฆษณาพยายามปกป้องเนื้อหาของตนจากการถูกใช้โดยบริษัทเทคโนโลยีเพื่อฝึกอัลกอริทึม AI และสร้างบทสรุปสําหรับคําค้นหาบางคําโดยไม่มีค่าตอบแทน เมื่อสัปดาห์ที่แล้ว TollBit ซึ่งเป็นสตาร์ทอัพด้านการออกใบอนุญาตเนื้อหา ได้ส่งจดหมายถึงผู้เผยแพร่โฆษณาโดยเปิดเผยว่าบริษัท AI หลายแห่งได้ข้ามมาตรฐานเว็บเพื่อขูดเนื้อหาจากเว็บไซต์ของผู้เผยแพร่
การสอบสวนโดย Wired เมื่อต้นเดือนมิถุนายนชี้ให้เห็นว่าบริษัทค้นหา AI Perplexity อาจหลีกเลี่ยงมาตรการในการบล็อกโปรแกรมรวบรวมข้อมูลเว็บผ่าน "robots.txt" ในเหตุการณ์ที่เกี่ยวข้อง Forbes กล่าวหา Perplexity เมื่อต้นเดือนมิถุนายนว่าลอกเลียนแบบเรื่องราวการสืบสวนเพื่อใช้ในระบบ AI กําเนิดโดยไม่มีเครดิต
แม้จะมีการเข้าถึงที่เข้มงวด Reddit ได้ยืนยันว่านักวิจัยและหน่วยงานเช่น Internet Archive จะยังคงสามารถเข้าถึงเนื้อหาได้หากการใช้งานไม่ใช่เชิงพาณิชย์ สิ่งนี้ทําให้มั่นใจได้ว่าในขณะที่บริษัทดําเนินการเพื่อปกป้องเนื้อหาจากการคัดลอกโดยไม่ได้รับอนุญาต แต่ก็ยังคงสนับสนุนการวิจัยและกิจกรรมการเก็บถาวรที่ถูกต้องตามกฎหมาย
สํานักข่าวรอยเตอร์มีส่วนร่วมในบทความนี้บทความนี้ถูกแปลโดยใช้ความช่วยเหลือจากปัญญาประดิษฐ์(AI) สำหรับข้อมูลเพิ่มเติม โปรดอ่านข้อกำหนดการใช้งาน