OpenAI และ Anthropic ซึ่งเป็นสตาร์ทอัพด้าน AI ที่โดดเด่นสองราย ได้ทําข้อตกลงกับรัฐบาลสหรัฐอเมริกาเพื่อทําการวิจัย ทดสอบ และประเมินโมเดลปัญญาประดิษฐ์ของตนต่อไป สถาบันความปลอดภัยของปัญญาประดิษฐ์แห่งสหรัฐอเมริกาประกาศความร่วมมือในวันนี้ ซึ่งถือเป็นก้าวสําคัญในการกํากับดูแลเทคโนโลยี AI
ข้อตกลงเหล่านี้มีความโดดเด่นเป็นพิเศษเนื่องจากเกิดขึ้นท่ามกลางความสนใจด้านกฎระเบียบที่เพิ่มขึ้นเกี่ยวกับการปรับใช้ AI อย่างมีจริยธรรมและปลอดภัย แคลิฟอร์เนียกําลังจะลงคะแนนเสียงในกฎหมายที่ครอบคลุมซึ่งจะควบคุมการพัฒนาและการใช้งาน AI ภายในรัฐ
เงื่อนไขของข้อตกลงอนุญาตให้สถาบันความปลอดภัย AI ของสหรัฐฯ เข้าถึงโมเดล AI ใหม่ที่สําคัญจากทั้งสองบริษัทก่อนและหลังการเผยแพร่สู่สาธารณะ ความร่วมมือนี้มีจุดมุ่งหมายเพื่อประเมินความสามารถและความเสี่ยงที่อาจเกิดขึ้นของโมเดล AI เหล่านี้
Jason Kwon ประธานเจ้าหน้าที่ฝ่ายกลยุทธ์ของ OpenAI ซึ่งเป็นที่รู้จักในด้านการสร้าง ChatGPT แสดงความสําคัญของบทบาทของสถาบันในการสร้างความเป็นผู้นําของสหรัฐฯ ในการพัฒนา AI Kwon เน้นย้ําถึงศักยภาพของความร่วมมือเหล่านี้ในการทําหน้าที่เป็นรากฐานสําหรับมาตรฐานระดับโลกใน AI
Anthropic ซึ่งได้รับการสนับสนุนจากยักษ์ใหญ่ด้านเทคโนโลยี Amazon (แนสแด็ก:AMZN) และ Alphabet (NASDAQ:GOOGL) ยังไม่ได้ออกแถลงการณ์เกี่ยวกับข้อตกลงนี้
Elizabeth Kelly ผู้อํานวยการสถาบันความปลอดภัย AI ของสหรัฐอเมริกาเน้นย้ําถึงข้อตกลงดังกล่าวว่าเป็นจุดเริ่มต้นที่สําคัญในการชี้นําความก้าวหน้าอย่างมีความรับผิดชอบของเทคโนโลยี AI
สถาบันความปลอดภัย AI ของสหรัฐฯ ซึ่งเป็นพันธมิตรกับสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) ของกระทรวงพาณิชย์จะทํางานร่วมกับสถาบันความปลอดภัย AI ของสหราชอาณาจักร ความพยายามร่วมกันของพวกเขาจะรวมถึงการให้ข้อเสนอแนะแก่บริษัทต่างๆ เกี่ยวกับการปรับปรุงความปลอดภัยที่อาจเกิดขึ้นสําหรับโมเดล AI ของตน
ความคิดริเริ่มนี้โดยสถาบันความปลอดภัย AI ของสหรัฐฯ สอดคล้องกับคําสั่งผู้บริหารที่ออกเมื่อปีที่แล้วโดยประธานาธิบดีโจ ไบเดน คําสั่งนี้มีจุดมุ่งหมายเพื่อจัดการกับความเสี่ยงด้าน AI ที่รู้จักและเกิดขึ้นใหม่ ซึ่งตอกย้ําความมุ่งมั่นของฝ่ายบริหารต่อนวัตกรรม AI ที่ปลอดภัย
รอยเตอร์มีส่วนร่วมในบทความนี้บทความนี้ถูกแปลโดยใช้ความช่วยเหลือจากปัญญาประดิษฐ์(AI) สำหรับข้อมูลเพิ่มเติม โปรดอ่านข้อกำหนดการใช้งาน