Siamblockchain - นักฟิสิกส์ชื่อดังและหนึ่งในนักคิดที่ยิ่งใหญ่ที่สุดในยุคของเราอย่าง Stephen Hawking ถือเป็นบุคคลที่ทรงอิทธิพลในวงการฟิสิกส์เชิงทฤษฎีเป็นอย่างมาก โดยเขาเป็นที่รู้จักจากผลงานด้านจักรวาลวิทยาและฟิสิกส์ดาราศาสตร์ แต่หลายคนอาจจะยังไม่เคยรู้ว่าชายคนนี้คือ ชายผู้ที่หลายคนต่างขนานให้ว่าฉลาดที่สุดในโลก และเมื่อครั้งที่เขายังมีชีวิตอยู่ เขายังเคยพูดเตือนเกี่ยวกับ “ภัยอันตรายที่อาจเกิดขึ้นจากเทคโนโลยีปัญญาประดิษฐ์ (AI)” เอาไว้ด้วย “Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last.“ “ความสำเร็จในการสร้างเทคโนโลยี AI จะเป็นเหตุการณ์ที่ยิ่งใหญ่ที่สุดในประวัติศาสตร์ของมวลมนุษยชาติ น่าเสียดายที่มันอาจเป็นครั้งสุดท้าย” Stephen Hawking กล่าวประโยคนี้ไว้ในระหว่างการให้สัมภาษณ์กับสื่อข่าว BBC News เมื่อวันที่ 2 มกราคม ค.ศ. 2015 โดยในการสัมภาษณ์ครั้งนั้น เขาได้กล่าวคำเตือนเกี่ยวกับ AI ไว้หลายประเด็นด้วยกัน คำเตือนเกี่ยวกับ AI ของ Hawking ในครั้งนั้น นำไปสู่การอภิปรายและการโต้วาทีเกี่ยวกับความรับผิดชอบในการพัฒนาและการใช้เทคโนโลยี AI ในวงกว้าง ดังนั้นในวันนี้ทางสยามบล็อกเชนจึงจะพาทุกคนมาย้อนรอยไปพร้อมกันว่าชายผู้ฉลาดที่สุดในโลกคนนี้มองเห็นอะไรในอนาคตของ AI ภัยอันตรายจาก
กดอ่านข่าว ย้อนรอยคำเตือน : ภัยอันตรายจาก AI โดย “Stephen Hawking” ชายผู้ฉลาดที่สุดในโลก ต่อที่ Siam Blockchain