Siamblockchain - ในขณะที่ AI มักถูกสวมบทบาทให้มีเนื้อหาที่รุนแรง Anthropic บริษัทที่ดูแลโดยอดีตนักวิจัยของ OpenAI กำลังวางแผนที่จะสร้าง AI ที่สามารถตระหนักรู้ได้ว่าอะไรคือสิ่งที่ดีและอะไรคือสิ่งที่ไม่ดี และให้มีมนุษย์เข้ามาแทรกแซงการตัดสินใจของ AI น้อยที่สุด Claude เป็นแชทบอทที่ Anthropic ออกแบบด้วย “รัฐธรรมนูญ” ซึ่งเป็นกฎที่มีลักษณะเฉพาะ ที่ได้แรงบันดาลใจมาจาก ปฏิญญาสากลว่าด้วยสิทธิมนุษยชน (Universal Declaration of Human Rights) ที่ถูกสร้างขึ้นเพื่อรับรองว่า พฤติกรรมต่าง ๆ จะมีจริยธรรม ควบคู่ไปกับการทำงานที่มีประสิทธิภาพ พร้อมด้วยบรรทัดฐานด้าน “จริยธรรม” อื่น ๆ อย่างกฎของ Apple (NASDAQ:AAPL) สำหรับผู้พัฒนาแอปพลิเคชัน อย่างไรก็ตาม คอนเซปต์ของ “รัฐธรรมนูญ” ที่กรณีนี้อาจถูกพูดในเชิงเปรียบเทียบมากกว่าในเชิงลายลักษณ์อักษร Jared Kaplan อดีตที่ปรึกษาของ OpenAI และหนึ่งในผู้ก่อตั้ง Anthropic กล่าวกับนิตยสาร Wired ว่า รัฐธรรมนูญของ Claude อาจถูกเรียกได้ว่าเป็นชุดฝึกฝนแบบพิเศษที่ผู้ฝึกใช้เพื่อฝึกฝนโมเดล AI เพื่อปรับพฤติกรรมของ AI ให้สอดคล้องกับรัฐธรรมนูญและป้องกันพฤติกรรมที่อาจเป็นปัญหา วิธีการฝึก AI ของ
กดอ่านข่าว พบกับ “Claude” แชทบอท AI ที่สามารถแยกแยะเรื่อง “ดี” และ “ไม่ดี” ได้ด้วยตัวเอง ต่อที่ Siam Blockchain