เมื่อวันจันทร์ที่ผ่านมา เหล่าผู้เชี่ยวชาญ นักการเมือง และผู้ได้รับรางวัลโนเบลในวงการเทคโนโลยี เรียกร้องให้ประเทศต่างๆ ทั่วโลกเร่งสร้าง "เส้นตาย" เพื่อกำหนดให้เป็นพื้นที่ที่ปัญญาประดิษฐ์ (AI) จะก่อให้เกิดอันตราย และเป็นเส้นแบ่งที่ AI จะข้ามได้
บุคคลสำคัญกว่า 200 คน รวมถึงผู้ได้รับรางวัลโนเบล 10 คน และนักวิทยาศาสตร์ที่ทำงานให้กับบริษัทยักษ์ใหญ่ด้าน AI อย่าง Anthropic, Google DeepMind, Microsoft และ OpenAI ได้ร่วมลงนามในจดหมายที่เผยแพร่ในช่วงเริ่มต้นการประชุมสมัชชาใหญ่แห่งสหประชาชาติครั้งล่าสุด
“AI มีศักยภาพมหาศาลในการพัฒนาคุณภาพชีวิตของมนุษย์ แต่เส้นทางปัจจุบันของมันกลับก่อให้เกิดอันตรายอย่างที่ไม่เคยเกิดขึ้นมาก่อน” จดหมายดังกล่าวระบุ
“รัฐบาลต้องดำเนินการอย่างเด็ดขาดก่อนที่ช่วงเวลาแห่งการแทรกแซงที่มีความหมายจะปิดลง”
ผู้เขียนจดหมายฉบับนี้ระบุว่า เส้นตายของ AI จะเป็นข้อห้ามที่ได้รับการยอมรับในระดับนานาชาติสำหรับการใช้ที่ถือว่ามีความเสี่ยงสูงเกินไปไม่ว่าในกรณีใดๆ
ตัวอย่างที่ให้ไว้รวมถึงการมอบหมายให้ระบบ AI เป็นผู้บังคับบัญชาคลังอาวุธนิวเคลียร์หรือระบบอาวุธอัตโนมัติที่อันตรายถึงชีวิตทุกประเภท
เส้นแดงอื่นๆ อาจอนุญาตให้ใช้ AI เพื่อการเฝ้าระวังมวลชน การให้คะแนนทางสังคม การโจมตีทางไซเบอร์ หรือการปลอมแปลงตัวตนบุคคล ตามที่ผู้อยู่เบื้องหลังแคมเปญนี้ระบุ
ผู้ที่ลงนามในจดหมายฉบับนี้เรียกร้องให้รัฐบาลต่างๆ จัดทำเส้นแดงของ AI ภายในสิ้นปีหน้า เนื่องจากความก้าวหน้าของเทคโนโลยี
“ในไม่ช้า AI อาจก้าวข้ามขีดความสามารถของมนุษย์ไปมาก และเพิ่มความเสี่ยง เช่น การระบาดใหญ่ที่วางแผนไว้ การบิดเบือนข้อมูลอย่างกว้างขวาง การบิดเบือนบุคคลจำนวนมาก รวมถึงเด็ก ความกังวลด้านความมั่นคงระดับชาติและระหว่างประเทศ การว่างงานจำนวนมาก และการละเมิดสิทธิมนุษยชนอย่างเป็นระบบ” จดหมายฉบับนี้ระบุ
“หากไม่ได้รับการตรวจสอบ ผู้เชี่ยวชาญหลายคน รวมถึงผู้ที่อยู่แถวหน้าของการพัฒนา เตือนว่าการควบคุมโดยมนุษย์อย่างมีความหมายจะยากขึ้นเรื่อยๆ ในอีกไม่กี่ปีข้างหน้า”
Agence France-Presse
Photo - หุ่นยนต์ฮิวแมนนอยด์จาก Digit ถูกจัดแสดงในงานประชุมปัญญาประดิษฐ์โลก (WAIC) ณ ศูนย์การประชุมและนิทรรศการโลกเซี่ยงไฮ้ เมื่อวันที่ 29 กรกฎาคม 2568 (ภาพโดย Hector RETAMAL / AFP)