ผู้เชี่ยวชาญจากทั่วโลกเรียกร้องให้มีการกำกับดูแล AI มากขึ้นเพื่อป้องกันไม่ให้ AI หลุดจากการควบคุมของมนุษย์ ขณะที่ผู้นำระดับโลกมารวมตัวกันที่ปารีสเพื่อร่วมประชุมสุดยอดเกี่ยวกับเทคโนโลยีดังกล่าว
ฝรั่งเศส ซึ่งเป็นเจ้าภาพร่วมในการประชุมวันจันทร์และอังคารกับอินเดีย ได้เลือกที่จะเน้นที่ "การดำเนินการ" ด้าน AI ในปี 2025 แทนที่จะให้ความสำคัญกับปัญหาความปลอดภัยอย่างที่เคยเกิดขึ้นในการประชุมครั้งก่อนๆ ที่ Bletchley Park ของอังกฤษในปี 2023 และกรุงโซล เมืองหลวงของเกาหลีใต้ในปี 2024
วิสัยทัศน์ของฝรั่งเศสคือให้รัฐบาล ธุรกิจ และผู้มีส่วนได้ส่วนเสียอื่นๆ ออกมาสนับสนุนการกำกับดูแล AI ระดับโลก และให้คำมั่นสัญญาเกี่ยวกับความยั่งยืน โดยไม่กำหนดกฎเกณฑ์ที่มีผลผูกพัน
"เราไม่ต้องการใช้เวลาพูดคุยแต่เรื่องความเสี่ยงเท่านั้น ยังมีแง่มุมของโอกาสที่แท้จริงอีกด้วย" อานน์ บูฟเวอรอต์ ทูตด้าน AI ของประธานาธิบดีเอ็มมานูเอล มาครง แห่งฝรั่งเศส กล่าว
แม็กซ์ เทกมาร์ก หัวหน้าสถาบัน Future of Life Institute ซึ่งตั้งอยู่ในสหรัฐฯ และเคยเตือนถึงอันตรายของ AI เป็นประจำ กล่าวกับ AFP ว่าฝรั่งเศสไม่ควรพลาดโอกาสที่จะดำเนินการ
“ฝรั่งเศสเป็นผู้สนับสนุนความร่วมมือระหว่างประเทศที่ยอดเยี่ยม และมีโอกาสที่จะเป็นผู้นำส่วนอื่นๆ ของโลกได้อย่างแท้จริง” นักฟิสิกส์จาก MIT กล่าว
“ที่การประชุมสุดยอดที่ปารีสมีทางแยกใหญ่ และควรยอมรับสิ่งนี้”
'ความมุ่งมั่นที่จะอยู่รอด' ของปัญญาประดิษฐ์
สถาบันของเทกมาร์กสนับสนุนการเปิดตัวแพลตฟอร์มที่มีชื่อว่า Global Risk and AI Safety Preparedness (GRASP) ในวันอาทิตย์ ซึ่งมีเป้าหมายเพื่อระบุความเสี่ยงหลักที่เกี่ยวข้องกับ AI และโซลูชันต่างๆ ที่กำลังพัฒนาอยู่ทั่วโลก
“เราได้ระบุเครื่องมือและเทคโนโลยีประมาณ 300 รายการเพื่อรับมือกับความเสี่ยงเหล่านี้” ไซรัส โฮเดส ผู้ประสานงาน GRASP กล่าว
ผลการสำรวจจะส่งต่อไปยังสโมสรประเทศร่ำรวยของ OECD และสมาชิกของ Global Partnership on Artificial Intelligence (GPAI) ซึ่งเป็นกลุ่มประเทศที่มีสมาชิกเกือบ 30 ประเทศ รวมถึงเศรษฐกิจหลักของยุโรป ญี่ปุ่น เกาหลีใต้ และสหรัฐอเมริกา ซึ่งจะประชุมกันที่กรุงปารีสในวันอาทิตย์
ในสัปดาห์ที่ผ่านมา ยังมีการนำเสนอรายงานความปลอดภัย AI ระหว่างประเทศฉบับแรกเมื่อวันพฤหัสบดี ซึ่งรวบรวมโดยผู้เชี่ยวชาญ 96 คน และได้รับการสนับสนุนจาก 30 ประเทศ สหประชาชาติ สหภาพยุโรป และ OECD
ความเสี่ยงที่ระบุไว้ในเอกสารมีตั้งแต่ความเสี่ยงที่คุ้นเคย เช่น เนื้อหาปลอมบนอินเทอร์เน็ต ไปจนถึงความเสี่ยงที่น่าตกใจยิ่งกว่า
โยชูอา เบนจิโอ ผู้ประสานงานรายงานและนักวิทยาศาสตร์คอมพิวเตอร์ชื่อดัง กล่าวกับ AFP ว่า "มีหลักฐานที่บ่งชี้ถึงความเสี่ยงเพิ่มเติม เช่น การโจมตีทางชีวภาพหรือการโจมตีทางไซเบอร์มากขึ้นเรื่อยๆ"
ในระยะยาว เบนจิโอ ผู้ได้รับรางวัลทัวริงประจำปี 2018 หวั่นเกรงว่ามนุษย์อาจ "สูญเสียการควบคุม" ต่อระบบ AI ซึ่งอาจมีแรงจูงใจจาก "ความต้องการอยู่รอดของตนเอง" ของ AI
"เมื่อ 6 ปีที่แล้ว ผู้คนจำนวนมากคิดว่าการเรียนรู้ภาษาในระดับ ChatGPT-4 นั้นเป็นเพียงนิยายวิทยาศาสตร์เท่านั้น และแล้วมันก็เกิดขึ้น" Tegmark กล่าวโดยอ้างถึงแชทบอทของ OpenAI
"ปัญหาใหญ่ในขณะนี้คือ ผู้มีอำนาจจำนวนมากยังไม่เข้าใจว่าเรากำลังเข้าใกล้การสร้างปัญญาประดิษฐ์ทั่วไป (AGI) มากกว่าการคิดหาวิธีควบคุมมัน"
เหนือกว่าปัญญาประดิษฐ์ของมนุษย์หรือไม่?
AGI หมายถึงปัญญาประดิษฐ์ที่จะเท่าเทียมหรือดีกว่ามนุษย์ในทุกสาขา
แนวทางดังกล่าวได้รับการประกาศโดยผู้นำอย่าง แซม อัลท์แมน ผู้บริหารของบริษัท OpenAI ภายในเวลาไม่กี่ปี
"หากคุณมองดูอัตราการเพิ่มขึ้นของความสามารถเหล่านี้ ก็อาจทำให้คุณคิดว่าเราจะไปถึงจุดนั้นได้ภายในปี 2026 หรือ 2027" ดาริโอ อาโมเดอี คู่แข่งของอัลท์แมนกล่าวเมื่อเดือนพฤศจิกายน
“อย่างเลวร้ายที่สุด บริษัทอเมริกันหรือจีนเหล่านี้จะสูญเสียการควบคุมเรื่องนี้ และหลังจากนั้นโลกก็จะถูกควบคุมโดยเครื่องจักร” เทกมาร์กกล่าว
สจ๊วร์ต รัสเซลล์ ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์จากมหาวิทยาลัยเบิร์กลีย์ในแคลิฟอร์เนีย กล่าวว่าความกลัวที่ยิ่งใหญ่ที่สุดอย่างหนึ่งของเขาคือ “ระบบอาวุธที่ปัญญาประดิษฐ์ซึ่งควบคุมระบบอาวุธนั้นเป็นผู้ตัดสินใจว่าจะโจมตีใคร โจมตีเมื่อใด เป็นต้น”
รัสเซลล์ ซึ่งเป็นผู้ประสานงานของสมาคมปัญญาประดิษฐ์ที่ปลอดภัยและมีจริยธรรมระหว่างประเทศ (IASEI) มอบความรับผิดชอบอย่างหนักแน่นให้กับรัฐบาลในการกำหนดมาตรการป้องกันปัญญาประดิษฐ์ที่ติดอาวุธ
เทกมาร์กกล่าวว่าวิธีแก้ปัญหานั้นง่ายมาก นั่นคือการปฏิบัติต่ออุตสาหกรรมปัญญาประดิษฐ์เช่นเดียวกับอุตสาหกรรมอื่นๆ
“ก่อนที่ใครสักคนจะสร้างเครื่องปฏิกรณ์นิวเคลียร์แห่งใหม่นอกกรุงปารีสได้ พวกเขาจะต้องแสดงให้ผู้เชี่ยวชาญที่รัฐบาลแต่งตั้งเห็นว่าเครื่องปฏิกรณ์นี้ปลอดภัย คุณจะไม่สูญเสียการควบคุม... ปัญญาประดิษฐ์ก็ควรจะเป็นเช่นเดียวกัน” เทกมาร์กกล่าว
Agence France-Presse
Photo by Kazuhiro NOGI / AFP