นี่คือการโค่นการปฏิวัติ AI เจาะเบื้องหลัง OpenAI ไล่ซีอีโอ มันมีอะไรที่ลึกกว่านั้น?
“ความปลอดภัยของ AI เป็นปัญหาที่สำคัญที่สุดที่มนุษยชาติเผชิญอยู่ในปัจจุบัน” อีเลีย ซุตสเกเวอร์ แห่ง OpenAI กล่าวในการสัมภาษณ์ครั้งหนึ่ง “ถ้าเราไม่แก้ไขมัน AI อาจทำลายเราได้”
แนวคิดที่อยู่คำกล่าวนี้คือสาเหตุสำคัญที่ให้เกิดการยึดอำนาจที่ OpenAI และไล่ซีอีโอคนดังออกไป ท่ามกลางความตกตะลึงของคนทั้งโลก
ข้อมูลพื้นฐานของเรื่องราว
• OpenAI เป็นบริษัทปัญญาประดิษฐ์ (AI) ที่ก่อตั้งขึ้นในเดือนธันวาคม 2558 และเปิดตัวแชทบอท ChatGPT ในเดือนพฤศจิกายน 2565 ซึ่งสร้างปรากฏการณ์การนำ AI เข้ามาสู่การใช้งานสาธารณะ และถือเป็นการเปิดยุคแห่งการแข่งขันแชทบอท
• ในแง่การบริหาร OpenAI มีโครงสร้างที่เป็นเอกลักษณ์ คือ แบ่งออกเป็นส่วนที่ไม่แสวงหากำไร (OpenAI, Inc.) และส่วนที่แสวงหากำไร (OpenAI Global, LLC) โดยมีคณะกรรมการบริหารควบคุมอีกชั้นหนึ่ง เพื่อที่จะเข้าใจเรื่องราวทั้งหมด ต้องรู้ก่อนว่าการบริหารองค์กรมีรูปแบบดังนี้
- คณะกรรมการบริหารควบคุม OpenAI, Inc. (ที่ไม่แสวงหาผลกำไร)
- OpenAI, Inc. (ที่ไม่แสวงหาผลกำไร) เป็นเจ้าของและควบคุม OpenAI Global, LLC. (ที่แสวงหาผลกำไร)
- OpenAI, Inc. (ที่ไม่แสวงหาผลกำไร) ยังคุม OpenAI LP บริษัทโฮลดิ้งที่พนักงานของบริษัทและนักลงทุนรายอื่นๆ ร่วมเป็นเจ้าของ
- OpenAI LP (บริษัทโฮลดิ้ง) เป็นเจ้าของหุ้นส่วนใหญ่ของ OpenAI Global, LLC. (ที่แสวงหาผลกำไร) Microsoft เป็นผู้ถือหุ้นส่วนน้อย
ข้อบังคับของ OpenAI ซึ่งประกาศใช้เมื่อเดือนมกราคม 2559 อนุญาตให้คณะกรรมการบริหารส่วนใหญ่ถอดถอนกรรมการคนใดก็ได้โดยไม่มีการเตือนล่วงหน้าหรือต้องมีการประชุมอย่างเป็นทางการโดยได้รับความยินยอมเป็นลายลักษณ์อักษร และนี่คือเหตุผลที่การปลดผู้บริหารระดับสูงเกิดขึ้นได้แบบสายฟ้าแลบ
เมื่อแซม อัลท์แมนเข้ามา
แซม อัลท์แมน (Sam Altman) เข้ามาบริหารบริษัท OpenAI หลังจากการลาออกของประธานร่วม คือ อีลอน มัสก์ในปี 2561 ภายใต้การนำของอัลท์แมน OpenAI ได้เปลี่ยนมาเป็นองค์กรที่แสวงหาผลกำไร อัลท์แมนได้รับเครดิตจากการโน้มน้าวผู้บริหารระดับสูงของ Microsoft มาร่่วมลงทุนมูลค่า 1 หมื่นล้านดอลลาร์สหรัฐใน OpenAI รวมถึงการประสานงานลงทุนอื่นๆ ช่วยเพิ่มมูลค่าของบริษัทขึ้นมาถึงสามเท่า
หลังจากความสำเร็จของ ChatGPT อัลท์แมนได้ออกทัวร์รอบโลกในเดือนพฤษภาคม ปี 2566 ซึ่งเขาไปเยือน 22 ประเทศ และได้พบกับผู้นำและนักการทูตหลายคน แต่เขาก็ต้องขึ้นให้การต่อคณะอนุกรรมการตุลาการวุฒิสภาสหรัฐอเมริกาด้านความเป็นส่วนตัว เทคโนโลยี และกฎหมาย เมื่อวันที่ 16 พฤษภาคม 2023 เกี่ยวกับประเด็นการกำกับดูแล AI ซึ่ง ณ เวลานั้นเริ่มเป็นความกังวลของชาวโลกกันบ้างแล้ว และเป็นประเด็นแตกแยกภายในบริษัท
จนกระทั่งเขาถูกปลดจากตำแหน่งแบบสายฟ้าแลบ จนเซอร์ไพรส์คนทั้งโลก
ทำให้บริษัทรุ่งแล้วทำไมเขาร่วง?
ก็เพราะในคณะกรรมการบริหาร มีคนๆ หนึ่ง คือ อีเลีย ซุตสเกเวอร์ (Ilya Sutskever) เป็นนักวิทยาศาสตร์คอมพิวเตอร์ชาวอิสราเอล-แคนาดา ซึ่งทำงานด้านแมชชีนเลิร์นนิง เป็นผู้ร่วมก่อตั้งและทำหน้าที่เป็นสมาชิกคณะกรรมการ และเป็นหัวหน้านักวิทยาศาสตร์ของ OpenAI
ซุตสเกเวอร์ เป็นนักวิจารณ์การใช้ปัญญาประดิษฐ์ขั้นสูง คนนี้มีบทบาทสำคัญในการไล่ แซม อัลท์แมน ออกจากตำแหน่งซีอีโอ
ทั้งหมดทั้งมวล มาจากความขัดแย้งในเรื่องความปลอดภัยของปัญญาประดิษฐ์ (AI) ทำให้พนักงานในบริษัทแตกแยกกัน โดยเฉพาะอย่างยิ่งการเปิดตัว ChatGPT เป็นประเด็นที่สร้างความแตกแยกกับ OpenAI ในฐานะบริษัทที่แสวงหาผลกำไร โดยไม่คำนึงถึงความปลอดภัยของปัญญาประดิษฐ์ และสั่นคลอนสถานะของบริษัทในฐานะองค์กรไม่แสวงผลกำไรมาแต่เดิม และยังเป็นองค์กรด้าน AI ที่ระมัดระวังความสามารถของ AI ด้วย เพราะมันอาจก่อให้เกิดปัญหาได้
ก่อนที่จะถูกถอดถอน แซม อัลท์แมน กำลังมองหาเงินหลายพันล้านจากกองทุนความมั่งคั่งของตะวันออกกลางเพื่อพัฒนาชิปปัญญาประดิษฐ์เพื่อแข่งขันกับบริษัทชั้นนำอย่าง Nvidia ซึ่งกำลังรุ่งสุดๆ ในธุรกิจชิป และยังติดต่อกับประธาน SoftBank เพื่อพัฒนาฮาร์ดแวร์ปัญญาประดิษฐ์ร่วมกับอดีตนักออกแบบของบริษัท Apple
แต่ อีเลีย ซุตสเกเวอร์ และพันธมิตรของเขาต่อต้านความพยายามเหล่านี้ โดยมองว่าการทำแบบนี้เป็นการใช้ประโยชน์โดยใช้ชื่อ OpenAI เมื่อเจอขวางแบบนี้ อัลท์แมน จึงลดบทบาทของ ซุตสเกเวอร์ ในเดือนตุลาคม 2566 ทำให้เกิดการแบ่งฝ่ายหนักขึ้นไปอีก
แต่ศึกนี้ไม่จบง่ายๆ ซุตสเกเวอร์ ยื่นอุทธรณ์ต่อสมาชิกคณะกรรมการหลายคนได้สำเร็จ และมีบทบาทอีกครั้ง คราวนี้เขาไม่ยอมให้อีกฝ่ายริดรอนเขาง่ายๆ อีก จึงระดมเสียงในคณะกรรมการ ปลด แซม อัลท์แมน ออกไป ในช่วงเวลาที่เสียงสนับสนุน อัลท์แมน ไม่เหลืออยู่เพราะได้ลาออกไปแล้ว
นี่คือการโค่นการปฏิวัติ AI
นี่ไม่ใช่แค่การชิงอำนาจในบริษัท แต่มีสาเหตุมาจากความขัดแย้งเรื่องอุดมการณ์สำคัญคือเรื่อง AI safety หรือความปลอดภัยในการใช้ AI โดยมีประเด็นเรื่องการใช้ OpenAI ในเชิงพาณิชย์มากเกินไปเป็นประเด็นรองลงมา
เรื่องการพาณิชย์เป็นประเด็นมาตั้งแต่สมัยที่ อีลอน มัสก์ เป็นส่วนหนึ่งของบริษัท แต่ต่อมา มัสก์ รามือไปจาก OpenAI เพราะบริษัทตัดสินใจไม่แสวงหากำไรและรับเงินลงทุนหลายพันล้านจาก Microsoft
มัสก์ คือคนที่ชวน ซุตสเกเวอร์ มาร่วมปั้น OpenAI แต่เมื่อบริษัทเปลี่ยนเข็มทิศ ซุตสเกเวอร์ ไม่ยอมออกไปเหมือน มัสก์ แต่เลือกที่จะสู้ต่อ ตามแหล่งข่าวที่ไม่เปิดเผยตัวตนซึ่งเผยกับ Bloomberg บอกว่า ซุตสเกเวอร์ ไม่เห็นด้วยกับการที่ อัลท์แมน เร่งการทำการค้ากับผลิตภัณฑ์ AI กับการพิจารณาเรื่องความปลอดภัยต่อสาธารณะ
ในขณะที่สื่อส่วนใหญ่มุ่งไปที่ประเด็นโครงสร้างบริษัที่พิสดารจนทำให้คนไม่กี่คนปลดซีอีโอได้ แต่ละเลยเรื่องความกังวลของ ซุตสเกเวอร์ เรื่องความปลอดภัยในการใช้ AI
ซุตสเกเวอร์ เป็นผู้พัฒนา AI ระดับชั้นนำคนหนึ่งและปั้น OpenAI ขึ้นมา แต่เมื่อไม่นานมานี้ ซุตสเกเวอร์ เริ่มสนใจอันตรายที่อาจเกิดขึ้นจาก AI โดยเฉพาะโอกาสที่ AI จะสามารถเอาชนะมนุษย์ได้ ซึ่งเขาเชื่อว่าจะเกิดขึ้นได้ภายใน 10 ปี
ซุตสเกเวอร์ เคยกล่าวกับ Technology Review ว่า “เห็นได้ชัดว่าสิ่งสำคัญคือปัญญาขั้นสูง (superintelligence) ใดๆ ที่ใครก็ตามสร้างขึ้นจะต้องไม่กลายเป็นตัวร้าย (rogue)”
ดังนั้น เพื่อรับมือกับปัญญาชั้นสูง หรือ Superintelligence ที่อาจจกลายเป็นตัวร้ายต่อมนุษยชาติได้ ในเดือนกรกฏาคม ซุตสเกเวอร์ จึงประกาศว่าจะมีการสร้าง Superalignment นั่นคือการตีกรอบให้ Superintelligence ถูก alignment หรือทำให้มันสอดคล้องกับหลักจริยธรรมและเป้าหมายของมนุษย์มากขึ้น โดยเป้าหมายคือ "เราต้องการความก้าวหน้าทางวิทยาศาสตร์และทางเทคนิคเพื่อควบคุมและควบคุมระบบ AI อย่างชาญฉลาดกว่าเรามาก" และ เขาจะทำการ "แก้ไขปัญหานี้ภายในสี่ปี"
แถลงการณ์บอกว่า "Superintelligence จะเป็นเทคโนโลยีที่มีผลกระทบมากที่สุดเท่าที่มนุษยชาติเคยคิดค้นมา และอาจช่วยให้เราแก้ไขปัญหาสำคัญๆ มากมายในโลกได้ แต่พลังอันมหาศาลของสติปัญญาก็อาจเป็นอันตรายได้เช่นกัน และอาจนำไปสู่การลดอำนาจของมนุษยชาติหรือแม้กระทั่งการสูญพันธุ์ของมนุษย์"
นี่คือความขัดแย้งที่แท้จริงที่ทำให้เกิดการปฏิวัติขึ้นใน OpenAI ซึ่งแท้จริงแล้ว มันคือการการยึดอำนาจ เพื่อขวางการปฏิวัติ AI ไม่ให้เป็นอันตรายต่อมนุษย์ต่างหาก
(Photo by JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / Getty Images via AFP)