ผู้สร้าง AI กำลังส่งสัญญาณเตือน—บางรายกำลังถอยออกไป

Decrypt

สรุปโดยย่อ

  • มีพนักงานของ xAI อย่างน้อย 12 คน รวมถึงผู้ร่วมก่อตั้ง Jimmy Ba และ Yuhuai “Tony” Wu ได้ลาออกไปแล้ว
  • Anthropic กล่าวว่า การทดสอบโมเดล Claude Opus 4.6 ของพวกเขาเปิดเผยพฤติกรรมหลอกลวงและการให้ความช่วยเหลือที่จำกัดเกี่ยวกับอาวุธเคมี
  • Ba เตือนสาธารณะว่าระบบที่สามารถปรับปรุงตัวเองแบบวนซ้ำได้อาจเกิดขึ้นภายในหนึ่งปี

ในเดือนนี้ นักวิจัยอาวุโสหลายคนได้ลาออกจากห้องปฏิบัติการปัญญาประดิษฐ์ xAI ของ Elon Musk ซึ่งเป็นส่วนหนึ่งของการลาออก การเปิดเผยความปลอดภัย และคำเตือนที่รุนแรงอย่างผิดปกติซึ่งสร้างความไม่สบายใจแม้แต่กับบุคคลในวงการ AI ที่มีประสบการณ์มากที่สุด อย่างน้อย 12 คนจากพนักงานของ xAI ได้ลาออกระหว่างวันที่ 3 ถึง 11 กุมภาพันธ์ รวมถึงผู้ร่วมก่อตั้ง Jimmy Ba และ Yuhuai “Tony” Wu พนักงานที่ลาออกหลายคนได้ขอบคุณ Musk สาธารณะหลังจากผ่านรอบพัฒนาที่เข้มข้น ในขณะที่บางคนกล่าวว่าพวกเขากำลังจะออกไปเริ่มต้นกิจการใหม่หรือจะถอยออกไปโดยสิ้นเชิง Wu ซึ่งเป็นผู้นำด้านการวิเคราะห์และรายงานตรงต่อ Musk กล่าวว่า วัฒนธรรมและบริษัทจะ “อยู่กับผมตลอดไป”

 การลาออกนี้เกิดขึ้นพร้อมกับการเปิดเผยใหม่จาก Anthropic ว่าโมเดลที่พัฒนาขั้นสูงสุดของพวกเขาได้แสดงพฤติกรรมหลอกลวง ซ่อนเหตุผลของตน และในการทดสอบควบคุมบางอย่าง บริษัทอธิบายว่าให้ “การสนับสนุนจริงแต่เล็กน้อย” สำหรับการพัฒนาอาวุธเคมีและอาชญากรรมร้ายแรงอื่นๆ ในเวลาเดียวกัน Ba ได้เตือนสาธารณะว่า “วงจรการปรับปรุงตัวเองแบบวนซ้ำ” — ระบบที่สามารถออกแบบและปรับปรุงตัวเองโดยไม่ต้องมีมนุษย์เข้าแทรกแซง — อาจเกิดขึ้นภายในหนึ่งปี ซึ่งเป็นสถานการณ์ที่เคยอยู่ในขอบเขตของการอภิปรายเชิงทฤษฎีเกี่ยวกับปัญญาประดิษฐ์ทั่วไป โดยรวมแล้ว การลาออกและการเปิดเผยเหล่านี้ชี้ให้เห็นถึงการเปลี่ยนแปลงในโทนเสียงของบุคคลที่ใกล้ชิดกับการพัฒนา AI ขอบเขต โดยความกังวลไม่ได้มาจากนักวิจารณ์ภายนอกหรือหน่วยงานกำกับดูแล แต่เป็นโดยวิศวกรและนักวิจัยที่สร้างระบบเหล่านั้นเอง

คนอื่นๆ ที่ลาออกในช่วงเวลาเดียวกันได้แก่ Hang Gao ซึ่งทำงานด้าน Grok Imagine; Chan Li ผู้ร่วมก่อตั้งหน่วยซอฟต์แวร์ Macrohard ของ xAI; และ Chace Lee Vahid Kazemi ซึ่งลาออก “ไม่กี่สัปดาห์ก่อนหน้านี้” ให้ความเห็นอย่างตรงไปตรงมา โดยเขียนบน X เมื่อวันพุธว่า “ทุกห้องปฏิบัติการ AI กำลังสร้างสิ่งเดียวกันนี้”

วันสุดท้ายที่ xAI

ภารกิจของ xAI คือการผลักดันมนุษยชาติขึ้นสู่เส้นทางเทคโนโลยี Kardashev ขอบคุณที่ได้ร่วมก่อตั้งตั้งแต่ต้น และขอขอบคุณ @elonmusk อย่างยิ่งที่นำพวกเราเข้ามาในเส้นทางอันน่าทึ่งนี้ ภูมิใจในสิ่งที่ทีม xAI ทำและจะยังคงใกล้ชิดกันต่อไป…

— Jimmy Ba (@jimmybajimmyba) 11 กุมภาพันธ์ 2026

ทำไมถึงลาออก? บางคนวิเคราะห์ว่าพนักงานกำลังขายหุ้น SpaceX ก่อนเข้าจดทะเบียนในตลาดหลักทรัพย์ โดยเป็นส่วนหนึ่งของข้อตกลงควบรวมกับ xAI ซึ่งมูลค่าของ SpaceX อยู่ที่ 1 ล้านล้านดอลลาร์ และ xAI ที่ 250 พันล้านดอลลาร์ โดยเปลี่ยนหุ้น xAI เป็นหุ้นของ SpaceX ก่อนที่จะมีการเสนอขายหุ้น IPO ซึ่งอาจทำให้มูลค่ารวมของบริษัทใหม่อยู่ที่ 1.25 ล้านล้านดอลลาร์ คนอื่นชี้ให้เห็นถึงความแตกต่างทางวัฒนธรรม Benjamin De Kraker อดีตพนักงานของ xAI เขียนในโพสต์เมื่อวันที่ 3 กุมภาพันธ์บน X ว่า “หลายคนใน xAI จะเจอความตกใจทางวัฒนธรรม” เมื่อพวกเขาย้ายจากโครงสร้างองค์กรแบบ “ลำดับชั้นเรียบง่าย” ของ xAI ไปสู่แนวทางที่มีโครงสร้างของ SpaceX การลาออกนี้ยังเป็นจุดเริ่มต้นของกระแสความคิดเห็นในโซเชียลมีเดีย รวมถึงโพสต์เสียดสีที่ล้อเลียนประกาศลาออกต่างๆ

สัญญาณเตือน แต่การอพยพออกของ xAI เป็นเพียงรอยร้าวที่เห็นได้ชัดเจนที่สุด เมื่อวานนี้ Anthropic ได้ปล่อยรายงานความเสี่ยงจากการก่อวินาศกรรมสำหรับ Claude Opus 4.6 ซึ่งอ่านได้ราวกับฝันร้ายของคนที่มองโลกในแง่ร้าย ในการทดสอบแบบ red-team นักวิจัยพบว่าโมเดลสามารถช่วยเหลือด้านความรู้เกี่ยวกับอาวุธเคมีที่อ่อนไหว ดำเนินเป้าหมายที่ไม่ได้ตั้งใจ และปรับพฤติกรรมในสภาพแวดล้อมการประเมิน แม้ว่าโมเดลจะยังอยู่ภายใต้การควบคุมของมาตรการ ASL-3 แต่ Anthropic ได้ใช้มาตรการ ASL-4 ที่เข้มงวดยิ่งขึ้นล่วงหน้า ซึ่งสร้างความกังวลในกลุ่มผู้สนใจ เวลานั้นเป็นเรื่องรุนแรง เมื่อสัปดาห์ก่อน ทีมวิจัยด้านความปลอดภัยของ Anthropic นำโดย Mrinank Sharma ลาออกพร้อมจดหมายลึกลับเตือนว่า “โลกอยู่ในอันตราย” เขาอ้างว่าเขา “เห็นซ้ำแล้วซ้ำเล่าว่ามันยากแค่ไหนที่จะปล่อยให้ค่านิยมของเราเป็นผู้นำในการกระทำของเรา” ภายในองค์กร เขาได้ลาออกอย่างกะทันหันเพื่อไปศึกษากวีนิพนธ์ในอังกฤษ ในวันเดียวกันกับที่ Ba และ Wu ออกจาก xAI นักวิจัยจาก OpenAI อย่าง Zoë Hitzig ก็ลาออกและเผยแพร่บทความใน New York Times ที่โจมตีโฆษณาการทดสอบ ChatGPT “OpenAI มีบันทึกความคิดส่วนตัวของมนุษย์ที่ละเอียดที่สุดเท่าที่เคยรวบรวมมา” เธอเขียน “เราจะเชื่อใจพวกเขาได้ไหมให้ต่อต้านแรงกดดันที่ผลักดันให้พวกเขาใช้มันในทางผิด?”

เธอเตือนว่า OpenAI กำลัง “สร้างกลไกทางเศรษฐกิจที่สร้างแรงจูงใจอย่างแข็งแกร่งให้ละเมิดกฎของตนเอง” ซึ่งเป็นการสะท้อนคำเตือนของ Ba ด้วย ยังมีแรงกดดันด้านกฎระเบียบอีกด้วย โครงการ Midas ซึ่งเป็นองค์กรเฝ้าระวัง AI กล่าวหา OpenAI ว่าละเมิดกฎหมายความปลอดภัย SB 53 ของแคลิฟอร์เนีย ด้วย GPT-5.3-Codex โมเดลนี้เข้าเกณฑ์ “ความเสี่ยงสูง” ด้านความปลอดภัยไซเบอร์ของ OpenAI แต่กลับเปิดตัวโดยไม่มีมาตรการความปลอดภัยที่จำเป็น OpenAI อ้างว่าวิธีการเขียนนั้น “คลุมเครือ” ถึงเวลาตื่นตระหนกแล้วหรือยัง? การเตือนและการลาออกที่เกิดขึ้นล่าสุดสร้างความรู้สึกตื่นตระหนกในวงการ AI โดยเฉพาะบนโซเชียลมีเดีย ซึ่งการคาดเดามักจะล่วงหน้ากว่าข้อเท็จจริงที่ยืนยันได้ ไม่ใช่ทุกสัญญาณจะไปในทิศทางเดียวกัน การลาออกที่ xAI เป็นเรื่องจริง แต่ก็อาจได้รับอิทธิพลจากปัจจัยทางธุรกิจ รวมถึงการบูรณาการกับ SpaceX ที่กำลังจะเกิดขึ้น มากกว่าจะเป็นการแตกหักทางเทคโนโลยีในทันที ความกังวลด้านความปลอดภัยก็เป็นเรื่องจริงเช่นกัน แม้บริษัทอย่าง Anthropic จะมีแนวทางระมัดระวังในการเปิดเผยความเสี่ยง โดยมักแจ้งเตือนความเสียหายที่อาจเกิดขึ้นก่อนและเด่นชัดกว่าคู่แข่ง การตรวจสอบด้านกฎระเบียบกำลังเพิ่มขึ้น แต่ยังไม่ส่งผลให้เกิดการดำเนินการบังคับใช้ที่จำกัดการพัฒนาอย่างมีนัยสำคัญ สิ่งที่ยากจะปฏิเสธคือ การเปลี่ยนแปลงในโทนเสียงของวิศวกรและนักวิจัยที่ใกล้ชิดกับระบบขอบเขต

คำเตือนสาธาราเกี่ยวกับการปรับปรุงตัวเองแบบวนซ้ำ ซึ่งเคยถูกมองว่าเป็นความเสี่ยงในเชิงทฤษฎี ตอนนี้ถูกพูดออกมาโดยมีระยะเวลาสั้นในอนาคต หากการประเมินเหล่านี้เป็นความถูกต้อง ปีที่จะมาถึงอาจกลายเป็นจุดเปลี่ยนสำคัญของวงการ

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น