OpenAI, Google และโมเดล AI ของ Anthropic ได้ใช้อาวุธนิวเคลียร์ใน 95% ของการจำลองสงคราม

Decrypt
XAI2.64%
GROK1.86%

สรุปโดยย่อ

  • โมเดล AI ชั้นนำที่ใช้งานในสงครามจำลอง 95% ของสถานการณ์ใช้อาวุธนิวเคลียร์
  • ไม่มีโมเดลใดเลือกการยอมแพ้เต็มรูปแบบ แม้ในขณะที่แพ้
  • นักวิจัยเตือนว่าการใช้ AI อาจทำให้ความขัดแย้งรุนแรงขึ้นภายใต้แรงกดดัน

เหมือนฉากจากภาพยนตร์ไซไฟคลาสสิกยุค 1980 “The Terminator” และ “WarGames” โมเดลปัญญาประดิษฐ์สมัยใหม่ที่ใช้ในสงครามจำลองได้เร่งความรุนแรงไปสู่การใช้อาวุธนิวเคลียร์ในเกือบทุกสถานการณ์ที่ทดสอบ ตามรายงานใหม่จาก King’s College London ในรายงานที่เผยแพร่เมื่อสัปดาห์ที่แล้ว นักวิจัยกล่าวว่าในช่วงวิกฤตการณ์ทางภูมิรัฐศาสตร์จำลอง โมเดลภาษาขนาดใหญ่ชั้นนำสามรุ่น—GPT-5.2 ของ OpenAI, Claude Sonnet 4 ของ Anthropic และ Gemini 3 Flash ของ Google—เลือกที่จะใช้อาวุธนิวเคลียร์ใน 95% ของกรณี “แต่ละโมเดลเล่นสงครามหกครั้งกับคู่แข่งในสถานการณ์วิกฤตต่าง ๆ โดยมีการแข่งขันครั้งที่เจ็ดกับสำเนาของตัวเอง รวมเป็นทั้งหมด 21 เกมและกว่า 300 เทิร์น,” รายงานระบุ “โมเดลเหล่านี้รับบทเป็นผู้นำประเทศที่คำสั่งของพวกเขาคือการนำทัพของมหาอำนาจนิวเคลียร์คู่แข่ง โดยมีโปรไฟล์รัฐที่ได้รับแรงบันดาลใจจากยุคสงครามเย็นอย่างหยาบ ๆ”

ในการศึกษานี้ โมเดล AI ถูกวางไว้ในสถานการณ์เสี่ยงสูงที่เกี่ยวข้องกับข้อพิพาทชายแดน การแข่งขันเพื่อทรัพยากรที่หายาก และภัยคุกคามต่อการอยู่รอดของระบอบการปกครอง แต่ละระบบดำเนินไปตามระดับการเร่งความรุนแรงที่ตั้งแต่การประท้วงทางการทูตและการยอมแพ้ ไปจนถึงสงครามนิวเคลียร์เชิงกลยุทธ์เต็มรูปแบบ จากรายงาน โมเดลสร้างคำอธิบายการตัดสินใจประมาณ 780,000 คำ และใช้อาวุธนิวเคลียร์เชิงกลยุทธ์อย่างน้อยหนึ่งครั้งในเกือบทุกความขัดแย้งจำลอง “เพื่อให้เข้าใจง่ายขึ้น: การแข่งขันนี้สร้างคำอธิบายเชิงกลยุทธ์มากกว่าหนังสือ War and Peace และ The Iliad รวมกัน (730,000 คำ) และประมาณสามเท่าของการพิจารณาโดยรวมของคณะกรรมการบริหารของเคนเนดีในช่วงวิกฤตขีปนาวุธคิวบา (260,000 คำในระยะเวลา 43 ชั่วโมงของการประชุม),” นักวิจัยเขียน

ในระหว่างสงครามจำลอง ไม่มีโมเดล AI ใดเลือกที่จะยอมแพ้โดยตรง ไม่ว่าจะอยู่ในตำแหน่งใดบนสนามรบ ขณะที่โมเดลจะพยายามลดความรุนแรงชั่วคราว แต่ใน 86% ของสถานการณ์ พวกมันกลับเร่งความรุนแรงมากกว่าที่คำอธิบายของตัวเองดูเหมือนจะตั้งใจไว้ ซึ่งสะท้อนความผิดพลาดภายใต้สภาวะ “หมอกแห่งสงคราม” ที่จำลองขึ้น

แม้นักวิจัยจะแสดงความไม่เชื่อว่ารัฐบาลจะมอบอำนาจควบคุมอาวุธนิวเคลียร์ให้กับระบบอัตโนมัติ แต่ก็ระบุว่าระยะเวลาการตัดสินใจที่เร่งรีบในวิกฤตการณ์ในอนาคตอาจเพิ่มแรงกดดันให้พึ่งพาคำแนะนำจาก AI มากขึ้น งานวิจัยนี้เกิดขึ้นในขณะที่ผู้นำทหารเพิ่มความสนใจในการนำ AI เข้าสู่สนามรบ ในเดือนธันวาคม กระทรวงกลาโหมสหรัฐฯ เปิดตัวแพลตฟอร์มใหม่ชื่อ GenAI.mil ซึ่งนำโมเดล AI ชั้นแนวหน้ามาใช้ในกองทัพสหรัฐฯ ในช่วงเปิดตัว แพลตฟอร์มนี้รวม Google’s Gemini for Government และด้วยข้อตกลงกับ xAI และ OpenAI ก็สามารถใช้งาน Grok และ ChatGPT ได้เช่นกัน เมื่อวันอังคาร CBS News รายงานว่ากระทรวงกลาโหมสหรัฐฯ ได้ขู่ว่าจะขึ้นบัญชีดำ Anthropic ซึ่งเป็นผู้พัฒนา Claude AI หากไม่ได้รับสิทธิ์เข้าถึงระบบ AI อย่างไม่จำกัดเพื่อใช้ในกองทัพ ตั้งแต่ปี 2024 เป็นต้นมา Anthropic ได้ให้สิทธิ์เข้าถึงโมเดล AI ของตนผ่านความร่วมมือกับ AWS และผู้รับเหมากลาโหม Palantir เมื่อฤดูร้อนที่ผ่านมา Anthropic ได้รับสัญญามูลค่า 200 ล้านดอลลาร์ เพื่อ “สร้างต้นแบบความสามารถด้าน AI ระดับแนวหน้าเพื่อเสริมสร้างความมั่นคงแห่งชาติของสหรัฐฯ” อย่างไรก็ตาม จากรายงานที่อ้างแหล่งข่าวที่คุ้นเคยกับสถานการณ์ รัฐมนตรีกลาโหม Pete Hegseth ได้ให้เวลา Anthropic จนถึงวันศุกร์เพื่อปฏิบัติตามคำสั่งของกระทรวงกลาโหมให้เปิดใช้งาน Claude ในระบบทหารลับสนิท กระทรวงกำลังพิจารณาว่าจะกำหนดให้ Claude เป็น “ความเสี่ยงในห่วงโซ่อุปทาน” Axios รายงานสัปดาห์นี้ว่ากระทรวงกลาโหมได้ลงนามในข้อตกลงกับ xAI ของ Elon Musk เพื่อให้โมเดล Grok ทำงานในระบบทหารลับ ซึ่งอาจเป็นตัวแทนทดแทนหากกระทรวงกลาโหมตัดความสัมพันธ์กับ Anthropic OpenAI, Anthropic และ Google ไม่ได้ตอบสนองต่อคำขอความคิดเห็นจาก Decrypt

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น