กระทรวงกลาโหมสหรัฐกำลังประเมินว่าจะขึ้นบัญชีบริษัทปัญญาประดิษฐ์ Anthropic เป็น “รายชื่อดำในห่วงโซ่อุปทาน” เพื่อกีดกันโมเดลชั้นนำของบริษัทอย่าง Claude ในระบบการป้องกันประเทศ สาเหตุเกิดจากความแตกต่างในเรื่องการใช้งานทางทหาร โดย Anthropic ยืนกรานว่าต้องตั้งเกณฑ์เชิงตรรกะเพื่อป้องกันไม่ให้ผลิตภัณฑ์ถูกนำไปใช้ในการเฝ้าระวังและอาวุธ ขณะที่กระทรวงกลาโหมเชื่อว่าปัญญาประดิษฐ์ทางทหารต้องสามารถรองรับการใช้งานได้ทุกด้าน
ความเปลี่ยนแปลงในความร่วมมือทางทหาร: Anthropic เผชิญการตรวจสอบ “ความเสี่ยงในห่วงโซ่อุปทาน”
Axios รายงานว่า กระทรวงกลาโหมสหรัฐซึ่งตั้งอยู่ในทำเนียบขาว กำลังพิจารณาแยกธุรกิจของ Anthropic ออกจากกันและอาจขึ้นบัญชีดำใน “รายชื่อความเสี่ยงในห่วงโซ่อุปทาน” ซึ่งเป็นมาตรการลงโทษต่อกลุ่มศัตรูต่างชาติ ซึ่งอาจนำไปสู่การห้ามบริษัทที่ร่วมมือกับกองทัพสหรัฐใช้ระบบ AI ของ Anthropic
ปัจจุบัน โมเดล Claude ของ Anthropic ได้ถูกฝังอยู่ในระบบลับของกองทัพหลายแห่ง หากถูกถอดออก จะทำให้ผู้รับเหมาการดำเนินงานต้องเผชิญกับต้นทุนด้านเทคนิคและการปฏิบัติตามกฎระเบียบจำนวนมาก คาดว่ามูลค่าสัญญาด้านกลาโหมที่อาจได้รับผลกระทบอยู่ที่ประมาณ 2 พันล้านดอลลาร์
เหตุการณ์สำคัญที่เป็นจุดชนวน: ขอบเขตการใช้งาน AI ทางทหารปรากฏชัด
หนึ่งในประเด็นถกเถียงคือ การใช้ Claude ในภารกิจทางทหารเมื่อเดือนมกราคมที่ผ่านมา ซึ่งเป็นภารกิจต่อต้านประธานาธิบดี Nicolás Maduro ของเวเนซุเอลา โดยภารกิจนี้ประสบความสำเร็จผ่านความร่วมมือระหว่าง Anthropic กับบริษัทวิเคราะห์ข้อมูล Palantir
รายงานระบุว่า ผู้บริหารของ Anthropic ได้สอบถามเกี่ยวกับการใช้งานดังกล่าวในภายหลัง และแสดงความกังวลเกี่ยวกับการนำโมเดลไปใช้ในปฏิบัติการที่เกี่ยวข้องกับการยิงจริง ซึ่งเป็นการสร้างความไม่พอใจให้กับกระทรวงกลาโหม สหรัฐเชื่อว่าบริษัทไม่ควรตั้งคำถามต่อการใช้งานทางทหารภายใต้กรอบความร่วมมือที่ลงนามแล้ว จากนั้นทั้งสองฝ่ายได้เจรจาหลายรอบเกี่ยวกับขอบเขตการใช้งาน AI รวมถึงการเฝ้าระวัง การเก็บข่าวกรอง และการพัฒนาอาวุธ
โฆษกกระทรวงกลาโหม สหรัฐ Sean Parnell ยืนยันข่าวนี้และนิยามว่าเป็นเรื่องความมั่นคงของชาติ “พันธมิตรต้องพร้อมช่วยเหลือเราให้ทหารของเราชนะในทุกการต่อสู้ สุดท้ายแล้ว เรื่องนี้เกี่ยวข้องกับความปลอดภัยของกองทัพและประชาชนอเมริกัน”
เมื่อจรรยาบรรณปะทะกับความต้องการด้านความมั่นคงแห่งชาติ กระทรวงกลาโหมจึงแสดงท่าทีแข็งกร้าว
Dario Amodei ซีอีโอของ Anthropic ยืนกรานว่าควรตั้งขอบเขตจรรยาบรรณที่ชัดเจนสำหรับ AI โดยบริษัทมีกฎห้ามใช้โมเดลในการออกแบบอาวุธ การเฝ้าระวังภายในประเทศ และระบบอาวุธอัตโนมัติเต็มรูปแบบ เว้นแต่จะได้รับการประเมินแยกต่างหากภายใต้สัญญาเฉพาะ
(จากเครื่องมือเผด็จการสู่ความเสี่ยงที่อาจควบคุมไม่ได้: คำอธิบายของซีอีโอ Anthropic เกี่ยวกับ 5 ความเสี่ยงจาก AI ที่ทรงพลัง)
อย่างไรก็ตาม กระทรวงกลาโหมเชื่อว่า เครื่องมือ AI ทางทหารต้องสามารถใช้งานได้ใน “ทุกวัตถุประสงค์ที่ถูกกฎหมาย” และชี้ให้เห็นว่าสถานการณ์ในสนามรบจริงมักมีพื้นที่สีเทา การจำกัดอย่างเคร่งครัดอาจลดความคล่องตัวในการปฏิบัติการ ซึ่งมีรายงานว่ากระทรวงกลาโหมได้ตั้งมาตรฐานเดียวกันนี้กับผู้ให้บริการ AI รายอื่น เช่น OpenAI, Google และ xAI (Grok)
(SpaceX เข้าร่วมประมูลเทคโนโลยีโดรนของกระทรวงกลาโหม มัสค์วางแผนพัฒนาทรัพยากร AI สำหรับยุทธศาสตร์ทางทหาร)
เทคโนโลยีบิ๊กเทคเริ่มมีการแข่งขันสูงขึ้น: มัสค์วิจารณ์ Claude ว่ามี “อคติทางเชื้อชาติ”
ในช่วงที่กระทรวงกลาโหมกำลังตรวจสอบ Anthropic ก็เผชิญกับคำวิจารณ์จากคู่แข่ง เช่น Elon Musk ผู้ก่อตั้ง Tesla และ xAI เมื่อไม่นานมานี้ เขาได้กล่าวหาว่า Claude มีอคติทางอุดมการณ์ และตั้งคำถามถึงเนื้อหาที่โมเดลส่งออกว่ามีความไม่เป็นมิตรต่อเชื้อชาติใด โดยเนื่องจาก xAI และ Anthropic แข่งขันกันในตลาดโมเดลภาษาใหญ่และตลาดความร่วมมือด้านกลาโหม การเคลื่อนไหวนี้จึงถูกมองว่าเป็นส่วนหนึ่งของการแย่งชิงอำนาจในอุตสาหกรรม
ขณะนี้ เจ้าหน้าที่ระดับสูงเปิดเผยว่า ในบางสถานการณ์ของรัฐบาลและการใช้งานลับ โมเดลอื่นยังคงด้อยกว่า Claude อยู่บ้าง ซึ่งทำให้การเปลี่ยนผู้ให้บริการอย่างรวดเร็วกลายเป็นปัญหา หากสุดท้ายกระทรวงกลาโหมขึ้นบัญชี Anthropic เป็นความเสี่ยงในห่วงโซ่อุปทาน จะเป็นครั้งแรกที่สหรัฐใช้มาตรการคว่ำบาตรต่อบริษัทเทคโนโลยีในประเทศจากปัญหาเกี่ยวกับการใช้งาน AI ซึ่งเป็นสัญลักษณ์สำคัญของแนวทางความร่วมมือด้านเทคโนโลยีกลาโหม