ตามรายงานของ Wall Street Journal กองบัญชาการกลางสหรัฐฯ (CENTCOM) ใช้ระบบ Claude AI ของ Anthropic ในการโจมตีทางอากาศของอิหร่านเพื่อให้การวิเคราะห์ข่าวกรอง การระบุเป้าหมาย และการจําลองสนามรบ แต่เพียงไม่กี่ชั่วโมงหลังจากที่ทรัมป์ลงนามในคําสั่งผู้บริหารเพื่อปิดกั้น Anthropic เหตุการณ์นี้เน้นย้ําว่า AI ฝังลึกอยู่ในโครงสร้างพื้นฐานด้านกลาโหม และแม้แต่การแบนของประธานาธิบดีก็ยากที่จะตัดขาดในทันที Anthropic ถูกเพนตากอนไล่ออกเนื่องจากปฏิเสธที่จะยกเลิกข้อจํากัดเกี่ยวกับ “อาวุธอัตโนมัติ” และ “การเฝ้าระวังจํานวนมาก” และ OpenAI เข้ายึดครองอย่างรวดเร็ว
(สรุป: ทรัมป์ต้องการแบน Anthropic โดยสิ้นเชิง!) ปฏิเสธที่จะเปลี่ยน “ขีดจํากัดการฆ่า” ของ Claude และคู่ต่อสู้ของเขา OpenAI สนับสนุนเขาเป็นครั้งแรก)
(ภาคเสริมพื้นหลัง: การประลองของเพนตากอนกับมานุษยวิทยา!) เปิดกองทัพ Claude อย่างเต็มที่ “มิฉะนั้นให้ยกเลิกสัญญาและออกไป”)
สารบัญของบทความนี้
สลับ
ในวันเดียวกับที่รัฐบาลทรัมป์สั่งปิดเทคโนโลยี Anthropic โดยสิ้นเชิงเมื่อวันศุกร์ที่แล้ว และรัฐมนตรีว่าการกระทรวงกลาโหมถึงกับระบุว่าเป็น “ความเสี่ยงในห่วงโซ่อุปทาน” การโจมตีทางอากาศของกองทัพสหรัฐฯ ต่ออิหร่านยังคงพึ่งพา Claude AI ในการดําเนินการ ภาพที่ดูเหมือนขัดแย้งกันนี้เผยให้เห็นความเป็นจริงที่น่ากังวล: การแทรกซึมของ AI เข้าสู่ระบบทหารนั้นเกินกว่าคําสั่งผู้บริหารในทันที
แหล่งข่าวที่อ้างถึงโดย Wall Street Journal กองบัญชาการกลางสหรัฐฯ ยังคงใช้ Claude เพื่อปฏิบัติภารกิจสําคัญหลายอย่างระหว่างการโจมตีทางอากาศของอิหร่าน ซึ่งมีชื่อรหัสว่า “ปฏิบัติการ Epic Fury” รวมถึงการวิเคราะห์ข้อมูลข่าวกรอง
Anthropic ลงนามในสัญญาต้นแบบสองปีมูลค่า 200 ล้านดอลลาร์กับเพนตากอนเมื่อฤดูร้อนที่แล้ว และด้วยความร่วมมือระหว่าง Palantir และ Amazon Web Services Claude กลายเป็นโมเดล AI เชิงพาณิชย์ตัวแรกที่ได้รับการอนุมัติให้ทํางานบนเครือข่ายลับของเพนตากอนเพื่อวัตถุประสงค์ตั้งแต่การทดสอบอาวุธไปจนถึงการสื่อสารในสนามรบแบบเรียลไทม์ มีรายงานว่าก่อนหน้านี้ระบบดังกล่าวได้ให้การสนับสนุนในการจับกุมประธานาธิบดีมาดูโรของเวเนซุเอลาในเดือนมกราคมปีนี้
หัวใจสําคัญของความขัดแย้งคือเพนตากอนขอให้ Anthropic ลบข้อจํากัดการใช้งานในสัญญา ทําให้สามารถใช้ Claude เพื่อ “วัตถุประสงค์ทางกฎหมายทั้งหมด” แต่ Dario Amodei ซีอีโอของ Anthropic ปฏิเสธที่จะประนีประนอมและยืนกรานในบรรทัดล่างทางจริยธรรมสองประการ -
ต้องไม่ใช้ Claude สําหรับการเฝ้าระวังจํานวนมากของพลเมืองสหรัฐฯ หรือเพื่อขับเคลื่อนระบบอาวุธอัตโนมัติเต็มรูปแบบ
Amodei ระบุว่าบริษัทคัดค้านการใช้ AI สําหรับ “การเฝ้าระวังภายในประเทศขนาดใหญ่” และ “ระบบอาวุธอัตโนมัติเต็มรูปแบบ” โดยเน้นย้ําว่าการตัดสินใจทางทหารควรถูกควบคุมโดยมนุษย์ ไม่ใช่ปล่อยให้อัลกอริทึม เขาเขียนในแถลงการณ์ว่า “เราไม่สามารถเห็นด้วยกับคําขอของพวกเขาด้วยจิตสํานึกที่ดี”
รัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth ระบุว่า Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน” ทันที และทรัมป์สั่งให้หน่วยงานของรัฐบาลกลางทั้งหมดโดยตรง “หยุดใช้” เทคโนโลยี Anthropic แม้ว่าหน่วยงานสําคัญ เช่น กระทรวงกลาโหมยังคงมีระยะเวลาเปลี่ยนผ่านหกเดือน Anthropic ได้ประกาศว่าจะท้าทายการค้นพบนี้ในศาล โดยเรียกมันว่า “ไม่มีมูลความจริงทางกฎหมาย” และเตือนว่าการเคลื่อนไหวดังกล่าวจะเป็นแบบอย่างที่อันตรายสําหรับ “บริษัทสหรัฐฯ ที่เจรจากับรัฐบาล”
เพียงไม่กี่ชั่วโมงหลังจากที่ทรัมป์ประกาศแบน Anthropic OpenAI ได้ประกาศข้อตกลงกับกระทรวงกลาโหมเพื่อปรับใช้เทคโนโลยี AI บนเครือข่ายทางทหารที่เป็นความลับ
เป็นมูลค่าการกล่าวขวัญว่าตลอดการโต้เถียง Sam Altman ซีอีโอของ OpenAI ได้สนับสนุน Anthropic ต่อสาธารณะในการสัมภาษณ์พิเศษของ CNBC โดยเรียกมันว่า “น่าเชื่อถือในด้านความปลอดภัย” แม้ว่าในที่สุด OpenAI จะเลือกที่จะรับช่วงต่อสัญญาทางทหารที่ Anthropic ถูกบังคับให้ยอมแพ้ ปฏิสัมพันธ์ที่ละเอียดอ่อนระหว่างยักษ์ใหญ่ด้าน AI นี้สะท้อนให้เห็นถึงสงครามชักเย่อที่ยากลําบากของซิลิคอนวัลเลย์ระหว่างผลประโยชน์ทางธุรกิจและจุดยืนทางจริยธรรม
สิ่งที่กระตุ้นความคิดมากที่สุดเกี่ยวกับเหตุการณ์นี้ไม่ใช่การต่อสู้ทางการเมืองระหว่างทรัมป์และแอนมานุษยวิทยา แต่เป็นข้อเท็จจริงพื้นฐานกว่า: เมื่อระบบ AI ฝังลึกอยู่ในทุกการเชื่อมโยงทางทหารตั้งแต่การวิเคราะห์ข่าวกรองไปจนถึงการกําหนดเป้าหมายคําสั่งบริหารที่ “ถอดปลั๊ก” จะไม่สามารถมีผลได้ในช่วงเวลาสั้น ๆ
สําหรับชุมชนสกุลเงินดิจิทัลและ Web3 กรณีนี้ยังให้การเปิดเผยอย่างระมัดระวัง - ไม่ว่าจะเป็น AI หรือบล็อกเชน เมื่อเทคโนโลยีเข้าสู่แกนหลักของรัฐบาลและระบบป้องกัน อุดมคติของ “การกระจายอํานาจ” จะต้องเผชิญกับการทดสอบ “เจตจํานงของชาติ” ในทางปฏิบัติ ประสบการณ์ของ Anthropic แสดงให้เห็นว่าราคาของการปฏิบัติตามจริยธรรมทางเทคนิคอาจเป็นการสูญเสียลูกค้าที่ใหญ่ที่สุด