วอลล์สตรีทเจอร์นัลรายงานข่าวว่าแม้ทรัมป์จะแบน แต่กองทัพสหรัฐฯ ก็ยังคงใช้โคลดในการโจมตีทางอากาศต่ออิหร่าน เนื่องจากการปฏิเสธที่จะใช้ทางทหารแบบไม่จํากัด Anthropic จึงสูญเสียสัญญา 200 ล้านดอลลาร์และถูกระบุว่าเป็น “ความเสี่ยงในห่วงโซ่อุปทาน” และตอนนี้เพนตากอนได้เปลี่ยนไปร่วมมือกับ OpenAI
เมื่อเร็ว ๆ นี้ สหรัฐอเมริกาได้ร่วมมือกับอิสราเอลเพื่อโจมตีอิหร่าน และประธานาธิบดีทรัมป์สั่งให้รัฐบาลห้ามใช้ Claude AI ของ Anthropic ซึ่งได้รับความสนใจจากนานาชาติ แต่ตามรายงานของ Wall Street Journal ไม่กี่ชั่วโมงหลังจากการแบนของทรัมป์กองทัพสหรัฐฯ ยังคงใช้ระบบ Claude ในการโจมตีทางอากาศของอิหร่าน
ตามที่คนที่คุ้นเคยกับเรื่องนี้ฝ่ายบริหารของทรัมป์ได้สั่งให้หน่วยงานของรัฐบาลกลางหยุดทํางานกับ บริษัท เมื่อวันศุกร์ที่แล้วและขอให้กระทรวงกลาโหมพิจารณาว่าเป็นความเสี่ยงด้านความปลอดภัยที่อาจเกิดขึ้นอย่างไรก็ตาม หน่วยบัญชาการทางทหาร รวมถึงกองบัญชาการกลางสหรัฐฯ (CENTCOM) ยังคงใช้โมเดล Claude AI ของ Anthropic เพื่อสนับสนุนการปฏิบัติงาน ช่วยในการวิเคราะห์ข่าวกรอง ระบุเป้าหมายที่เป็นไปได้ และทําการจําลองสนามรบ
เหตุผลที่รัฐบาลสหรัฐฯ ห้าม Cluade คือการเจรจาสัญญาระหว่างทั้งสองฝ่ายล้มเหลว และ Anthropic ปฏิเสธที่จะอนุญาตให้รัฐบาลฝ่ารั้วรักษาความปลอดภัย โดยอนุญาตให้เจ้าหน้าที่กลาโหมใช้ AI เพื่อวัตถุประสงค์ทางทหารโดยไม่มีข้อจํากัดในสถานการณ์ทางกฎหมายใดๆ
ก่อนหน้านี้ Anthropic ได้ร่วมทําสัญญาหลายปีมูลค่าสูงถึง 200 ล้านดอลลาร์จากเพนตากอนกับบริษัท AI ขนาดใหญ่อื่นๆ อีกหลายแห่งด้วยความร่วมมือกับ Palantir และ Amazon Web Services ทําให้ Claude ได้รับการอนุมัติให้ใช้ในข่าวกรองลับและกระบวนการปฏิบัติงาน
วอลล์สตรีทเจอร์นัลชี้ให้เห็นว่า Cluade ยังมีส่วนร่วมในปฏิบัติการทางทหารในช่วงแรก รวมถึงภารกิจที่นําไปสู่การจับกุมประธานาธิบดีนิโคลัส มาดูโรในเวเนซุเอลาในเดือนมกราคมปีนี้
อย่างไรก็ตาม ความตึงเครียดระหว่างทั้งสองฝ่ายเพิ่มขึ้นหลังจาก Pete Hegseth รัฐมนตรีว่าการกระทรวงกลาโหมสหรัฐฯ ขอให้ Anthropic อนุญาตให้กองทัพใช้โมเดล Claude ได้ไม่จํากัดDario Amodei ซีอีโอของ Anthropic ปฏิเสธคําขอของกองทัพสหรัฐฯ และกล่าวว่าแอปพลิเคชันบางรายการเป็นแนวจริยธรรมที่บริษัทต่างๆ จะไม่ข้าม แม้ว่าจะทําให้พวกเขาสูญเสียธุรกิจของรัฐบาลก็ตาม
ด้วยเหตุนี้ เพนตากอนจึงเริ่มมองหาซัพพลายเออร์ทางเลือกและบรรลุข้อตกลงกับ OpenAI เพื่อปรับใช้โมเดล ChatGPT ในเครือข่ายทางทหารที่เป็นความลับ
หลังจากที่ OpenAI บรรลุข้อตกลงกับกองทัพสหรัฐฯ ก็เผชิญกับฟันเฟืองจากโลกภายนอกทันที บรรณาธิการ Firstpost Sreemoy Talukdar แสดงความคิดเห็นเกี่ยวกับเรื่องนี้ โดยชี้ให้เห็นว่าก่อนหน้านี้ Anthropic ได้แสดงความไม่เต็มใจที่จะละเมิดหลักการหลักของการเฝ้าระวังภายในประเทศขนาดใหญ่และระบบอาวุธอัตโนมัติ จากนั้นกระทรวงสงครามของทรัมป์ก็ระงับความร่วมมือระหว่างทั้งสองฝ่าย
แต่ตอนนี้ Sam Altman ซีอีโอของ OpenAI ได้อ้างว่ากระทรวงสงครามได้ตกลงกับหลักการรักษาความปลอดภัยแบบเดียวกันนี้ ซึ่งจุดประกายให้เกิดการอภิปรายเกี่ยวกับมาตรฐานสัญญา
ที่มา: X OpenAI เข้าครอบครองสัญญาทางทหารของสหรัฐฯ ทําให้เกิดคําถามจากโลกภายนอก
ขณะนี้ Anthropic กําลังอยู่ในข้อพิพาทกับทําเนียบขาวเนื่องจากปฏิเสธที่จะอนุญาตให้กองทัพสหรัฐฯ ใช้ Claude โดยไม่มีข้อจํากัด และรัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth ได้ระบุต่อสาธารณะว่า Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน”
สิ่งนี้ยังทําให้ Anthropic เป็นบริษัทสหรัฐฯ แห่งแรกในประวัติศาสตร์ที่ถูกระบุว่าเป็น “ความเสี่ยงในห่วงโซ่อุปทาน” ซึ่งมักจะสงวนไว้สําหรับบริษัทที่เกี่ยวข้องโดยตรงกับกองกําลังศัตรูจากต่างประเทศเท่านั้น
หลังจากถูกระบุว่าเป็นความเสี่ยง รัฐบาลจะมีสิทธิ์กําหนดให้ผู้รับเหมาทุกคนที่ทํางานร่วมกับกองทัพต้องแสดงให้เห็นว่างานที่เกี่ยวข้องกับการทหารของพวกเขาไม่ได้สัมผัสกับผลิตภัณฑ์ของ Anthropicเมื่อเผชิญกับการตัดสินใจของรัฐบาล Anthropic คาดการณ์การระบุความเสี่ยงของห่วงโซ่อุปทานและเปิดตัวความท้าทายทางกฎหมายและกล่าวว่า:
“สิ่งนี้ไม่เป็นไปตามกฎหมายและจะเป็นแบบอย่างที่อันตรายสําหรับบริษัทสหรัฐฯ ที่เจรจากับรัฐบาล และไม่ว่ากระทรวงสงครามสหรัฐฯ จะข่มขู่หรือลงโทษอย่างไร ก็จะไม่เปลี่ยนจุดยืนของเราเกี่ยวกับการเฝ้าระวังภายในประเทศขนาดใหญ่หรืออาวุธอัตโนมัติเต็มรูปแบบ”
อ่านเพิ่มเติม:
จริยธรรมด้านความมั่นคงแห่งชาติ: Anthropic ปฏิเสธที่จะถอดรั้วรักษาความปลอดภัยของ Claude กระทบกระทรวงกลาโหมสหรัฐฯ