วอลล์สตรีทเจอร์นัลเปิดเผย: ทรัมป์สั่งฆ่าอายะห์มะนิ ฮามีนีของอิหร่านโดยใช้การระบุด้วย Claude AI, OpenAI เข้าควบคุมระบบของกระทรวงกลาโหมอย่างเต็มรูปแบบ

動區BlockTempo

ตามรายงานของ Wall Street Journal กองบัญชาการกลางสหรัฐฯ (CENTCOM) ใช้ระบบ Claude AI ของ Anthropic ในการโจมตีทางอากาศของอิหร่านเพื่อให้การวิเคราะห์ข่าวกรอง การระบุเป้าหมาย และการจําลองสนามรบ แต่เพียงไม่กี่ชั่วโมงหลังจากที่ทรัมป์ลงนามในคําสั่งผู้บริหารเพื่อปิดกั้น Anthropic เหตุการณ์นี้เน้นย้ําว่า AI ฝังลึกอยู่ในโครงสร้างพื้นฐานด้านกลาโหม และแม้แต่การแบนของประธานาธิบดีก็ยากที่จะตัดขาดในทันที Anthropic ถูกเพนตากอนไล่ออกเนื่องจากปฏิเสธที่จะยกเลิกข้อจํากัดเกี่ยวกับ “อาวุธอัตโนมัติ” และ “การเฝ้าระวังจํานวนมาก” และ OpenAI เข้ายึดครองอย่างรวดเร็ว
(สรุป: ทรัมป์ต้องการแบน Anthropic โดยสิ้นเชิง!) ปฏิเสธที่จะเปลี่ยน “ขีดจํากัดการฆ่า” ของ Claude และคู่ต่อสู้ของเขา OpenAI สนับสนุนเขาเป็นครั้งแรก)
(ภาคเสริมพื้นหลัง: การประลองของเพนตากอนกับมานุษยวิทยา!) เปิดกองทัพ Claude อย่างเต็มที่ “มิฉะนั้นให้ยกเลิกสัญญาและออกไป”)

สารบัญของบทความนี้

สลับ

  • การแบนเพิ่งได้รับการลงนาม และ Claude ยังคง “ทํางาน” ในสนามรบ
  • Anthropic ยึดมั่นในเส้นสีแดงสองเส้นและถูก “ไม่เชื่อฟังและจากไป” อย่างน่าเศร้า
  • OpenAI เข้าครอบครองอย่างรวดเร็ว และการแข่งขันด้านอาวุธ AI ก็เปลี่ยนตัวเอก
  • AI ไม่สามารถย้อนกลับได้: ความเฉื่อยทางเทคนิคที่ไม่สามารถหยุดได้ด้วยการแบน

ในวันเดียวกับที่รัฐบาลทรัมป์สั่งปิดเทคโนโลยี Anthropic โดยสิ้นเชิงเมื่อวันศุกร์ที่แล้ว และรัฐมนตรีว่าการกระทรวงกลาโหมถึงกับระบุว่าเป็น “ความเสี่ยงในห่วงโซ่อุปทาน” การโจมตีทางอากาศของกองทัพสหรัฐฯ ต่ออิหร่านยังคงพึ่งพา Claude AI ในการดําเนินการ ภาพที่ดูเหมือนขัดแย้งกันนี้เผยให้เห็นความเป็นจริงที่น่ากังวล: การแทรกซึมของ AI เข้าสู่ระบบทหารนั้นเกินกว่าคําสั่งผู้บริหารในทันที

การแบนเพิ่งลงนาม และ Claude ยังคง “ทํางาน” ในสนามรบ

แหล่งข่าวที่อ้างถึงโดย Wall Street Journal กองบัญชาการกลางสหรัฐฯ ยังคงใช้ Claude เพื่อปฏิบัติภารกิจสําคัญหลายอย่างระหว่างการโจมตีทางอากาศของอิหร่าน ซึ่งมีชื่อรหัสว่า “ปฏิบัติการ Epic Fury” รวมถึงการวิเคราะห์ข้อมูลข่าวกรอง

Anthropic ลงนามในสัญญาต้นแบบสองปีมูลค่า 200 ล้านดอลลาร์กับเพนตากอนเมื่อฤดูร้อนที่แล้ว และด้วยความร่วมมือระหว่าง Palantir และ Amazon Web Services Claude กลายเป็นโมเดล AI เชิงพาณิชย์ตัวแรกที่ได้รับการอนุมัติให้ทํางานบนเครือข่ายลับของเพนตากอนเพื่อวัตถุประสงค์ตั้งแต่การทดสอบอาวุธไปจนถึงการสื่อสารในสนามรบแบบเรียลไทม์ มีรายงานว่าก่อนหน้านี้ระบบดังกล่าวได้ให้การสนับสนุนในการจับกุมประธานาธิบดีมาดูโรของเวเนซุเอลาในเดือนมกราคมปีนี้

Anthropic ยึดมั่นในเส้นสีแดงสองเส้นและถูก “ไม่เชื่อฟังและถูกทิ้ง” อย่างน่าเศร้า

หัวใจสําคัญของความขัดแย้งคือเพนตากอนขอให้ Anthropic ลบข้อจํากัดการใช้งานในสัญญา ทําให้สามารถใช้ Claude เพื่อ “วัตถุประสงค์ทางกฎหมายทั้งหมด” แต่ Dario Amodei ซีอีโอของ Anthropic ปฏิเสธที่จะประนีประนอมและยืนกรานในบรรทัดล่างทางจริยธรรมสองประการ -

ต้องไม่ใช้ Claude สําหรับการเฝ้าระวังจํานวนมากของพลเมืองสหรัฐฯ หรือเพื่อขับเคลื่อนระบบอาวุธอัตโนมัติเต็มรูปแบบ

Amodei ระบุว่าบริษัทคัดค้านการใช้ AI สําหรับ “การเฝ้าระวังภายในประเทศขนาดใหญ่” และ “ระบบอาวุธอัตโนมัติเต็มรูปแบบ” โดยเน้นย้ําว่าการตัดสินใจทางทหารควรถูกควบคุมโดยมนุษย์ ไม่ใช่ปล่อยให้อัลกอริทึม เขาเขียนในแถลงการณ์ว่า “เราไม่สามารถเห็นด้วยกับคําขอของพวกเขาด้วยจิตสํานึกที่ดี”

รัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth ระบุว่า Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน” ทันที และทรัมป์สั่งให้หน่วยงานของรัฐบาลกลางทั้งหมดโดยตรง “หยุดใช้” เทคโนโลยี Anthropic แม้ว่าหน่วยงานสําคัญ เช่น กระทรวงกลาโหมยังคงมีระยะเวลาเปลี่ยนผ่านหกเดือน Anthropic ได้ประกาศว่าจะท้าทายการค้นพบนี้ในศาล โดยเรียกมันว่า “ไม่มีมูลความจริงทางกฎหมาย” และเตือนว่าการเคลื่อนไหวดังกล่าวจะเป็นแบบอย่างที่อันตรายสําหรับ “บริษัทสหรัฐฯ ที่เจรจากับรัฐบาล”

OpenAI เข้าครอบครองอย่างรวดเร็ว และการแข่งขันด้านอาวุธ AI ก็เปลี่ยนตัวเอก

เพียงไม่กี่ชั่วโมงหลังจากที่ทรัมป์ประกาศแบน Anthropic OpenAI ได้ประกาศข้อตกลงกับกระทรวงกลาโหมเพื่อปรับใช้เทคโนโลยี AI บนเครือข่ายทางทหารที่เป็นความลับ

เป็นมูลค่าการกล่าวขวัญว่าตลอดการโต้เถียง Sam Altman ซีอีโอของ OpenAI ได้สนับสนุน Anthropic ต่อสาธารณะในการสัมภาษณ์พิเศษของ CNBC โดยเรียกมันว่า “น่าเชื่อถือในด้านความปลอดภัย” แม้ว่าในที่สุด OpenAI จะเลือกที่จะรับช่วงต่อสัญญาทางทหารที่ Anthropic ถูกบังคับให้ยอมแพ้ ปฏิสัมพันธ์ที่ละเอียดอ่อนระหว่างยักษ์ใหญ่ด้าน AI นี้สะท้อนให้เห็นถึงสงครามชักเย่อที่ยากลําบากของซิลิคอนวัลเลย์ระหว่างผลประโยชน์ทางธุรกิจและจุดยืนทางจริยธรรม

AI ไม่ถอยหลัง: ความเฉื่อยทางเทคนิคที่แบนไม่สามารถหยุดได้

สิ่งที่กระตุ้นความคิดมากที่สุดเกี่ยวกับเหตุการณ์นี้ไม่ใช่การต่อสู้ทางการเมืองระหว่างทรัมป์และแอนมานุษยวิทยา แต่เป็นข้อเท็จจริงพื้นฐานกว่า: เมื่อระบบ AI ฝังลึกอยู่ในทุกการเชื่อมโยงทางทหารตั้งแต่การวิเคราะห์ข่าวกรองไปจนถึงการกําหนดเป้าหมายคําสั่งบริหารที่ “ถอดปลั๊ก” จะไม่สามารถมีผลได้ในช่วงเวลาสั้น ๆ

สําหรับชุมชนสกุลเงินดิจิทัลและ Web3 กรณีนี้ยังให้การเปิดเผยอย่างระมัดระวัง - ไม่ว่าจะเป็น AI หรือบล็อกเชน เมื่อเทคโนโลยีเข้าสู่แกนหลักของรัฐบาลและระบบป้องกัน อุดมคติของ “การกระจายอํานาจ” จะต้องเผชิญกับการทดสอบ “เจตจํานงของชาติ” ในทางปฏิบัติ ประสบการณ์ของ Anthropic แสดงให้เห็นว่าราคาของการปฏิบัติตามจริยธรรมทางเทคนิคอาจเป็นการสูญเสียลูกค้าที่ใหญ่ที่สุด

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น