เมื่อวันที่ 3 มีนาคม มีรายงานว่าข่าวข้อตกลงความร่วมมือด้าน AI ของ OpenAI กับกระทรวงกลาโหมสหรัฐฯ ยังคงหมักหมม และเมื่อเร็ว ๆ นี้พนักงานปัจจุบันและอดีตพนักงานจํานวนหนึ่งได้พูดคุยต่อสาธารณะเกี่ยวกับขอบเขตความปลอดภัย
ก่อนหน้านี้ Sam Altman ซีอีโอของ OpenAI ยืนยันว่าบริษัทได้บรรลุข้อตกลงความร่วมมือกับกระทรวงกลาโหมสหรัฐฯ ซึ่งอนุญาตให้ใช้โมเดลปัญญาประดิษฐ์ของ OpenAI ภายใต้เงื่อนไขเฉพาะ ความร่วมมือนี้กลายเป็นที่ถกเถียงกันอย่างรวดเร็วเนื่องจาก Anthropic บริษัท AI อีกแห่งหนึ่งเคยปฏิเสธที่จะยอมรับข้อกําหนดที่คล้ายคลึงกันเนื่องจากความกังวลว่าโมเดล Claude ของตนอาจใช้สําหรับการเฝ้าระวังภายในประเทศขนาดใหญ่หรือระบบอาวุธร้ายแรงอัตโนมัติ
ในการตอบโต้ Boaz Barak นักวิจัยของ OpenAI กล่าวว่าไม่ถูกต้องที่จะอธิบายสัญญาของ OpenAI ว่าเป็น “เส้นสีแดงด้านความปลอดภัยที่อ่อนแอลง” เขาชี้ให้เห็นว่าจากข้อมูลที่มีอยู่ในปัจจุบัน ข้อจํากัดในการใช้โมเดล AI ในข้อตกลง OpenAI อาจเข้มงวดกว่าสัญญาที่ Anthropic ได้รับก่อนหน้านี้ โดยเฉพาะอย่างยิ่งในแง่ของการป้องกันการเฝ้าระวังภายในประเทศขนาดใหญ่และอาวุธอัตโนมัติ
ในขณะเดียวกัน Miles Brundage อดีตหัวหน้าฝ่ายวิจัยนโยบายของ OpenAI เสนอมุมมองที่แตกต่างออกไป เขาเชื่อว่าเมื่อเทียบกับฉากหลังของทนายความภายนอกและแถลงการณ์ต่อสาธารณะของเพนตากอนพนักงานบางคนอาจสงสัยว่าบริษัทได้ให้สัมปทานในการเจรจาและพยายามบรรจุสัมปทานดังกล่าวเป็นความร่วมมือทางเทคนิค อย่างไรก็ตาม เขากล่าวเสริมในภายหลังว่าโครงสร้างภายในของ OpenAI นั้นซับซ้อน และทีมงานที่เกี่ยวข้องในการเจรจาอาจทํางานอย่างหนักเพื่อให้ได้ผลลัพธ์ที่สมเหตุสมผล
Clive Chan ช่างเทคนิคของ OpenAI อีกคนเปิดเผยว่าสัญญาของบริษัทมีข้อคุ้มครองที่ห้ามใช้ AI สําหรับการเฝ้าระวังจํานวนมากหรืออาวุธร้ายแรงอัตโนมัติ และกล่าวว่าเขากําลังผลักดันให้บริษัทเปิดเผยรายละเอียดเพิ่มเติมของข้อตกลงเพื่อตอบสนองต่อข้อกังวลของสาธารณชน
มูฮัมหมัด บาวาเรีย นักวิทยาศาสตร์การวิจัยกล่าวว่ามันไม่ยุติธรรมที่เพนตากอนจะปฏิบัติต่อ Anthropic เป็นความเสี่ยงในห่วงโซ่อุปทาน เขาเชื่อว่าหากทั้งสองฝ่ายยังคงสงบในการเจรจา ก็ยังมีโอกาสที่จะลดช่องว่างในตําแหน่ง
นอกจากนี้ นักวิจัย Noam Brown ชี้ให้เห็นว่าถ้อยคําที่ประกาศในตอนแรกของข้อตกลงได้ทิ้งคําถามไว้ เช่น ความเป็นไปได้ที่ AI จะถูกนํามาใช้ในการเฝ้าระวังทางกฎหมายรูปแบบใหม่ อย่างไรก็ตาม หลังจากที่ OpenAI อัปเดตบล็อกอย่างเป็นทางการ
Noam Brown ยังเน้นย้ําว่าการใช้ AI ในหน่วยงานความมั่นคงแห่งชาติควรอยู่ภายใต้การทบทวนกระบวนการประชาธิปไตย และไม่ควรตัดสินใจโดยบริษัทเทคโนโลยีหรือหน่วยงานข่าวกรองเพียงอย่างเดียว ปัจจุบัน แผนการปรับใช้ระบบ AI ที่เกี่ยวข้องกับหน่วยข่าวกรอง เช่น NSA ก็ถูกระงับไว้เพื่อรอการอภิปรายนโยบายเพิ่มเติม
เหตุการณ์นี้สะท้อนให้เห็นถึงความขัดแย้งที่ซับซ้อนที่ต้องเผชิญกับการประยุกต์ใช้เทคโนโลยี AI ในด้านความมั่นคงของชาติ การอภิปรายเกี่ยวกับการใช้ AI ทางทหาร ความเสี่ยงในการเฝ้าระวัง AI และการกํากับดูแลทางจริยธรรมของ AI คาดว่าจะร้อนแรงขึ้นอย่างต่อเนื่อง