3 березня було повідомлено, що новина про угоду OpenAI про співпрацю у сфері ШІ з Міністерством оборони США продовжує розширюватися, і нещодавно низка нинішніх та колишніх співробітників публічно обговорювали межі безпеки, потенційне використання та відмінності між позицією угоди та позицією Anthropic щодо соціальної платформи X, що привернуло широку увагу у сфері технологій і політики.
Генеральний директор OpenAI Сем Олтман раніше підтвердив, що компанія досягла угоди про співпрацю з Міністерством оборони США, що дозволяє їй використовувати моделі штучного інтелекту OpenAI за певних умов. Співпраця швидко стала суперечливою, оскільки інша компанія з ШІ, Anthropic, раніше відмовлялася приймати подібні умови через побоювання, що її модель Claude може бути використана для масштабного внутрішнього спостереження або автономних летальних систем озброєння.
У відповідь дослідник OpenAI Боаз Барак заявив, що неточно описувати контракт OpenAI як «послаблення червоних ліній безпеки». Він зазначив, що з наявної інформації обмеження на використання моделей ШІ в угоді OpenAI можуть бути суворішими, ніж контракти, отримані раніше Anthropic, особливо щодо запобігання масштабному внутрішньому спостереженню та автономній зброї.
Тим часом Майлз Брандейдж, колишній керівник політичних досліджень OpenAI, висловлює іншу точку зору. Він вважає, що на тлі зовнішніх юристів і публічних заяв Пентагону деякі працівники можуть підозрювати, що компанія пішла на поступки під час переговорів, і намагатися вкласти такі поступки, як технічна співпраця. Однак пізніше він додав, що внутрішня структура OpenAI є складною, і команда, залучена до переговорів, дійсно може наполегливо працювати над досягненням розумного результату.
Інший технік OpenAI, Клайв Чан, повідомив, що контракт компанії містить запобіжну умову, яка забороняє використання ШІ для масового спостереження або автономної летальної зброї, і сказав, що наполягає, щоб компанія розкрила більше деталей угоди у відповідь на занепокоєння громадськості.
Науковець-дослідник Мухаммад Баваріан заявив, що Пентагон несправедливо розглядає Anthropic як ризик для ланцюга постачання. Він вважає, що якщо обидві сторони залишаться спокійними у переговорах, ще є можливість подолати розрив у позиціях.
Крім того, дослідник Ноам Браун зазначив, що початково оголошена формулювання угоди залишило деякі питання, зокрема щодо можливості використання ШІ у нових юридичних формах спостереження. Однак після оновлення офіційного блогу OpenAI ці заяви були скориговані.
Ноам Браун також наголосив, що використання ШІ в агентствах національної безпеки має підлягати демократичному перегляду процесів і не повинно вирішуватися виключно технологічними компаніями чи розвідувальними агентствами. Наразі плани щодо впровадження відповідних систем ШІ для розвідувальних служб, таких як NSA, також призупинені до подальших політичних обговорень.
Цей інцидент відображає складні суперечки, з якими стикається застосування технологій ШІ у сфері національної безпеки. У міру зростання можливостей ШІ очікується, що обговорення військового застосування ШІ, ризиків спостереження за ШІ та етичного управління ШІ, ймовірно, будуть загострюватися.