Генеральний директор компанії AI Anthropic, Даріо Амоді, висловився щодо Міністерства оборони та Білого дому після того, як військові підрядники, що співпрацюють із Міноборони США, були зобов’язані припинити використання продуктів Anthropic.
У інтерв’ю CBS News у суботу Амоді заявив, що Anthropic виступає проти використання своїх моделей штучного інтелекту для масового нагляду в країні та розробки повністю автоматичної зброї, яка може вогонь без будь-якого людського втручання.
Він підкреслив, що Anthropic погоджується з більшістю пропозицій уряду США щодо застосування ШІ, окрім двох сфер. За словами Амоді, це є ключовими питаннями для американського населення, зокрема право не підлягати спостереженню з боку уряду та право військових командирів самостійно приймати рішення щодо війни, а не передавати весь контроль машинам.
Раніше Міноборони США позначило Anthropic як «ризик ланцюга постачання», що означає, що військові підрядники не мають права використовувати продукцію компанії у військових контрактах. Амоді назвав цю ініціативу «безпрецедентною» та «каральною».
Однак, генеральний директор Anthropic також уточнив, що він не повністю проти розвитку автоматичної зброї в майбутньому, особливо якщо іноземні армії почнуть впроваджувати цю технологію. За його словами, нинішня проблема полягає в тому, що ШІ ще недостатньо надійний для повністю автономної роботи в військовому середовищі.
Амоді вважає, що правова база не встигає за швидким розвитком галузі ШІ і закликає Конгрес США створити «захисні бар’єри», щоб запобігти застосуванню ШІ для масового нагляду всередині країни.
У зв’язку з цим, міністр оборони США Піт Гегсетх у п’ятницю заявив, що Anthropic є «ризиком ланцюга постачання для національної безпеки» і закликав усіх підрядників, постачальників або партнерів, що співпрацюють із військовими США, негайно припинити будь-яку комерційну діяльність із цією компанією.
Лише кілька годин потому, конкурент Anthropic — OpenAI — уклав контракт із Міноборони США для розгортання своїх моделей ШІ у військовій мережі.