Генеральний директор Anthropic виступає проти нагляду та автоматичної зброї, отримавши від Пентагону ярлик «ризик ланцюга постачання»

TapChiBitcoin

Генеральний директор компанії AI Anthropic, Даріо Амоді, висловився щодо Міністерства оборони та Білого дому після того, як військові підрядники, що співпрацюють із Міноборони США, були зобов’язані припинити використання продуктів Anthropic.

У інтерв’ю CBS News у суботу Амоді заявив, що Anthropic виступає проти використання своїх моделей штучного інтелекту для масового нагляду в країні та розробки повністю автоматичної зброї, яка може вогонь без будь-якого людського втручання.

Він підкреслив, що Anthropic погоджується з більшістю пропозицій уряду США щодо застосування ШІ, окрім двох сфер. За словами Амоді, це є ключовими питаннями для американського населення, зокрема право не підлягати спостереженню з боку уряду та право військових командирів самостійно приймати рішення щодо війни, а не передавати весь контроль машинам.

Раніше Міноборони США позначило Anthropic як «ризик ланцюга постачання», що означає, що військові підрядники не мають права використовувати продукцію компанії у військових контрактах. Амоді назвав цю ініціативу «безпрецедентною» та «каральною».

Однак, генеральний директор Anthropic також уточнив, що він не повністю проти розвитку автоматичної зброї в майбутньому, особливо якщо іноземні армії почнуть впроваджувати цю технологію. За його словами, нинішня проблема полягає в тому, що ШІ ще недостатньо надійний для повністю автономної роботи в військовому середовищі.

Амоді вважає, що правова база не встигає за швидким розвитком галузі ШІ і закликає Конгрес США створити «захисні бар’єри», щоб запобігти застосуванню ШІ для масового нагляду всередині країни.

У зв’язку з цим, міністр оборони США Піт Гегсетх у п’ятницю заявив, що Anthropic є «ризиком ланцюга постачання для національної безпеки» і закликав усіх підрядників, постачальників або партнерів, що співпрацюють із військовими США, негайно припинити будь-яку комерційну діяльність із цією компанією.

Лише кілька годин потому, конкурент Anthropic — OpenAI — уклав контракт із Міноборони США для розгортання своїх моделей ШІ у військовій мережі.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів