Військові США використовували Anthropic для удару по Ірану, попри заборону Трампа: WSJ

CryptoBreaking

Згідно з повідомленнями, американські військові покладалися на AI Claude від Anthropic під час масштабної авіаційної операції в Ірані, що сталося за кілька годин після того, як президент Дональд Трамп наказав федеральним агентствам припинити використання цієї моделі. Команди в регіоні, зокрема CENTCOM, нібито використовували Claude для підтримки розвідки, перевірки цілей та симуляцій на полі бою. Цей випадок підкреслює, наскільки глибоко інтегровані інструменти штучного інтелекту у оборонні операції, навіть попри зусилля політиків розірвати зв’язки з окремими постачальниками. Інцидент відображає напругу між директивами керівництва та автоматизацією на місцях, що може вплинути на закупівлі та управління ризиками у оборонних програмах.

Ключові висновки

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів