Уряд Трампа тривалий час займав невтручальну позицію щодо штучного інтелекту, однак тепер, через занепокоєння щодо кібербезпеки, яке викликано потужною моделлю Mythos від Anthropic, що її нещодавно оприлюднили, почав розглядати запровадження механізму державної перевірки перед публічним виходом AI-моделей. Це символізує значний поворот у політиці США щодо регулювання ШІ.
Різкий розворот політики Білого дому з питань ШІ: від вседозволеності до контролю
За повідомленням The New York Times, американські посадовці розповіли, що президент Трамп розглядає можливість видати виконавчий наказ, який створить робочу групу з питань ШІ, до складу якої входили б топи технологічного бізнесу та представники уряду. Група має розробити процедури урядової перевірки перед тим, як нові AI-моделі будуть опубліковані для загалу.
Минулого тижня Білому дому вдалося провести зустрічі щодо цього плану з керівниками Anthropic, Google, OpenAI та інших компаній. Інсайдери зазначають, що потенційний механізм перевірки може посилатися на чинну британську модель: кілька державних органів спільно гарантуватимуть відповідність AI-моделей визначеним стандартам безпеки.
Цей поворот у політиці контрастує з відкритою позицією Трампа в минулому. Лише минулого липня він публічно заявив: «Ми маємо дати цьому немовляті вирости й міцно стати на ноги. Не можна зупинити його дурними правилами», а після вступу на посаду швидко скасував регуляторні процедури, які вимагали від розробників AI проходити оцінку безпеки. Однак усього за кілька місяців напрям державної політики вже змінився.
«Claude Mythos», який Anthropic не наважується оприлюднити, шокував Білий дім
Однією з причин, що, як вважають, змусила Білий дім змінити позицію, стало рішення Anthropic у минулому місяці випустити нову AI-модель Claude Mythos. Anthropic попередила, що Mythos має надзвичайно потужні можливості для виявлення вразливостей у софті — достатньо, аби скористатися слабкими місцями «всіх основних операційних систем і веббраузерів», що може спричинити масштабні кібернапади. Зрештою компанія вирішила не публікувати модель для загального доступу.
Білий дім високо насторожений і побоюється, що якщо станеться руйнівний випадок AI-кібератаки, уряд зіткнеться з серйозними політичними наслідками. Деякі посадовці ще активніше оцінюють ідею створити механізм «пріоритетного отримання» для держави — щоб федеральні структури першими отримали доступ до моделі до її публічного виходу й гарантували, що нова модель дасть військову та розвідувальну цінність для використання Пентагоном.
(Незсанкціонований доступ до зброєрівневої моделі кібербезпеки Anthropic Mythos: як їм це вдалося?)
Юридичні суперечки Anthropic і Пентагону
На тлі коригування політики також розгортається складна судова тяганина між урядом і компаніями. У лютому Anthropic та Пентагон розпочали переговори щодо контракту на 200 млн доларів, однак Anthropic вирішила відмовити у вимогах адміністрації Трампа. Міністерство оборони США натомість внесло Anthropic до списку «ризиків безпеки для державного постачальницького ланцюга». Після цього Anthropic подала позов, намагаючись зупинити такий крок.
У минулому місяці керівник апарату Білого дому Сьюзі Вілз і міністр фінансів Бессент зустрілися в Білому домі з виконавчим директором Anthropic Даріо Амодеї. Розмова була сфокусована на тому, як відновити використання технологій Anthropic урядом. Згодом обидві сторони охарактеризували зустріч як «продуктивну».
Прискорення гонки AI-озброєнь, а регуляторна рамка досі формується
У березні цього року уряд Трампа призначив 13 представників технологічного бізнесу, зокрема генерального директора Meta Марка Цукерберга, генерального директора Nvidia Дженсена Хуана і засновника Oracle Ларрі Еллісона, щоб сформувати нову консультативну раду Білого дому з питань ШІ. Також було оприлюднено законодавчу рамку: вона вимагає від Конгресу виробити єдину загальнонаціональну політику щодо ШІ, яка замінить розрізнені правила на рівні штатів.
Минулого тижня Пентагон оголосив, що досяг угоди з OpenAI, Google, Nvidia, SpaceX, Microsoft, Amazon і Reflection: ці компанії розгорнуть свої AI-інструменти в секретних мережах Міністерства оборони для посилення аналітики даних, підвищення спроможності відстеження обстановки на полі бою та підтримки рішень солдатів у складних умовах ведення бойових дій.
Це свідчить: незалежно від того, як саме еволюціонуватиме регуляторна політика, курс на розширення військового застосування AI в США вже є визначеним. Водночас питання того, як досягти балансу між заохоченням інновацій і контролем ризиків, і далі залишається найскладнішою задачею для Білого дому.
Ця стаття: Anthropic Mythos надто сильний! Білий дім планує вимагати урядову перевірку безпеки перед публікацією нових AI-моделей. Найраніше з’являється в Цепній новинці ABMedia.
Пов'язані статті
Спільне підприємство OpenAI з Anthropic обговорює можливість придбання трьох компаній, що надають сервіси зі штучного інтелекту, 5 травня
Anthropic випустила AI-агенти для фінансових послуг 5 травня
ЄС і Японія поглиблюють співпрацю в галузі ШІ, управління даними та квантових технологій 5 травня
ARR ElevenLabs зростає до $500M за 4 місяці, на 43% від початку року; D-раунд завершується за участі BlackRock, NVentures і 30+ знаменитостей
Elastics завершила раунд передпосіву на $2 мільйона, який очолила Frst
Колишній керівник Qualcomm Алекс Катузіан приєднався до Intel на посаді EVP з Client Computing та Physical AI 4 травня