
Директор NEC (Національної економічної ради Білого дому) Кевін Хассетт 7 травня під час інтерв’ю для Fox Business заявив, що адміністрація Трампа розробляє спосіб вимагати через адміністративний наказ, аби моделі ШІ проходили перевірку безпеки урядом перед їхнім публічним випуском, і проводив аналогію з тим, як FDA затверджує лікарські засоби перед виходом на ринок. Але, за повідомленням Politico від 8 травня, високопоставлені посадовці Білого дому згодом заявили, що ці слова були вирвані з контексту.
4 травня 2026 року The New York Times повідомила, що Білий дім обговорює створення механізму попередньої перевірки перед випуском моделей ШІ, тоді це характеризували як «розглядають». 7 травня 2026 року Кевін Хассетт у межах інтерв’ю для Fox Business публічно заявив: «Ми вивчаємо, чи можемо ми через адміністративний наказ вимагати, щоб ШІ, який у майбутньому потенційно може створювати вразливості, був введений в експлуатацію лише після того, як він доведе свою безпеку — як препарати для FDA».
Пізно ввечері 7 травня 2026 року очільниця апарату Білого дому Сьюзі Уілз у дописі в X написала, що уряд «не відповідає за вибір переможців і переможених», і зазначила, що безпечно розгортувати сильні технології має «провідні американські інноватори, а не бюрократичні структури». Згідно з даними, що містяться в її офіційних записах акаунта, цей допис є четвертим публікаційним матеріалом з моменту створення акаунта Уілз.
За інформацією Politico, яку видання отримало від трьох поінформованих осіб без зазначення імен, Білий дім обговорює, щоб розвідслужби проводили попередню оцінку моделей ШІ до їхнього публічного випуску. Один із посадовців уряду США вказав у матеріалі, що метою цього, зокрема, є «гарантувати, що представники розвідки спершу вивчатимуть і використовуватимуть ці інструменти, перш ніж їхні опоненти на кшталт Росії та Китаю дізнаються про нові можливості».
AI Standards and Innovation Center (CAISI) при Міністерстві торгівлі цього тижня оголосив, що уклав угоди про безпекові оцінки ШІ з Google DeepMind, Microsoft та xAI; сфера поширюється на те, що раніше вже включали OpenAI й Anthropic. Добровільна структура оцінювання CAISI запроваджена з 2024 року.
Заступниця міністра оборони Еміл Майкл 8 травня 2026 року під час виступу на AI-конференції у Вашингтоні публічно підтримала урядову попередню оцінку перед випуском моделей ШІ та в промові послалася на систему Anthropic Mythos як на приклад, заявивши, що відповідні моделі «згодом обов’язково з’являться», тож уряд має створити механізм реагування.
За повідомленням Politico, у березні 2026 року міністр оборони Піт Хегсетт, посилаючись на ризики для ланцюга постачання, додав Anthropic до переліку ризиків і заборонив використовувати її моделі для оборонних контрактів відомства. Після цього Трамп окремо розпорядився, щоб федеральні структури протягом шести місяців припинили використання продуктів Anthropic. Водночас Anthropic минулого місяця розкрила, що її система ШІ Mythos має потужні можливості для виявлення вразливостей у програмному забезпеченні, що виходить за межі безпекового порогу для публічного випуску; низка федеральних установ згодом подала заявки на підключення. 8 травня 2026 року OpenAI оголосила про обмежений прев’ю нового інструмента GPT-5.5-Cyber, який має виявляти та виправляти мережеві вразливості.
Голова Інформаційно-технологічного та інноваційного фонду (ITIF) Даніель Кастро в матеріалі Politico заявив: «Якщо перед виходом на ринок можна відмовити в погодженні, то це проблема для будь-якої компанії. Якщо одному конкуренту нададуть погодження, а іншому — ні, то різниця в кілька тижнів або місяців щодо доступу до ринку матиме величезний вплив». Серед донорів ITIF — Anthropic, Microsoft і Meta.
У тому ж матеріалі один із високопоставлених посадовців Білого дому сказав: «Так, є один-два дуже палкі ентузіасти урядового регулювання, але їх — лише кілька». Цей посадовець отримав анонімність через потребу описати чутливі обговорення політики.
За повідомленням Politico, 7 травня 2026 року під час інтерв’ю для Fox Business Кевін Хассетт публічно заявив, що уряд розробляє адміністративний наказ, аби вимагати від моделей ШІ проходження урядової безпекової перевірки перед публічним випуском, і проводив аналогію з процедурою затвердження FDA для лікарських засобів.
За повідомленням Politico від 8 травня 2026 року, високопоставлений посадовець Білого дому сказав, що слова Хассетта були «трохи вирвані з контексту», а напрям політики Білого дому — це створення партнерств із компаніями, а не впровадження урядового регулювання. Окремим дописом очільниця апарату Білого дому Сьюзі Уілз підтвердила, що уряд не втручається в ринковий вибір.
Згідно із заявою CAISI цього тижня, додаткові угоди охоплюють Google DeepMind, Microsoft та xAI, а також OpenAI й Anthropic, які вже були в межах покриття раніше. Добровільна рамка оцінювання запроваджена з 2024 року.
Пов'язані статті
США і Китай готуються до запуску офіційного діалогу з безпеки ШІ, який очолять посадовці Мінфіну
RLWRLD випускає AI-модель RLDX-1 для промислових роботизованих рук
DeepMind AlphaEvolve міждисциплінарні досягнення: 4×4 матричне множення оновило рекорд Strassen 1969, тренування Gemini прискорилося на 1%
OpenAI Codex запускає розширення для Chrome: можна тестувати Web App у браузері, отримувати контекст між сторінками, працювати паралельно
OpenAI випускає GPT-Realtime-2: інтегрує міркування GPT-5 у голосових агентів, а context збільшує до 128K
Практичний візит до китайських AI-лабораторій: дослідники розкрили «прогалини в чіпах і даних» як ключову причину розриву між Китаєм і США