Обговорення: витік про механізм попереднього розгляду для ШІ у Білому домі; наступного дня після заяви Гассетт офіційно спростували

白宮AI預審機制討論

Директор NEC (Національної економічної ради Білого дому) Кевін Хассетт 7 травня під час інтерв’ю для Fox Business заявив, що адміністрація Трампа розробляє спосіб вимагати через адміністративний наказ, аби моделі ШІ проходили перевірку безпеки урядом перед їхнім публічним випуском, і проводив аналогію з тим, як FDA затверджує лікарські засоби перед виходом на ринок. Але, за повідомленням Politico від 8 травня, високопоставлені посадовці Білого дому згодом заявили, що ці слова були вирвані з контексту.

Хронологія події: «Нью-Йорк таймс» довела до публічного розкриття суперечностей у політиці Білого дому

4 травня 2026 року The New York Times повідомила, що Білий дім обговорює створення механізму попередньої перевірки перед випуском моделей ШІ, тоді це характеризували як «розглядають». 7 травня 2026 року Кевін Хассетт у межах інтерв’ю для Fox Business публічно заявив: «Ми вивчаємо, чи можемо ми через адміністративний наказ вимагати, щоб ШІ, який у майбутньому потенційно може створювати вразливості, був введений в експлуатацію лише після того, як він доведе свою безпеку — як препарати для FDA».

Пізно ввечері 7 травня 2026 року очільниця апарату Білого дому Сьюзі Уілз у дописі в X написала, що уряд «не відповідає за вибір переможців і переможених», і зазначила, що безпечно розгортувати сильні технології має «провідні американські інноватори, а не бюрократичні структури». Згідно з даними, що містяться в її офіційних записах акаунта, цей допис є четвертим публікаційним матеріалом з моменту створення акаунта Уілз.

За інформацією Politico, яку видання отримало від трьох поінформованих осіб без зазначення імен, Білий дім обговорює, щоб розвідслужби проводили попередню оцінку моделей ШІ до їхнього публічного випуску. Один із посадовців уряду США вказав у матеріалі, що метою цього, зокрема, є «гарантувати, що представники розвідки спершу вивчатимуть і використовуватимуть ці інструменти, перш ніж їхні опоненти на кшталт Росії та Китаю дізнаються про нові можливості».

Задіяні інституції та рамка політики

CAISI розширює добровільну угоду щодо безпекових оцінок

AI Standards and Innovation Center (CAISI) при Міністерстві торгівлі цього тижня оголосив, що уклав угоди про безпекові оцінки ШІ з Google DeepMind, Microsoft та xAI; сфера поширюється на те, що раніше вже включали OpenAI й Anthropic. Добровільна структура оцінювання CAISI запроваджена з 2024 року.

Заступниця міністра оборони публічно підтримує механізм попередньої оцінки

Заступниця міністра оборони Еміл Майкл 8 травня 2026 року під час виступу на AI-конференції у Вашингтоні публічно підтримала урядову попередню оцінку перед випуском моделей ШІ та в промові послалася на систему Anthropic Mythos як на приклад, заявивши, що відповідні моделі «згодом обов’язково з’являться», тож уряд має створити механізм реагування.

Політичне тло адміністрації Трампа та Anthropic

За повідомленням Politico, у березні 2026 року міністр оборони Піт Хегсетт, посилаючись на ризики для ланцюга постачання, додав Anthropic до переліку ризиків і заборонив використовувати її моделі для оборонних контрактів відомства. Після цього Трамп окремо розпорядився, щоб федеральні структури протягом шести місяців припинили використання продуктів Anthropic. Водночас Anthropic минулого місяця розкрила, що її система ШІ Mythos має потужні можливості для виявлення вразливостей у програмному забезпеченні, що виходить за межі безпекового порогу для публічного випуску; низка федеральних установ згодом подала заявки на підключення. 8 травня 2026 року OpenAI оголосила про обмежений прев’ю нового інструмента GPT-5.5-Cyber, який має виявляти та виправляти мережеві вразливості.

Позиції індустрії щодо протистояння механізмам обов’язкових перевірок

Голова Інформаційно-технологічного та інноваційного фонду (ITIF) Даніель Кастро в матеріалі Politico заявив: «Якщо перед виходом на ринок можна відмовити в погодженні, то це проблема для будь-якої компанії. Якщо одному конкуренту нададуть погодження, а іншому — ні, то різниця в кілька тижнів або місяців щодо доступу до ринку матиме величезний вплив». Серед донорів ITIF — Anthropic, Microsoft і Meta.

У тому ж матеріалі один із високопоставлених посадовців Білого дому сказав: «Так, є один-два дуже палкі ентузіасти урядового регулювання, але їх — лише кілька». Цей посадовець отримав анонімність через потребу описати чутливі обговорення політики.

Поширені запитання

Коли й де Кевін Хассетт висловився щодо попереднього розгляду ШІ?

За повідомленням Politico, 7 травня 2026 року під час інтерв’ю для Fox Business Кевін Хассетт публічно заявив, що уряд розробляє адміністративний наказ, аби вимагати від моделей ШІ проходження урядової безпекової перевірки перед публічним випуском, і проводив аналогію з процедурою затвердження FDA для лікарських засобів.

На чому ґрунтується заперечення Білого дому щодо слів Хассетта?

За повідомленням Politico від 8 травня 2026 року, високопоставлений посадовець Білого дому сказав, що слова Хассетта були «трохи вирвані з контексту», а напрям політики Білого дому — це створення партнерств із компаніями, а не впровадження урядового регулювання. Окремим дописом очільниця апарату Білого дому Сьюзі Уілз підтвердила, що уряд не втручається в ринковий вибір.

Які нові угоди щодо безпекових оцінок ШІ додано CAISI цього тижня?

Згідно із заявою CAISI цього тижня, додаткові угоди охоплюють Google DeepMind, Microsoft та xAI, а також OpenAI й Anthropic, які вже були в межах покриття раніше. Добровільна рамка оцінювання запроваджена з 2024 року.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

США і Китай готуються до запуску офіційного діалогу з безпеки ШІ, який очолять посадовці Мінфіну

За повідомленнями, Сполучені Штати та Китай готуються запустити офіційний діалог з безпеки ШІ, спрямований на створення механізмів антикризового управління для їхнього технологічного суперництва. Делегацію США очолить міністр фінансів Скотт Бессент, тоді як Китай буде представлено заступником

GateNews24хв. тому

RLWRLD випускає AI-модель RLDX-1 для промислових роботизованих рук

RLWRLD, стартап з робототехнічного ШІ, підтриманий LG Electronics, представив RLDX-1 — базову модель, розроблену для роботизованих рук із п’ятьма пальцями в промислових застосуваннях, повідомляє RLWRLD. Компанія опублікувала ваги моделі, код і технічну документацію на GitHub та Hugging Face. Model

CryptoFrontier44хв. тому

DeepMind AlphaEvolve міждисциплінарні досягнення: 4×4 матричне множення оновило рекорд Strassen 1969, тренування Gemini прискорилося на 1%

Google DeepMind 7 травня (за американським часом) опублікувала звіт про міждисциплінарні результати AlphaEvolve. Офіційний блог DeepMind підсумував конкретний прогрес AlphaEvolve з моменту запуску: розроблено спосіб множення 4×4 комплексних матриць, який є кращим за алгоритм Strassen 1969 (48 разів чистого скалярного множення), разом із такими математиками, як Теренс Тао (Terence Tao), вирішено кілька складних математичних задач Ерде̇ша (Erdős), для дата-центрів Google зекономлено 0,7% глобальних обчислювальних ресурсів, швидкість ключового kernel, на якому тренували Gemini, підвищено на 23%, а загальний час навчання Gemini зменшено на 1%. Архітектура: Gemini Flash — широкий пошук + Gemini

ChainNewsAbmedia57хв. тому

OpenAI Codex запускає розширення для Chrome: можна тестувати Web App у браузері, отримувати контекст між сторінками, працювати паралельно

OpenAI 7 травня (за американським часом) оприлюднила розширення Codex для Chrome, яке дозволяє Codex-проєктам з кодування (coding Agent) напряму працювати всередині браузера Chrome на macOS і Windows. Офіційна документація OpenAI для Codex пояснює, що розширення дає змогу Codex тестувати web app без перехоплення браузера користувача, отримувати контекст на кількох вкладках, використовувати Chrome DevTools і виконувати інші роботи паралельно. OpenAI також повідомила, що Codex має понад 4,0 млн щотижневих активних користувачів, що у 8 разів більше, ніж на початку року. Що можна робити в браузері: тестувати web app, отримувати контекст між сторінками, використовувати DevTools Розширення Chrome

ChainNewsAbmedia1год тому

OpenAI випускає GPT-Realtime-2: інтегрує міркування GPT-5 у голосових агентів, а context збільшує до 128K

OpenAI 7 травня (за американським часом) на конференції для розробників оголосила про три нові Realtime-мовні моделі: GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper — усі вони доступні розробникам через Realtime API. Офіційне оголошення OpenAI пояснює, що GPT-Realtime-2 є першою в OpenAI моделлю, яка має GPT-5

ChainNewsAbmedia1год тому

Практичний візит до китайських AI-лабораторій: дослідники розкрили «прогалини в чіпах і даних» як ключову причину розриву між Китаєм і США

Під час глибокого відвідування кількох AI-лабораторій у Китаї Натан Ламберт зазначив, що ключова перевага Китаю полягає в культурі, кадрах і прагматичному мисленні: пріоритетом у дослідженнях є підвищення якості моделей, а студенти стають ключовими основними авторами внесків, тоді як внутрішня конкуренція та роздор відбуваються рідше, ніж співпраця в командах; однак існують прогалини в чипах, даних і креативності. Зовнішні обчислювальні потужності обмежені регуляціями США, а через низьку якість даних компанії змушені будувати власні середовища для навчання. Компанії відкривають код, але зберігають ключові технології, щоб робити власне мікроадаптування. Якщо США посилять контроль над відкритою екосистемою, це може вплинути на глобальне лідерство.

ChainNewsAbmedia1год тому
Прокоментувати
0/400
Немає коментарів