Рабочая группа NEA по новым технологиям провела семинар 25–26 марта, сосредоточившись на том, как искусственный интеллект может применяться для надзора за соблюдением требований и внутренних операций в ядерных органах власти.
Резюме
- Семинар NEA изучил реальные прикладные применения ИИ в ядерном регулировании, при этом тематические исследования из 15 стран—членов демонстрировали текущие инструменты и сценарии использования
- Регуляторы подчеркнули необходимость структурированных рамок для ИИ, четких показателей успешности и человеческого надзора при принятии решений
- Модели ИИ локального размещения (on-premise) стали ключевым вариантом для решения проблем кибербезопасности, суверенитета данных и защиты данных
Обсуждения были сосредоточены на практическом внедрении, а не на теории: участники рассматривали, как существующие инструменты могут быть встроены в рабочие процессы регулирования.
На мероприятии встретились ядерные регуляторы и специалисты по ИИ из 15 стран—членов NEA, а также представители международных организаций. Участники поделились тематическими исследованиями, демонстрирующими ИИ-системы, которые уже используются или находятся в разработке в регуляторных органах.
Примеры, представленные в ходе сессий, включали генерацию резюме и презентаций с помощью ИИ, повышение возможностей моделирования, а также извлечение релевантной информации из больших объемов документов по регулированию.
Эти демонстрации привели к подробным обменам мнениями по вопросам внедрения, извлеченным урокам и способам выявления высокоценных применений.
Ключевые выводы по внедрению ИИ в ядерном регулировании
Участники выделили несколько ключевых выводов. Существует явная необходимость создать структурированные рамки для ИИ в регуляторных органах, подкрепленные определенными процедурами и руководствами.
Хорошо очерченные проекты, как ожидается, будут работать более эффективно, в то время как наличие четких критериев успеха для инструментов ИИ и инициатив считается обязательным.
Модели локального размещения были определены как возможный способ решения проблем, связанных с кибербезопасностью, суверенитетом данных и защитой данных. Одновременно экспертные знания человека остаются центральными для принятия решений и для интерпретации результатов, сгенерированных ИИ.
Семинар содействовал открытому сравнению национальных подходов: регуляторы делились опытом внедрения и выявляли общие опасения. Обмены также указали на области, где более тесное международное сотрудничество могло бы помочь в решении общих задач.
Глобальное сотрудничество и следующие шаги для регуляторов
Г-н Эету Ахонен, заместитель председателя WGNT, возглавил обсуждения и подчеркнул ценность сотрудничества между юрисдикциями.
«Этот семинар продемонстрировал ценность международного сотрудничества. Каждый регулятор изучает ИИ под разным углом, но опыт, который у нас есть при внедрении инструментов ИИ, при решении задач кибербезопасности и при обеспечении человеческого надзора, удивительно похож. Открыто делясь и учась друг у друга, мы укрепляем нашу способность ответственно и эффективно применять ИИ для повышения ядерной безопасности».
WGNT, организовавшая мероприятие, служит платформой для обмена мнениями между регуляторами и организациями технической поддержки по вопросам надзора за emerging technologies на протяжении всего их жизненного цикла. Ее работа поддерживает развитие общего понимания и помогает определить пути к согласованным регуляторным позициям.
NEA планирует опубликовать отдельную брошюру с обобщением результатов семинара, включая ключевые проблемы, извлеченные уроки и рекомендуемые практики интеграции ИИ в процессы регулирования.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Опрос POLITICO: 45% американцев считают криптоинвестиции слишком рискованными, 50% больше доверяют банкам
Согласно опросу POLITICO, 45% американцев считают, что инвестиции в криптовалюту не стоят связанных с этим рисков, при этом примерно 50% заявляют, что доверяют традиционным банкам больше, когда речь идет о защите своих денег. Опрос также показал, что 44% респондентов считают, что искусственный интеллект развивается слишком быстро,
GateNews5ч назад
Amazon расширяет сотрудничество с OpenAI: модели размещены в Bedrock, эксклюзив Microsoft завершён
3 мая OpenAI объявила о расширении сотрудничества с облачными сервисами Amazon (AWS): модели OpenAI и кодирующие агенты Codex будут доступны клиентам AWS через Amazon Bedrock. Согласно сообщению CNBC, это расширение стало ключевым следующим шагом после того, как в конце апреля OpenAI и Microsoft прекратили облачный эксклюзивный контракт: OpenAI перешла от формата «только Microsoft Cloud» к многооблачному развертыванию. AWS к этому моменту уже завершила первоначальную интеграцию продуктов OpenAI на платформе Bedrock.
Контекст: завершение эксклюзивного контракта OpenAI—Microsoft и продление IP-лицензии до 2032 года
В конце апреля OpenAI и Microsoft заключили новое соглашение: прежняя структура «Microsoft — эксклюзивный доступ к продуктам OpenAI и IP» завершилась, Op
ChainNewsAbmedia7ч назад
Исследователи внедряют технологию DPN-LE для редактирования личностных черт ИИ, изменяя всего 0,5% нейронов
По данным BlockBeats, 3 мая исследователь ИИ Брайан Роммель сообщил, что его Zero-Human Company внедрила технологию DPN-LE (Dual Personality Neuron Localization and Editing) для точной настройки
GateNews7ч назад
Клод проверяет часы каждые 15 минут после получения доступа к инструменту корректировки времени
По словам разработчика Ом Патель, Claude AI начал часто проверять время после получения доступа к инструменту для работы со временем 3 мая, при этом модель проверяла его каждые 15 минут. Наблюдение подчёркивает, что ранее большие языковые модели не имели встроенного восприятия времени и не знали о текущем времени или
GateNews9ч назад
Founders Fund закрывает флагманский фонд на $6 миллиардов — крупнейший с момента основания — 3 мая
По данным Bloomberg, Founders Fund завершил сбор средств для своего последнего флагманского фонда на сумму $6 миллиардов 3 мая, что существенно превысило предыдущий фонд примерно $3,4 миллиарда. Фонд, сооснователем которого является миллиардер Питер Тиль, будет ориентирован на быстрорастущие сектора, включая искусственный
GateNews9ч назад
Последний опрос POLITICO: 45% американцев считают, что инвестирование в криптовалюту слишком рискованно, 44% опасаются, что ИИ развивается слишком быстро
Согласно опросу POLITICO, несмотря на то что индустрии ИИ и криптовалют внесли значительные политические средства в выборы в Конгресс США 2026 года, американская общественность по-прежнему в целом настроена скептически по отношению к обеим сферам. Опрос показал, что 45% американцев считают, что инвестирование в криптовалюту не на сумму
GateNews10ч назад