NEA изучает применение искусственного интеллекта в ядерном регулировании

Рабочая группа NEA по новым технологиям провела семинар 25–26 марта, сосредоточившись на том, как искусственный интеллект может применяться для надзора за соблюдением требований и внутренних операций в ядерных органах власти.
Резюме

  • Семинар NEA изучил реальные прикладные применения ИИ в ядерном регулировании, при этом тематические исследования из 15 стран—членов демонстрировали текущие инструменты и сценарии использования
  • Регуляторы подчеркнули необходимость структурированных рамок для ИИ, четких показателей успешности и человеческого надзора при принятии решений
  • Модели ИИ локального размещения (on-premise) стали ключевым вариантом для решения проблем кибербезопасности, суверенитета данных и защиты данных

Обсуждения были сосредоточены на практическом внедрении, а не на теории: участники рассматривали, как существующие инструменты могут быть встроены в рабочие процессы регулирования.

На мероприятии встретились ядерные регуляторы и специалисты по ИИ из 15 стран—членов NEA, а также представители международных организаций. Участники поделились тематическими исследованиями, демонстрирующими ИИ-системы, которые уже используются или находятся в разработке в регуляторных органах.

Примеры, представленные в ходе сессий, включали генерацию резюме и презентаций с помощью ИИ, повышение возможностей моделирования, а также извлечение релевантной информации из больших объемов документов по регулированию.

Эти демонстрации привели к подробным обменам мнениями по вопросам внедрения, извлеченным урокам и способам выявления высокоценных применений.

Ключевые выводы по внедрению ИИ в ядерном регулировании

Участники выделили несколько ключевых выводов. Существует явная необходимость создать структурированные рамки для ИИ в регуляторных органах, подкрепленные определенными процедурами и руководствами.

Хорошо очерченные проекты, как ожидается, будут работать более эффективно, в то время как наличие четких критериев успеха для инструментов ИИ и инициатив считается обязательным.

Модели локального размещения были определены как возможный способ решения проблем, связанных с кибербезопасностью, суверенитетом данных и защитой данных. Одновременно экспертные знания человека остаются центральными для принятия решений и для интерпретации результатов, сгенерированных ИИ.

Семинар содействовал открытому сравнению национальных подходов: регуляторы делились опытом внедрения и выявляли общие опасения. Обмены также указали на области, где более тесное международное сотрудничество могло бы помочь в решении общих задач.

Глобальное сотрудничество и следующие шаги для регуляторов

Г-н Эету Ахонен, заместитель председателя WGNT, возглавил обсуждения и подчеркнул ценность сотрудничества между юрисдикциями.

«Этот семинар продемонстрировал ценность международного сотрудничества. Каждый регулятор изучает ИИ под разным углом, но опыт, который у нас есть при внедрении инструментов ИИ, при решении задач кибербезопасности и при обеспечении человеческого надзора, удивительно похож. Открыто делясь и учась друг у друга, мы укрепляем нашу способность ответственно и эффективно применять ИИ для повышения ядерной безопасности».

WGNT, организовавшая мероприятие, служит платформой для обмена мнениями между регуляторами и организациями технической поддержки по вопросам надзора за emerging technologies на протяжении всего их жизненного цикла. Ее работа поддерживает развитие общего понимания и помогает определить пути к согласованным регуляторным позициям.

NEA планирует опубликовать отдельную брошюру с обобщением результатов семинара, включая ключевые проблемы, извлеченные уроки и рекомендуемые практики интеграции ИИ в процессы регулирования.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Опрос POLITICO: 45% американцев считают криптоинвестиции слишком рискованными, 50% больше доверяют банкам

Согласно опросу POLITICO, 45% американцев считают, что инвестиции в криптовалюту не стоят связанных с этим рисков, при этом примерно 50% заявляют, что доверяют традиционным банкам больше, когда речь идет о защите своих денег. Опрос также показал, что 44% респондентов считают, что искусственный интеллект развивается слишком быстро,

GateNews5ч назад

Amazon расширяет сотрудничество с OpenAI: модели размещены в Bedrock, эксклюзив Microsoft завершён

3 мая OpenAI объявила о расширении сотрудничества с облачными сервисами Amazon (AWS): модели OpenAI и кодирующие агенты Codex будут доступны клиентам AWS через Amazon Bedrock. Согласно сообщению CNBC, это расширение стало ключевым следующим шагом после того, как в конце апреля OpenAI и Microsoft прекратили облачный эксклюзивный контракт: OpenAI перешла от формата «только Microsoft Cloud» к многооблачному развертыванию. AWS к этому моменту уже завершила первоначальную интеграцию продуктов OpenAI на платформе Bedrock. Контекст: завершение эксклюзивного контракта OpenAI—Microsoft и продление IP-лицензии до 2032 года В конце апреля OpenAI и Microsoft заключили новое соглашение: прежняя структура «Microsoft — эксклюзивный доступ к продуктам OpenAI и IP» завершилась, Op

ChainNewsAbmedia7ч назад

Исследователи внедряют технологию DPN-LE для редактирования личностных черт ИИ, изменяя всего 0,5% нейронов

По данным BlockBeats, 3 мая исследователь ИИ Брайан Роммель сообщил, что его Zero-Human Company внедрила технологию DPN-LE (Dual Personality Neuron Localization and Editing) для точной настройки

GateNews7ч назад

Клод проверяет часы каждые 15 минут после получения доступа к инструменту корректировки времени

По словам разработчика Ом Патель, Claude AI начал часто проверять время после получения доступа к инструменту для работы со временем 3 мая, при этом модель проверяла его каждые 15 минут. Наблюдение подчёркивает, что ранее большие языковые модели не имели встроенного восприятия времени и не знали о текущем времени или

GateNews9ч назад

Founders Fund закрывает флагманский фонд на $6 миллиардов — крупнейший с момента основания — 3 мая

По данным Bloomberg, Founders Fund завершил сбор средств для своего последнего флагманского фонда на сумму $6 миллиардов 3 мая, что существенно превысило предыдущий фонд примерно $3,4 миллиарда. Фонд, сооснователем которого является миллиардер Питер Тиль, будет ориентирован на быстрорастущие сектора, включая искусственный

GateNews9ч назад

Последний опрос POLITICO: 45% американцев считают, что инвестирование в криптовалюту слишком рискованно, 44% опасаются, что ИИ развивается слишком быстро

Согласно опросу POLITICO, несмотря на то что индустрии ИИ и криптовалют внесли значительные политические средства в выборы в Конгресс США 2026 года, американская общественность по-прежнему в целом настроена скептически по отношению к обеим сферам. Опрос показал, что 45% американцев считают, что инвестирование в криптовалюту не на сумму

GateNews10ч назад
комментарий
0/400
Нет комментариев