O Grupo de Trabalho da NEA sobre Novas Tecnologias reuniu-se para um workshop a 25–26 de março, centrado em como a inteligência artificial pode ser aplicada à supervisão regulatória e às operações internas no seio das autoridades nucleares.
Resumo
- O workshop da NEA explorou aplicações reais de IA na regulamentação nuclear, com estudos de caso de 15 países membros, destacando ferramentas e casos de uso atuais
- Os reguladores sublinharam a necessidade de estruturas de IA bem definidas, métricas de sucesso claras e supervisão humana na tomada de decisões
- Os modelos de IA no local (on-premise) surgiram como uma opção-chave para responder a preocupações com cibersegurança, soberania dos dados e proteção dos dados
As discussões centraram-se na implementação prática em vez da teoria, com os participantes a examinarem de que forma as ferramentas existentes podem ser integradas nos fluxos de trabalho regulatórios.
O evento reuniu reguladores nucleares e especialistas em IA de 15 países membros da NEA, juntamente com representantes de organizações internacionais. Os participantes partilharam estudos de caso que mostram sistemas de IA já em utilização ou em desenvolvimento em diferentes organismos reguladores.
Os exemplos apresentados durante as sessões incluíram a geração de resumos e apresentações com recurso a IA, a melhoria das capacidades de simulação e a extração de informação relevante a partir de grandes volumes de documentos regulatórios.
Estas demonstrações deram origem a trocas de opiniões detalhadas sobre desafios de implementação, lições aprendidas e formas de identificar aplicações de elevado valor.
Principais conclusões sobre a implementação de IA na regulamentação nuclear
Os participantes destacaram várias conclusões principais. Existe uma necessidade clara de estabelecer estruturas de IA bem definidas no seio dos organismos reguladores, apoiadas por procedimentos e orientações definidas.
Considerou-se que os projetos com âmbito bem delimitado tendem a ter um desempenho mais eficaz, enquanto critérios de sucesso claros para ferramentas e iniciativas de IA foram considerados essenciais.
Foram identificados modelos no local como uma possível via para responder a preocupações relacionadas com cibersegurança, soberania dos dados e proteção dos dados. Ao mesmo tempo, a experiência humana continua a ser central para a tomada de decisões e para a interpretação das saídas geradas por IA.
O workshop incentivou a comparação aberta das abordagens nacionais, com os reguladores a partilhar experiências de implementação e a identificar preocupações comuns. As trocas de informação também apontaram para áreas em que uma cooperação internacional mais estreita poderia ajudar a abordar desafios partilhados.
Colaboração global e próximos passos para os reguladores
O Sr. Eetu Ahonen, Vice-Presidente do WGNT, conduziu as discussões e sublinhou o valor da colaboração entre jurisdições.
“Este workshop demonstrou o valor da colaboração internacional. Cada regulador está a explorar a IA a partir de um ângulo diferente, mas as experiências que temos com a implementação de ferramentas de IA, os desafios de segurança dos dados e a garantia da supervisão humana são notavelmente semelhantes. Ao partilharmos abertamente e aprendermos uns com os outros, estamos a reforçar a nossa capacidade de utilizar a IA de forma responsável e eficiente para melhorar a segurança nuclear.”
O WGNT, que organizou o evento, funciona como uma plataforma para reguladores e organizações de apoio técnico trocarem conhecimentos sobre a supervisão de tecnologias emergentes ao longo do respetivo ciclo de vida. O seu trabalho apoia o desenvolvimento de uma compreensão partilhada e ajuda a identificar caminhos rumo a posições regulatórias alinhadas.
A NEA planeia publicar um folheto dedicado a resumir as conclusões do workshop, incluindo desafios-chave, lições aprendidas e práticas recomendadas para integrar a IA nos processos regulatórios.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
A Amazon e a OpenAI alargam a parceria: modelos disponíveis na Bedrock, fim da exclusividade da Microsoft
A OpenAI anunciou a 3 de maio a expansão da sua colaboração com os serviços de cloud da Amazon (AWS), com os modelos da OpenAI e os agentes de codificação Codex a serem disponibilizados aos clientes AWS através do Amazon Bedrock. De acordo com a CNBC, esta expansão é um passo-chave seguinte após o fim, no final de abril, do contrato de exclusividade de cloud entre a OpenAI e a Microsoft — a OpenAI passa de “Microsoft cloud-only” para um modelo de implementação multi-cloud. Entretanto, a AWS já concluiu a integração inicial dos produtos da OpenAI na plataforma Bedrock.
Contexto: fim do acordo exclusivo OpenAI-Microsoft e extensão da licença de IP até 2032
No final de abril, a OpenAI e a Microsoft chegaram a um novo acordo: termina a estrutura original de “acesso exclusivo da Microsoft aos produtos e ao IP da OpenAI”, Op
ChainNewsAbmedia2h atrás
Investigadores Implementam a tecnologia DPN-LE para Editar Traços de Personalidade de IA, Editando Apenas 0,5% dos Neurónios
De acordo com a BlockBeats, a 3 de maio, o investigador de IA Brian Roemmele revelou que a sua Zero-Human Company implementou a tecnologia DPN-LE (Dual Personality Neuron Localization and Editing) para ajustar com precisão
GateNews3h atrás
Claude verifica o relógio a cada 15 minutos após ganhar acesso à ferramenta de ajuste do tempo
De acordo com o programador Om Patel, o Claude AI começou a consultar frequentemente o relógio após obter acesso a uma ferramenta de tempo a 3 de maio, com o modelo a verificar de 15 em 15 minutos. A observação destaca que os grandes modelos de linguagem anteriormente não tinham perceção temporal nativa e não estavam cientes da hora atual ou
GateNews5h atrás
Founders Fund encerra um fundo flagship de 6 mil milhões de dólares, o maior desde o início, a 3 de maio
De acordo com a Bloomberg, a Founders Fund concluiu o levantamento para o seu mais recente fundo emblemático em 6 mil milhões de dólares a 3 de maio, excedendo significativamente o seu fundo anterior de cerca de 3,4 mil milhões de dólares. O fundo, cofundado pelo bilionário Peter Thiel, irá concentrar-se em sectores de elevado crescimento, incluindo inteligência
GateNews5h atrás
Última sondagem POLITICO: 45% dos norte-americanos dizem que o investimento em cripto é demasiado arriscado, 44% receiam que a IA esteja a avançar demasiado depressa
De acordo com uma sondagem da POLITICO, apesar de as indústrias de IA e de cripto estarem a injectar um financiamento político significativo nas eleições legislativas de meio de mandato dos EUA de 2026, o público americano continua em grande medida céptico em relação a ambos os sectores. O inquérito revelou que 45% dos americanos acreditam que investir em criptomoedas não tem valor de
GateNews6h atrás
OpenAI’s Sam Altman defende uma IPO em 2027, enquanto a Aliança Flare apoia a listagem no 4.º trimestre de 2026
A directora financeira da OpenAI, Sarah Friar, tem uma postura cautelosa em relação ao calendário do IPO de 2026, salientando que os contratos de capacidade de computação e centros de dados, avaliados em quase 1 bilião de dólares, superam em muito as receitas anuais atuais de 25 mil milhões de dólares; se o crescimento não conseguir cobrir os compromissos, o risco será penalizado por uma desvalorização pelo mercado. O desacordo em relação à abertura do capital defendida publicamente pelo CEO Sam Altman para o 4.º trimestre de 2026 torna-se evidente, com a Friar a inclinar-se para o adiamento para 2027 a fim de estabelecer disciplina financeira; a empresa emitiu várias declarações para negar a existência de divergências internas.
ChainNewsAbmedia7h atrás