Pentágono evita Anthropic, opta por modelos OpenAI na sua rede classificada

robot
Geração do resumo em andamento

(MENAFN- IANS) Nova Deli, 28 de fevereiro (IANS) O Departamento de Defesa dos Estados Unidos decidiu implementar os modelos de inteligência artificial da OpenAI na sua rede classificada, mesmo afastando-se da Anthropic devido a desacordos sobre segurança de IA e uso militar, afirmou sábado o CEO da OpenAI, Sam Altman.

Altman confirmou o desenvolvimento, dizendo que a empresa chegou a um acordo com o Pentágono para avançar com a implementação.

Em uma publicação na X, Altman afirmou que as discussões da OpenAI com o Departamento de Defesa demonstraram “profundo respeito pela segurança” e um objetivo comum de alcançar o melhor resultado possível.

Referindo-se ao departamento como o “Departamento de Guerra” (DoW), ele acrescentou que a OpenAI permanece comprometida em servir a humanidade, reconhecendo que o mundo é “complicado, confuso e às vezes perigoso”.

“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos na sua rede classificada. Em todas as nossas interações, o DoW demonstrou profundo respeito pela segurança e desejo de colaborar para alcançar o melhor resultado possível,” afirmou Altman.

Altman disse que a OpenAI continua priorizando a segurança da IA e a ampla distribuição de benefícios. Ele destacou que dois dos princípios centrais de segurança da empresa são a proibição de vigilância em massa doméstica e garantir que os humanos permaneçam responsáveis pelo uso da força, incluindo em sistemas de armas autônomas.

“Segurança de IA e ampla distribuição de benefícios são o núcleo da nossa missão. Dois dos nossos princípios de segurança mais importantes são a proibição de vigilância em massa doméstica e a responsabilidade humana pelo uso da força, incluindo armas autônomas,” acrescentou.

Segundo ele, esses princípios não foram comprometidos no acordo com o Pentágono. Ele afirmou que o Departamento de Defesa concorda com esses princípios, refletindo-os em suas leis e políticas, e que eles estão incluídos no acordo final.

“O DoW concorda com esses princípios, refletindo-os na lei e na política, e nós os incluímos em nosso acordo,” mencionou Altman.

“Continuamos comprometidos em servir toda a humanidade da melhor forma possível. O mundo é um lugar complicado, confuso e às vezes perigoso,” declarou.

Como parte do acordo, a OpenAI construirá salvaguardas técnicas para garantir que seus modelos se comportem conforme o esperado.

A empresa também implantará engenheiros de implantação de campo para apoiar os modelos e garantir seu uso seguro. Altman acrescentou que os modelos serão implantados apenas em redes de nuvem seguras.

A decisão do Pentágono ocorre em meio a um conflito público com a Anthropic, criadora do modelo de IA Claude.

De acordo com relatos, o Departamento de Defesa tinha pressionado pelo uso militar completo das ferramentas de IA para todos os propósitos legais, incluindo áreas sensíveis como desenvolvimento de armas, coleta de inteligência e operações no campo de batalha.

A Anthropic teria insistido em limites, especialmente em relação a armas totalmente autônomas e vigilância em massa de americanos.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)