(MENAFN- IANS) Nova Deli, 28 de fevereiro (IANS) O Departamento de Defesa dos Estados Unidos decidiu implementar os modelos de inteligência artificial da OpenAI na sua rede classificada, mesmo afastando-se da Anthropic devido a desacordos sobre segurança de IA e uso militar, afirmou sábado o CEO da OpenAI, Sam Altman.
Altman confirmou o desenvolvimento, dizendo que a empresa chegou a um acordo com o Pentágono para avançar com a implementação.
Em uma publicação na X, Altman afirmou que as discussões da OpenAI com o Departamento de Defesa demonstraram “profundo respeito pela segurança” e um objetivo comum de alcançar o melhor resultado possível.
Referindo-se ao departamento como o “Departamento de Guerra” (DoW), ele acrescentou que a OpenAI permanece comprometida em servir a humanidade, reconhecendo que o mundo é “complicado, confuso e às vezes perigoso”.
“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos na sua rede classificada. Em todas as nossas interações, o DoW demonstrou profundo respeito pela segurança e desejo de colaborar para alcançar o melhor resultado possível,” afirmou Altman.
Altman disse que a OpenAI continua priorizando a segurança da IA e a ampla distribuição de benefícios. Ele destacou que dois dos princípios centrais de segurança da empresa são a proibição de vigilância em massa doméstica e garantir que os humanos permaneçam responsáveis pelo uso da força, incluindo em sistemas de armas autônomas.
“Segurança de IA e ampla distribuição de benefícios são o núcleo da nossa missão. Dois dos nossos princípios de segurança mais importantes são a proibição de vigilância em massa doméstica e a responsabilidade humana pelo uso da força, incluindo armas autônomas,” acrescentou.
Segundo ele, esses princípios não foram comprometidos no acordo com o Pentágono. Ele afirmou que o Departamento de Defesa concorda com esses princípios, refletindo-os em suas leis e políticas, e que eles estão incluídos no acordo final.
“O DoW concorda com esses princípios, refletindo-os na lei e na política, e nós os incluímos em nosso acordo,” mencionou Altman.
“Continuamos comprometidos em servir toda a humanidade da melhor forma possível. O mundo é um lugar complicado, confuso e às vezes perigoso,” declarou.
Como parte do acordo, a OpenAI construirá salvaguardas técnicas para garantir que seus modelos se comportem conforme o esperado.
A empresa também implantará engenheiros de implantação de campo para apoiar os modelos e garantir seu uso seguro. Altman acrescentou que os modelos serão implantados apenas em redes de nuvem seguras.
A decisão do Pentágono ocorre em meio a um conflito público com a Anthropic, criadora do modelo de IA Claude.
De acordo com relatos, o Departamento de Defesa tinha pressionado pelo uso militar completo das ferramentas de IA para todos os propósitos legais, incluindo áreas sensíveis como desenvolvimento de armas, coleta de inteligência e operações no campo de batalha.
A Anthropic teria insistido em limites, especialmente em relação a armas totalmente autônomas e vigilância em massa de americanos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Pentágono evita Anthropic, opta por modelos OpenAI na sua rede classificada
(MENAFN- IANS) Nova Deli, 28 de fevereiro (IANS) O Departamento de Defesa dos Estados Unidos decidiu implementar os modelos de inteligência artificial da OpenAI na sua rede classificada, mesmo afastando-se da Anthropic devido a desacordos sobre segurança de IA e uso militar, afirmou sábado o CEO da OpenAI, Sam Altman.
Altman confirmou o desenvolvimento, dizendo que a empresa chegou a um acordo com o Pentágono para avançar com a implementação.
Em uma publicação na X, Altman afirmou que as discussões da OpenAI com o Departamento de Defesa demonstraram “profundo respeito pela segurança” e um objetivo comum de alcançar o melhor resultado possível.
Referindo-se ao departamento como o “Departamento de Guerra” (DoW), ele acrescentou que a OpenAI permanece comprometida em servir a humanidade, reconhecendo que o mundo é “complicado, confuso e às vezes perigoso”.
“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos na sua rede classificada. Em todas as nossas interações, o DoW demonstrou profundo respeito pela segurança e desejo de colaborar para alcançar o melhor resultado possível,” afirmou Altman.
Altman disse que a OpenAI continua priorizando a segurança da IA e a ampla distribuição de benefícios. Ele destacou que dois dos princípios centrais de segurança da empresa são a proibição de vigilância em massa doméstica e garantir que os humanos permaneçam responsáveis pelo uso da força, incluindo em sistemas de armas autônomas.
“Segurança de IA e ampla distribuição de benefícios são o núcleo da nossa missão. Dois dos nossos princípios de segurança mais importantes são a proibição de vigilância em massa doméstica e a responsabilidade humana pelo uso da força, incluindo armas autônomas,” acrescentou.
Segundo ele, esses princípios não foram comprometidos no acordo com o Pentágono. Ele afirmou que o Departamento de Defesa concorda com esses princípios, refletindo-os em suas leis e políticas, e que eles estão incluídos no acordo final.
“O DoW concorda com esses princípios, refletindo-os na lei e na política, e nós os incluímos em nosso acordo,” mencionou Altman.
“Continuamos comprometidos em servir toda a humanidade da melhor forma possível. O mundo é um lugar complicado, confuso e às vezes perigoso,” declarou.
Como parte do acordo, a OpenAI construirá salvaguardas técnicas para garantir que seus modelos se comportem conforme o esperado.
A empresa também implantará engenheiros de implantação de campo para apoiar os modelos e garantir seu uso seguro. Altman acrescentou que os modelos serão implantados apenas em redes de nuvem seguras.
A decisão do Pentágono ocorre em meio a um conflito público com a Anthropic, criadora do modelo de IA Claude.
De acordo com relatos, o Departamento de Defesa tinha pressionado pelo uso militar completo das ferramentas de IA para todos os propósitos legais, incluindo áreas sensíveis como desenvolvimento de armas, coleta de inteligência e operações no campo de batalha.
A Anthropic teria insistido em limites, especialmente em relação a armas totalmente autônomas e vigilância em massa de americanos.