Anthropic relaxa compromissos de segurança de IA, desencadeando uma nova dinâmica de competição com a OpenAI

GateNews

25 de fevereiro de 2024 - A Anthropic ajustou recentemente a sua política de segurança de inteligência artificial, removendo a promessa de não treinar sistemas avançados de IA antes de implementar medidas de segurança completas. Esta mudança dá à Anthropic maior flexibilidade na competição com OpenAI, Google e xAI, e também levanta discussões na indústria sobre o equilíbrio entre o rápido desenvolvimento da IA e a segurança.

O diretor científico da Anthropic, Jared Kaplan, afirmou que parar o treino não resolve realmente os problemas de segurança, e que, numa corrida acelerada com os concorrentes, suspender o desenvolvimento unilateralmente não é uma estratégia inteligente. A empresa pretende aumentar a transparência através da publicação de roteiros de segurança de ponta e relatórios de risco periódicos, além de adiar o desenvolvimento ao identificar riscos catastróficos.

Edward Geist, pesquisador sênior do Rand Corporation, destacou que o conceito inicial de segurança em IA surgiu de um grupo específico preocupado com IA poderosa, mas os grandes modelos de linguagem (LLMs) atuais redefiniram esse conceito. A mudança na redação das políticas envia um sinal aos investidores e formuladores de políticas: as empresas buscam equilibrar competitividade econômica com gestão de riscos.

A OpenAI também revisou sua declaração de missão em 2024, removendo a palavra “segurança” e afirmando que seu objetivo é “garantir que a inteligência artificial geral beneficie toda a humanidade”. Essas mudanças indicam uma transição para estratégias mais flexíveis e escaláveis por parte dos líderes do setor.

Recentemente, a Anthropic concluiu uma rodada de financiamento de 30 bilhões de dólares, avaliando a empresa em cerca de 380 bilhões de dólares; a OpenAI também está levantando até 100 bilhões de dólares. Nesse contexto, as empresas de IA enfrentam competição geopolítica e considerações sobre contratos governamentais. Ainda não está decidido se o Departamento de Defesa dos EUA continuará a colaborar com a Anthropic, o que torna a mudança de política mais cautelosa e estratégica.

No geral, as mudanças nas políticas da Anthropic e da OpenAI marcam uma nova fase na disputa entre desenvolvimento acelerado de IA e regulamentação de segurança, refletindo também a flexibilidade estratégica das empresas sob pressão de capital e política.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)