25 de fevereiro de 2024 - A Anthropic ajustou recentemente a sua política de segurança de inteligência artificial, removendo a promessa de não treinar sistemas avançados de IA antes de implementar medidas de segurança completas. Esta mudança dá à Anthropic maior flexibilidade na competição com OpenAI, Google e xAI, e também levanta discussões na indústria sobre o equilíbrio entre o rápido desenvolvimento da IA e a segurança.
O diretor científico da Anthropic, Jared Kaplan, afirmou que parar o treino não resolve realmente os problemas de segurança, e que, numa corrida acelerada com os concorrentes, suspender o desenvolvimento unilateralmente não é uma estratégia inteligente. A empresa pretende aumentar a transparência através da publicação de roteiros de segurança de ponta e relatórios de risco periódicos, além de adiar o desenvolvimento ao identificar riscos catastróficos.
Edward Geist, pesquisador sênior do Rand Corporation, destacou que o conceito inicial de segurança em IA surgiu de um grupo específico preocupado com IA poderosa, mas os grandes modelos de linguagem (LLMs) atuais redefiniram esse conceito. A mudança na redação das políticas envia um sinal aos investidores e formuladores de políticas: as empresas buscam equilibrar competitividade econômica com gestão de riscos.
A OpenAI também revisou sua declaração de missão em 2024, removendo a palavra “segurança” e afirmando que seu objetivo é “garantir que a inteligência artificial geral beneficie toda a humanidade”. Essas mudanças indicam uma transição para estratégias mais flexíveis e escaláveis por parte dos líderes do setor.
Recentemente, a Anthropic concluiu uma rodada de financiamento de 30 bilhões de dólares, avaliando a empresa em cerca de 380 bilhões de dólares; a OpenAI também está levantando até 100 bilhões de dólares. Nesse contexto, as empresas de IA enfrentam competição geopolítica e considerações sobre contratos governamentais. Ainda não está decidido se o Departamento de Defesa dos EUA continuará a colaborar com a Anthropic, o que torna a mudança de política mais cautelosa e estratégica.
No geral, as mudanças nas políticas da Anthropic e da OpenAI marcam uma nova fase na disputa entre desenvolvimento acelerado de IA e regulamentação de segurança, refletindo também a flexibilidade estratégica das empresas sob pressão de capital e política.