Google DeepMind CEO Demis Hassabis e CEO da Anthropic Dario Amodei participaram a 20/01 no Fórum Económico Mundial (WEF) em Davos, Suíça, numa conversa conjunta sobre o futuro da inteligência artificial geral (AGI). Todo o diálogo decorreu num ambiente racional e amigável, mas em três questões centrais, os dois demonstraram diferenças claras.
O que é a inteligência artificial geral (AGI)?
AGI refere-se a um tipo hipotético de inteligência artificial capaz de compreender, aprender e executar várias tarefas racionais que os humanos podem fazer, com o objetivo de simular as capacidades cognitivas do cérebro humano. Ao contrário da maioria das IA atuais, que geralmente só conseguem realizar uma tarefa específica, a AGI possui uma capacidade de generalização entre áreas, podendo aplicar conhecimentos adquiridos numa área a contextos totalmente novos, além de possuir conhecimentos comuns e compreensão do mundo próximos aos humanos, usados para raciocínio e tomada de decisão.
O desenvolvimento da AGI depende de pesquisas multidisciplinares em ciência da computação, neurociência e psicologia cognitiva. Ainda não existe uma AGI verdadeira, mas os trabalhos de investigação e desenvolvimento continuam em andamento.
Quando será alcançada a AGI? Divergências entre os CEOs da DeepMind e da Anthropic
Amodei, CEO da Anthropic, reiterou o cronograma que apresentou no ano passado, prevendo que entre 2026 e 2027 surgirá uma IA capaz de atingir níveis humanos na maioria das áreas, com uma “qualidade equivalente à de um Nobel”.
“Desde que a IA já consiga programar e fazer investigação em IA, ela poderá começar a projetar a próxima geração de modelos, formando um ciclo de auto-aperfeiçoamento onde a IA ajuda a melhorar a si própria. Uma vez iniciado esse ciclo, a explosão exponencial da AGI será inevitável.”
Ele até afirmou que, dentro da Anthropic, há engenheiros quase que deixando de programar manualmente, passando a verificar os modelos gerados por IA, indicando que esse caminho já está em formação.
Por outro lado, o CEO da Google DeepMind, Hassabis, mantém uma postura mais conservadora, considerando que há uma probabilidade de 50% de surgimento de uma AGI completa até o final deste século. Para ele, áreas como programação e matemática, que podem ser verificadas rapidamente, são mais facilmente automatizáveis, mas ciências naturais, criatividade teórica e formulação de boas perguntas ainda carecem de capacidades-chave. Além disso, os ciclos de verificação são longos, o mundo físico apresenta fricções e obstáculos, dificultando uma resolução rápida por ciclos de auto-aperfeiçoamento.
Qual o impacto da IA no emprego? Amodei alerta para urgência, Hassabis enfatiza a necessidade de buffer
No que diz respeito ao emprego, as diferenças também são evidentes. Amodei já afirmou publicamente que, nos próximos 1 a 5 anos, metade dos empregos administrativos de nível básico podem desaparecer. Na sua intervenção neste fórum, explicou que, embora os dados globais de trabalho ainda não reflitam totalmente essa tendência, já se observam impactos preliminares na área de programação e engenharia. A demanda por trabalhadores de nível inicial e médio provavelmente começará a desacelerar primeiro, antes de ocorrer substituição mais evidente. A principal preocupação de Amodei é que o progresso da IA é exponencial, enquanto a adaptação social é linear, o que pode gerar um descompasso.
Hassabis, por sua vez, adota uma visão mais próxima da economia tradicional. Acredita que, no curto prazo, repetirão-se os padrões das revoluções tecnológicas passadas:
“Alguns empregos desaparecerão, mas novos empregos de maior valor surgirão, e as vagas de entrada e estágios podem ser as primeiras a serem afetadas.”
Ele também destaca que as ferramentas de IA atuais estão acessíveis a quase todos, e que os jovens que as dominarem rapidamente podem acumular experiência mais rapidamente do que com estágios tradicionais.
Deve a velocidade do desenvolvimento da IA ser reduzida? Amodei defende uma abordagem mais lenta, Hassabis busca um progresso mais estável
Nas questões de risco e geopolítica, as diferenças tornam-se ainda mais evidentes. Amodei afirmou que deseja que o mundo desacelere o desenvolvimento de IA, dando mais tempo para estabelecer mecanismos de segurança e governança. Ele defende restrições à exportação de chips avançados, considerando o potencial estratégico da IA próximo ao de armas nucleares, e que esse aspecto não deve ser avaliado apenas por critérios comerciais ou de cadeia de suprimentos. Comparou a situação ao comércio de armas nucleares, alertando que não se deve trocar riscos de longo prazo por interesses de curto prazo.
Hassabis, por sua vez, não é contra “um pouco mais devagar”, mas enfatiza as condições atuais, incluindo a geopolítica e a competição empresarial, que dificultam uma verdadeira desaceleração. Assim, a questão mais prática é:
“Como, no ritmo acelerado da corrida pela IA, estabelecer mecanismos de segurança de forma sincronizada para mitigar riscos?”
Diferenças além do consenso, determinam o ritmo do futuro da IA
Apesar de muitas posições serem altamente alinhadas, como a visão de que a IA mudará profundamente o mundo e que os riscos de segurança são reais, e de rejeitarem a narrativa de um apocalipse inevitável, a resposta à questão da velocidade é claramente divergente. Essas diferenças refletem justamente os temas centrais da era da IA: avançar rapidamente rumo à AGI ou controlar o ritmo.
(A IA já começou a fazer por si mesma, explica a Anthropic: como a humanidade deve avaliar se ela está agindo bem?)
Este artigo foi originalmente publicado em Fórum Davos|Divergências no desenvolvimento de AGI? Os três principais posicionamentos da Google DeepMind e da Anthropic, uma leitura única na ABMedia.