Fundador da DeepMind em entrevista exclusiva: Arquitetura de AGI, estado atual do Agente e as próximas descobertas científicas na próxima década

BlockBeatNews

Título original do vídeo: Demis Hassabis: Agentes, AGI & A Próxima Grande Descoberta Científica

Fonte original do vídeo: Y Combinator
Tradução original: Deep潮 TechFlow

Introdução do editor

CEO da DeepMind do Google, vencedor do Nobel de Química Demis Hassabis, foi convidado do Y Combinator, onde falou sobre os avanços-chave rumo à AGI, deu conselhos aos empreendedores sobre como manter a liderança, e discutiu onde pode surgir a próxima grande descoberta científica.

A avaliação mais prática para empreendedores de deep tech é que, se você iniciar hoje um projeto de deep tech com duração de dez anos, deve incluir na sua estratégia a chegada da AGI. Além disso, ele revelou que a Isomorphic Labs (empresa de farmacêutica de IA derivada da DeepMind) está prestes a fazer um grande anúncio.

Citações de destaque

Rota e cronograma da AGI

·「Esses componentes tecnológicos existentes quase certamente farão parte da arquitetura final da AGI.」

·「Aprendizado contínuo, raciocínio de longo prazo, alguns aspectos da memória ainda não estão resolvidos; a AGI precisa de tudo isso resolvido.」

·「Se sua linha do tempo para a AGI é por volta de 2030, como a minha, e você começou um projeto de deep tech hoje, deve considerar que a AGI pode surgir no meio do caminho.」

Memória e janela de contexto

·「A janela de contexto é aproximadamente equivalente à memória de trabalho. A memória de trabalho humana tem em média sete dígitos, enquanto nós temos janelas de contexto de milhões ou até dezenas de milhões de tokens. Mas o problema é que colocamos tudo lá dentro, incluindo informações irrelevantes ou erradas; essa abordagem é bastante grosseira atualmente.」

·「Se quisermos processar streams de vídeo em tempo real e armazenar todos os tokens, um milhão de tokens é suficiente para cerca de 20 minutos.」

Defeitos do raciocínio

·「Gosto de usar o Gemini para jogar xadrez. Às vezes ele percebe que uma jogada é ruim, mas não consegue encontrar uma alternativa melhor, então dá uma volta e faz a jogada ruim mesmo assim. Um sistema de raciocínio preciso não deveria fazer isso.」

·「Ele consegue resolver questões de nível medalha de ouro na IMO, mas ao reformular a pergunta, comete erros de matemática básica de escola primária. Parece que falta algo na introspecção do seu próprio processo de pensamento.」

Agente e criatividade

·「Para alcançar a AGI, você precisa de um sistema que possa resolver problemas de forma proativa. Agent é o caminho, e acho que estamos apenas começando.」

·「Ainda não vi alguém usando vibe coding para criar um jogo AAA que domine as paradas de aplicativos. Com o esforço atual, isso deve ser possível, mas ainda não aconteceu. Isso indica que falta alguma ferramenta ou fluxo de trabalho.」

Destilação e modelos pequenos

·「Nossa hipótese é que, após o lançamento de um modelo Pro de ponta, sua capacidade pode ser comprimida em um modelo muito pequeno, capaz de rodar em dispositivos de borda, em cerca de seis meses a um ano. Ainda não atingimos o limite teórico de densidade de informação.」

Descobertas científicas e o “Teste Einstein”

·「Às vezes chamo de ‘Teste Einstein’, ou seja, se é possível treinar um sistema com o conhecimento de 1901 e fazê-lo derivar de forma independente os resultados de Einstein de 1905, incluindo a relatividade restrita. Se conseguir, esses sistemas estão próximos de inventar algo totalmente novo.」

·「Resolver um problema do Millennium Prize já é uma conquista, mas mais difícil ainda é propor um novo conjunto de problemas do Millennium, considerados profundos e dignos de uma pesquisa de uma vida por matemáticos de ponta.」

Dicas para empreendedorismo em deep tech

·「Perseguir problemas difíceis e problemas simples é, na essência, semelhante, apenas a maneira de enfrentá-los difere. A vida é curta; invista sua energia naquilo que, se você não fizer, ninguém mais fará.」

Caminho para a realização da AGI

Gary Tan: Você pensa que o tempo para alcançar a AGI é quase maior do que de qualquer outro. Com o paradigma atual, quanto da arquitetura final da AGI você acha que já temos? O que ainda falta fundamentalmente?

Demis Hassabis: Grande escala de pré-treinamento, RLHF, cadeia de raciocínio, tenho certeza de que farão parte da arquitetura final da AGI. Essas tecnologias já provaram muita coisa até hoje. Não consigo imaginar que, daqui a dois anos, descobriremos que esse caminho é errado; para mim, isso não faz sentido. Mas, além do que já temos, talvez falte uma ou duas coisas. Aprendizado contínuo, raciocínio de longo prazo, alguns aspectos da memória ainda não estão resolvidos.

A AGI precisa de tudo isso resolvido. Talvez as tecnologias atuais, com algumas inovações graduais, possam chegar lá, mas também pode faltar um ou dois pontos-chave que precisam ser rompidos. Não acho que sejam mais de um ou dois. Minha avaliação pessoal é que a probabilidade de ainda haver esses pontos críticos não resolvidos é de uns 50%. Então, na DeepMind, estamos avançando em duas frentes.

Gary Tan: Tenho lidado com muitos sistemas de agentes, e o que mais me surpreende é que, na base, eles usam o mesmo peso repetidamente. Então, o conceito de aprendizado contínuo é muito interessante, porque atualmente estamos basicamente colando as coisas com fita, como os ciclos de sonho noturno, por exemplo.

Demis Hassabis: Sim, esses ciclos de sonho são bem legais. Já pensamos nisso na integração da memória situacional. Meu doutorado foi sobre como o hipocampo integra novas informações de forma elegante ao conhecimento existente. O cérebro faz isso muito bem.

Ele realiza esse processo durante o sono, especialmente no sono REM, onde revisita experiências importantes para aprender com elas. Nosso primeiro programa Atari, o DQN (DeepMind, 2013, uma rede Q profunda que usou reforço profundo para alcançar nível humano em jogos de Atari), dominou os jogos de Atari usando uma técnica chamada experiência de replay.

Essa técnica, aprendida da neurociência, consiste em repetir o caminho de sucesso várias vezes. Era 2013, uma época antiga na IA, mas foi fundamental na época.

Concordo com você: atualmente, estamos basicamente colando as coisas com fita. Colocamos tudo na janela de contexto. Parece uma abordagem grosseira. Mesmo que façamos isso com máquinas, não com cérebros biológicos, teoricamente poderíamos ter janelas de contexto de milhões ou dezenas de milhões de tokens, e memória perfeita, mas o custo de busca e recuperação ainda existe. Em decisões específicas, encontrar informações realmente relevantes não é simples, mesmo que tudo esteja armazenado. Então, vejo um grande espaço para inovação na área de memória.

Gary Tan: Honestamente, uma janela de contexto de um milhão de tokens já é maior do que eu esperava, e dá para fazer muita coisa.

Demis Hassabis: Para a maioria dos cenários, sim, é suficiente. Mas pense: a janela de contexto é aproximadamente equivalente à memória de trabalho. A memória de trabalho humana tem em média sete dígitos, enquanto nossa janela de contexto pode chegar a milhões ou dezenas de milhões de tokens. O problema é que colocamos tudo lá dentro, incluindo informações irrelevantes ou erradas; essa abordagem é bastante grosseira. E, se você quiser processar streams de vídeo em tempo real, simplesmente armazenar todos os tokens, um milhão de tokens, só daria para cerca de 20 minutos. Mas, se você quiser que o sistema entenda sua vida de um ou dois meses, ainda está longe de ser suficiente.

Gary Tan: DeepMind sempre investiu pesado em reforço e busca. Essa filosofia está profundamente embutida na construção do Gemini? O reforço ainda é subestimado?

Demis Hassabis: Talvez sim, e essa atenção tem altos e baixos. Desde o primeiro dia, na DeepMind, trabalhamos com sistemas de agentes. Todo o trabalho em Atari e AlphaGo, na essência, é de agentes de reforço, sistemas capazes de alcançar objetivos, tomar decisões e planejar por conta própria. Na época, escolhemos jogos por serem um domínio controlável, e fomos evoluindo para jogos mais complexos, como AlphaStar, após AlphaGo, praticamente exploramos todos os jogos possíveis.

A questão seguinte é: podemos generalizar esses modelos para criar modelos de mundo ou de linguagem, além de apenas jogos? Nos últimos anos, temos trabalhado nisso. Hoje, o modo de pensar e o raciocínio em cadeia de modelos líderes é, na essência, uma retomada do que o AlphaGo começou.

Acredito que muito do que fizemos na época está altamente relacionado ao que fazemos hoje. Estamos revisitando essas ideias antigas, usando maior escala, de forma mais geral, incluindo métodos como busca em árvore de Monte Carlo e outros de reforço. Os conceitos de AlphaGo e AlphaZero estão extremamente ligados aos modelos de base atuais, e acho que grande parte do progresso nos próximos anos virá daí.

Destilação e modelos pequenos

Gary Tan: Agora, para sermos mais inteligentes, precisamos de modelos maiores, mas a destilação também evolui, e modelos menores podem ficar bastante rápidos. Seus modelos Flash são muito bons, atingem cerca de 95% do desempenho dos modelos de ponta, mas custam só um décimo. É isso mesmo?

Demis Hassabis: Acho que essa é uma das nossas principais vantagens. Primeiro, você precisa criar o maior modelo possível para alcançar capacidades de ponta. Uma das nossas maiores forças é que podemos rapidamente destilar e comprimir essas capacidades em modelos cada vez menores. A destilação foi uma invenção nossa, e ainda somos líderes mundiais nisso. Além disso, temos forte motivação de negócios para fazer isso. Somos provavelmente a maior plataforma de aplicações de IA do mundo.

Com as visões de IA, o modo de IA, e o Gemini, cada produto da Google, incluindo Maps, YouTube, etc., está integrando o Gemini ou tecnologias relacionadas. Isso envolve bilhões de usuários e dezenas de produtos com bilhões de usuários. Eles precisam ser extremamente rápidos, eficientes, de baixo custo e com baixa latência. Isso nos motiva a otimizar ao máximo os modelos Flash e Flash-Lite, para que sejam altamente eficientes, e espero que isso também beneficie os usuários em suas tarefas diversas.

Gary Tan: Tenho curiosidade até que ponto esses modelos pequenos podem ser realmente inteligentes. A destilação tem limites? Modelos de 50B ou 400B podem ser tão inteligentes quanto os maiores modelos atuais?

Demis Hassabis: Não acho que tenhamos atingido o limite teórico de densidade de informação ainda, pelo menos ninguém sabe se isso existe. Talvez um dia encontremos um teto de densidade de informação, mas atualmente, nossa hipótese é que, após o lançamento de um modelo Pro de ponta, sua capacidade pode ser comprimida em um modelo muito pequeno, capaz de rodar em dispositivos de borda, em cerca de seis meses a um ano.

Vocês podem ver isso também no modelo Gemma. Nosso Gemma 4, com o mesmo tamanho, apresenta desempenho muito forte. Isso tudo envolve muitas técnicas de destilação e otimização de eficiência de modelos pequenos. Então, realmente, não vejo limites teóricos claros, e acho que estamos longe de alcançá-los.

Gary Tan: Uma coisa absurda que tenho notado é que a quantidade de trabalho que engenheiros podem fazer hoje é de 500 a 1000 vezes maior do que há seis meses. Algumas pessoas aqui estão fazendo o equivalente a um engenheiro do Google dos anos 2000, mil vezes mais trabalho. Steve Yegge já comentou isso.

Demis Hassabis: Acho isso empolgante. Modelos pequenos têm muitas aplicações. Um deles é o custo baixo e a velocidade alta, que trazem benefícios. Em tarefas como codificação, você consegue iterar mais rápido, especialmente ao colaborar com sistemas. Sistemas rápidos, mesmo que não sejam de ponta, com 90% a 95% do desempenho, já são suficientes, e a velocidade de iteração compensa muito mais do que esses 5% de diferença.

Outro grande benefício é rodar esses modelos em dispositivos de borda, não só por eficiência, mas por privacidade e segurança. Pense em dispositivos que lidam com informações altamente pessoais, ou em robôs domésticos. Você preferiria que seu robô de casa rodasse um modelo eficiente localmente, só recorrendo à nuvem em casos específicos? Processar áudio e vídeo localmente, manter os dados na ponta, acho que esse será o estado final ideal.

Memória e raciocínio

Gary Tan: Voltando à memória e ao contexto. Os modelos atualmente são sem estado. Se eles tivessem aprendizado contínuo, como seria a experiência do desenvolvedor? Como você orientaria esses modelos?

Demis Hassabis: Essa é uma questão muito interessante. A falta de aprendizado contínuo é uma grande limitação atual dos agentes. Os agentes atuais são úteis em partes específicas de uma tarefa, podem ser combinados para fazer coisas legais, mas não se adaptam bem ao ambiente específico em que estão. Essa é a razão de ainda não poderem simplesmente “deixar de lado” após o lançamento; eles precisam aprender o seu cenário particular. Para alcançar inteligência geral verdadeira, esse problema precisa ser resolvido.

Gary Tan: E quanto ao raciocínio? Onde estamos? Os sistemas atuais têm uma cadeia de raciocínio forte, mas ainda cometem erros que um estudante inteligente não cometeria. O que precisa ser mudado? Quais avanços você espera?

Demis Hassabis: Ainda há muito espaço para inovação na forma de pensar. O que fazemos hoje é bastante grosseiro, bastante bruto. Há muitas melhorias possíveis, como monitorar o processo de raciocínio, fazer intervenções durante o pensamento. Acho que, tanto nossos sistemas quanto os concorrentes, às vezes pensam demais, entram em ciclos.

Gosto de usar o Gemini para jogar xadrez. É interessante observar que todos os modelos de base avançados são relativamente fracos em xadrez, o que é curioso.

Observar seus trajetos de raciocínio é valioso, porque xadrez é um domínio bem compreendido. Posso rapidamente perceber se o sistema está se desviando ou se o raciocínio é válido. O que vemos é que às vezes ele considera uma jogada ruim, percebe que é ruim, mas não consegue encontrar uma alternativa melhor, então faz uma volta e acaba fazendo a jogada ruim mesmo assim. Um sistema de raciocínio preciso não deveria fazer isso.

Essa grande lacuna ainda existe, mas consertá-la pode exigir apenas um ou dois ajustes. Por isso, você vê o que chamam de “inteligência dentada” (jagged intelligence): um sistema que consegue resolver problemas de nível medalha de ouro na IMO, mas ao reformular a pergunta, comete erros de matemática básica. Parece que falta algo na introspecção do seu próprio processo de raciocínio.

Capacidade real do agente

Gary Tan: Agent é um tema amplo. Alguns dizem que é só hype. Pessoalmente, acho que estamos apenas começando. Como você avalia a capacidade real dos agentes na DeepMind? Existe uma grande disparidade entre o que vocês veem internamente e a propaganda externa?

Demis Hassabis: Concordo, estamos apenas começando. Para alcançar a AGI, você precisa de um sistema que possa resolver problemas de forma proativa. Sempre soubemos disso. Agent é o caminho, e acho que estamos apenas no começo.

Estamos explorando como fazer o Agent colaborar melhor no trabalho, com muitas experiências internas. Muitos aqui também devem estar. Como integrar o Agent ao fluxo de trabalho, para que ele não seja só um complemento, mas uma parte fundamental? Ainda estamos na fase de experimentação. Talvez só nos últimos dois ou três meses tenhamos começado a encontrar cenários realmente valiosos. A tecnologia está no ponto em que deixa de ser um brinquedo de demonstração e passa a gerar valor real em termos de tempo e eficiência.

Vejo muitas pessoas iniciando dezenas de Agents, rodando por horas, mas ainda não tenho certeza se o resultado justifica o esforço.

Ainda não vimos alguém usando vibe coding para criar um jogo AAA que domine as paradas de aplicativos. Eu mesmo já criei alguns protótipos, e muitos aqui também. Consigo fazer um protótipo de “Theme Park” em meia hora, enquanto aos 17 anos levei seis meses para fazer o mesmo.

Tenho a sensação de que, se alguém dedicar um verão inteiro, pode criar algo realmente incrível. Mas ainda assim, é preciso talento, criatividade, e uma certa alma no produto. Você precisa garantir que esses elementos estejam presentes. Na verdade, nenhum jovem ainda lançou um jogo de sucesso de mais de um milhão de cópias, mas, com as ferramentas atuais, isso deveria ser possível. Ainda falta alguma coisa, talvez nos processos ou nas ferramentas. Espero ver resultados assim nos próximos 6 a 12 meses.

Gary Tan: Em que grau tudo isso será automatizado? Acho que não será tudo de uma vez. O caminho mais provável é que, primeiro, as pessoas atinjam 1000 vezes mais eficiência, e só depois usem essas ferramentas para criar aplicativos e jogos de sucesso, com automação vindo depois.

Demis Hassabis: Exatamente, esse é o caminho que você deve enxergar primeiro.

Gary Tan: Também há quem já esteja fazendo isso, mas relutam em admitir o quanto o Agent ajudou.

Demis Hassabis: Pode ser. Mas quero falar sobre criatividade. Sempre uso o AlphaGo como exemplo, especialmente a jogada 37 da segunda partida. Para mim, esse momento foi um divisor de águas, e foi por isso que comecei projetos como o AlphaFold. Começamos a trabalhar nele no dia seguinte ao retorno de Seul, há dez anos. Fui a Coreia para comemorar o décimo aniversário do AlphaGo.

Mas só fazer a jogada 37 não é suficiente. É impressionante, útil, mas o sistema consegue inventar o próprio jogo de Go? Se você der uma descrição de alto nível, como “um jogo que pode ser aprendido em cinco minutos, mas que é esteticamente elegante e difícil de dominar, e que pode ser jogado em uma tarde”, o sistema consegue retornar com o Go? Hoje, essa capacidade não existe. Por quê?

Gary Tan: Talvez alguém na sala consiga fazer isso.

Demis Hassabis: Se alguém conseguir, a resposta não é que o sistema está faltando alguma coisa, mas que a nossa forma de usar o sistema está errada. Talvez essa seja a resposta certa. Talvez os sistemas atuais já tenham essa capacidade, só precisam de um criador genial para impulsioná-los, dando-lhes a alma do projeto, e esse criador precisa estar altamente integrado às ferramentas. Se você passar o dia e a noite usando essas ferramentas e tiver criatividade profunda, talvez consiga criar algo além da imaginação.

Código aberto e modelos multimodais

Gary Tan: Mudando de assunto, sobre open source. O lançamento do Gemma permitiu que modelos muito poderosos rodem localmente. Como você vê isso? A IA vai se tornar algo que o usuário controla, ao invés de ficar na nuvem? Isso mudará quem pode construir produtos com esses modelos?

Demis Hassabis: Somos apoiadores firmes de código aberto e ciência aberta. Você mencionou o AlphaFold, que disponibilizamos gratuitamente. Nosso trabalho científico continua sendo publicado em periódicos de ponta. Quanto ao Gemma, queremos criar modelos líderes de mercado na mesma escala. Até agora, o Gemma foi baixado cerca de 40 milhões de vezes em duas semanas e meia.

Acho importante que exista uma forte presença de tecnologia ocidental no open source. Os modelos chineses de código aberto são excelentes e lideram atualmente, mas acreditamos que o Gemma é altamente competitivo na mesma escala.

Para nós, há uma questão de recursos: ninguém tem capacidade de computação sobrando para treinar dois modelos de ponta ao mesmo tempo. Nossa decisão atual é usar modelos de borda para Android, óculos, robôs, etc., preferencialmente como modelos abertos, pois, uma vez implantados nos dispositivos, eles ficam expostos. Então, é melhor abrir tudo de uma vez. Temos uma estratégia de abertura unificada em nível nanométrico, que faz sentido na estratégia geral.

Gary Tan: Antes de você entrar, mostrei uma demonstração do meu sistema operacional de IA, onde posso interagir com o Gemini por voz. Ainda estou nervoso, mas funcionou. O Gemini foi construído desde o início como multimodal. Já usei muitos modelos, mas a interação por voz com capacidade de chamar ferramentas, junto com compreensão de contexto, é incomparável.

Demis Hassabis: Exato. Uma vantagem do Gemini que ainda não foi totalmente reconhecida é que desde o começo foi construído de forma multimodal. Isso torna o início mais difícil do que apenas trabalhar com texto, mas acreditamos que, a longo prazo, trará grandes benefícios, e já estamos começando a colher esses frutos.

Por exemplo, no campo de modelos de mundo, construímos o Genie (modelo de ambiente de interação generativa da DeepMind) sobre o Gemini. No campo de robótica, o Gemini Robotics será baseado em modelos multimodais, e nossa vantagem nessa área se tornará uma barreira de entrada. Também estamos usando cada vez mais o Gemini no Waymo (empresa de direção autônoma do Alphabet).

Imagine um assistente digital que acompanha você no mundo real, talvez no seu celular ou óculos, que precisa entender o ambiente físico ao seu redor. Nosso sistema é muito forte nisso. Continuaremos investindo nessa direção, e acredito que nossa vantagem competitiva nesse campo é grande.

Gary Tan: O custo do raciocínio está caindo rapidamente. Quando o raciocínio se tornar quase gratuito, o que será possível? Sua equipe vai mudar seu foco de otimização?

Demis Hassabis: Não tenho certeza de que o raciocínio será realmente gratuito; o paradoxo de Jevons (que melhorias de eficiência podem aumentar o consumo total) está aí. Acho que, no final, todo mundo usará toda a capacidade computacional disponível.

Podemos imaginar milhões de agentes colaborando, ou um pequeno grupo de agentes pensando em várias direções ao mesmo tempo e integrando os resultados. Estamos experimentando essas abordagens, e tudo isso consumirá recursos de raciocínio.

Na área de energia, se resolvermos problemas como fusão nuclear controlada, supercondutividade em temperatura ambiente, ou baterias de alta eficiência, acredito que, por meio de avanços em materiais, poderemos chegar a custos de energia quase zero. Mas, na fabricação de chips, ainda há gargalos físicos, pelo menos nas próximas décadas. Portanto, o limite de capacidade de raciocínio continuará existindo, e precisaremos usar esses recursos de forma eficiente.

Próxima Descoberta Científica

Gary Tan: Felizmente, os modelos pequenos estão ficando mais inteligentes. Muitos fundadores de biotecnologia e ciências da vida estão na sala. O AlphaFold 3 já superou proteínas e se expandiu para moléculas biológicas mais amplas. Quanto falta para modelar sistemas celulares completos? Isso é uma questão de nível de dificuldade totalmente diferente?

Demis Hassabis: O progresso da Isomorphic Labs tem sido excelente. O AlphaFold é apenas uma etapa no fluxo de descoberta de medicamentos. Estamos trabalhando em pesquisa bioquímica relacionada, como projetar compostos com propriedades corretas, e em breve teremos anúncios importantes.

Nosso objetivo final é criar uma célula virtual completa, um simulador de célula funcional, onde você possa aplicar perturbações, e seus resultados se aproximem de dados experimentais, com aplicações práticas. Você poderá pular muitas etapas de busca, gerar dados sintéticos em grande quantidade para treinar outros modelos, e fazer previsões sobre o comportamento de células reais.

Acredito que levará cerca de dez anos para criar uma célula virtual completa. Estamos começando pelo núcleo celular, que é relativamente autossuficiente. O segredo é encontrar uma fatia de complexidade adequada, que seja auto-contida, e que possamos razoavelmente aproximar suas entradas e saídas, focando nesse subsistema. O núcleo celular é uma boa escolha nesse sentido.

Outro problema é a escassez de dados. Conversei com top cientistas de microscopia eletrônica e outras técnicas de imagem. Se pudermos fazer imagens de células vivas sem matá-las, isso seria revolucionário, pois transformaria o problema em uma questão de visão, que já sabemos como resolver.

Porém, até agora, não há tecnologia capaz de fazer imagens de células vivas em resolução nanométrica sem destruí-las. Conseguimos imagens estáticas de alta resolução, o que já é muito avançado, mas ainda não é suficiente para transformar isso em um problema de visão.

Existem duas abordagens: uma é hardware e coleta de dados, a outra é construir simuladores mais avançados para modelar esses sistemas dinâmicos.

Gary Tan: Você não vê só a biologia. Materiais, descoberta de fármacos, clima, matemática — se tivesse que fazer uma classificação, quais áreas científicas serão mais transformadas nos próximos cinco anos?

Demis Hassabis: Cada área é empolgante, e é por isso que essa sempre foi minha maior paixão e o motivo de minha dedicação à IA por mais de 30 anos. Sempre acreditei que a IA será a ferramenta definitiva da ciência, impulsionando descobertas científicas, medicina e nossa compreensão do universo.

Nossa missão, inicialmente, foi expressa em duas etapas. Primeiro, resolver a inteligência, ou seja, criar a AGI; segundo, usar essa AGI para resolver todas as outras questões. Depois, tivemos que ajustar a formulação, pois alguém perguntou: “Vocês realmente pretendem resolver todos os problemas?”

E a resposta é sim. Essa é a nossa intenção. Agora, as pessoas começam a entender o que isso significa. Especificamente, quero dizer que queremos resolver o que chamo de “problemas de raiz” na ciência, aqueles que, uma vez resolvidos, desbloqueiam novas áreas de descoberta. O AlphaFold é um protótipo do que queremos fazer.

Mais de três milhões de pesquisadores no mundo usam o AlphaFold, quase todos os biólogos. Ouvi de executivos de farmacêuticas que, no futuro, quase todos os medicamentos serão descobertos usando o AlphaFold em alguma etapa. Nos orgulhamos disso, é o impacto que esperamos da IA. Mas acho que isso é só o começo.

Não consigo imaginar uma área científica ou de engenharia que a IA não possa ajudar. As áreas que você mencionou estão na fase “AlphaFold 1”, com resultados promissores, mas ainda sem o grande desafio. Nos próximos dois anos, veremos avanços em materiais, matemática, e além.

Gary Tan: Parece uma missão prométheica, dando à humanidade uma nova capacidade.

Demis Hassabis: Exatamente. Como na história de Prometeu, também precisamos ser cautelosos com o uso dessa capacidade, onde ela será aplicada, e com o risco de uso indevido das mesmas ferramentas.

Histórias de sucesso

Gary Tan: Muitos aqui tentam fundar empresas que aplicam IA à ciência. Na sua opinião, qual a diferença entre startups de ponta e aquelas que apenas empacotam modelos básicos em APIs, se autodenominando “IA para Ciência”?

Demis Hassabis: Estou pensando no que faria se estivesse na sua posição, assistindo a um programa do Y Combinator. Uma coisa é prever a direção da IA, o que já é difícil. Mas acredito que há uma grande oportunidade em combinar IA com outro campo de deep tech. Essa interseção, seja de materiais, medicina ou outras ciências difíceis, especialmente envolvendo o mundo atômico, não terá atalhos nos próximos anos. Essas áreas não serão dominadas por uma atualização de modelo de base. Se você quer uma direção defensiva, essa é a minha recomendação.

Sempre preferi deep tech. Coisas duradouras e valiosas não vêm facilmente. Sempre fui atraído por deep tech. Quando começamos em 2010, a IA era considerada deep tech — investidores diziam “isso não vai dar certo”, e a academia achava que era uma direção fracassada dos anos 90.

Mas, se você acredita na sua ideia — por que ela será diferente desta vez? Qual sua combinação única de background? Idealmente, você é um especialista em aprendizado de máquina e aplicações, ou consegue montar uma equipe fundadora assim. Nesse caso, há um impacto e valor enormes a serem criados.

Gary Tan: Essa informação é valiosa. Uma coisa é o que parece óbvio depois de feito, mas antes, todo mundo te desafia.

Demis Hassabis: Claro, por isso você precisa fazer o que realmente te apaixona. Para mim, é IA, e sempre foi. Decidi isso na infância, e até hoje, é o que acho mais impactante. A verdade é que isso se confirmou, mas talvez tenha sido prematuro por 50 anos.

E também é o que acho mais divertido. Mesmo hoje, se estivéssemos em um pequeno porão, com IA ainda por fazer, eu continuaria tentando. Talvez voltasse para a academia, mas continuaria de alguma forma.

Gary Tan: AlphaFold é um exemplo de uma aposta certa, de uma direção que você perseguiu. O que faz uma área científica ser propícia a uma descoberta como AlphaFold? Existe algum padrão, como uma função objetivo específica?

Demis Hassabis: Preciso escrever isso algum dia. Das experiências com AlphaGo, AlphaFold e outros projetos Alpha, aprendi que nossos métodos funcionam melhor quando:

Primeiro, o problema tem um espaço de busca combinatória enorme, quanto maior, melhor — maior do que qualquer força bruta ou algoritmo especial pode resolver. Tanto o espaço de movimentos do xadrez quanto a conformação de proteínas ultrapassam a quantidade de átomos no universo. Segundo, é importante definir claramente a função objetivo, como minimizar a energia livre de uma proteína ou ganhar uma partida de Go, para que o sistema possa fazer otimização por gradiente. Ter um simulador ou dados suficientes também ajuda a gerar uma grande quantidade de dados sintéticos dentro da distribuição.

Se esses três critérios forem atendidos, as técnicas atuais podem avançar bastante, encontrando a “agulha no palheiro”. A descoberta de medicamentos funciona com uma lógica semelhante: há uma molécula que pode tratar uma doença sem efeitos colaterais, e a física permite sua existência; o problema é encontrá-la de forma eficiente. AlphaFold mostrou que esses sistemas podem explorar vastos espaços de busca para encontrar essa agulha.

Gary Tan: Gostaria de elevar o nível. Discutimos que os humanos usam esses métodos para criar AlphaFold, mas há também um meta nível: usamos IA para explorar hipóteses possíveis. Estamos próximos de sistemas de IA capazes de fazer raciocínio científico verdadeiro, e não apenas reconhecimento de padrões de dados?

Demis Hassabis: Acho que estamos bem próximos. Estamos desenvolvendo sistemas generalistas. Temos um chamado AI co-scientist, e algoritmos como AlphaEvolve, que vão além do Gemini básico. Todos os laboratórios de ponta estão explorando essa direção.

Porém, até agora, não vi uma descoberta científica realmente importante feita por esses sistemas. Acho que está chegando a hora. Pode estar relacionada à criatividade, a uma ruptura de fronteiras conhecidas. Nesse nível, não é mais apenas reconhecimento de padrão, porque não há padrão para reconhecer. É mais uma forma de raciocínio por analogia, e acho que esses sistemas ainda não possuem essa capacidade, ou não estamos usando eles corretamente.

Na ciência, uma métrica que uso é: eles podem propor uma hipótese realmente interessante, e não só testar uma hipótese existente? Porque validar uma hipótese também pode ser uma grande conquista, como provar a hipótese de Riemann ou resolver um problema do Millennium. Mas talvez estejamos a poucos anos de fazer isso.

Mais difícil ainda é: conseguir propor um novo conjunto de problemas do Millennium, considerados profundos e dignos de uma pesquisa de uma vida por matemáticos de ponta. Acho que isso é um nível acima, e ainda não sabemos como fazer. Mas não vejo isso como magia; acredito que esses sistemas podem fazer, talvez só precisem de um ou dois ajustes finais.

Um método de avaliação que proponho é o “Teste Einstein”: treinar um sistema com o conhecimento de 1901 e ver se ele consegue derivar, de forma autônoma, as descobertas de Einstein de 1905, incluindo a relatividade restrita. Acho que devemos realmente testar isso, repetidamente, até conseguir. Quando isso acontecer, esses sistemas estarão próximos de inventar algo totalmente novo.

Dicas para empreendedorismo

Gary Tan: Última questão. Muitos aqui têm background técnico profundo e querem criar algo do tamanho de vocês. Vocês são uma das maiores organizações de pesquisa em IA. Como alguém que esteve na linha de frente da pesquisa de AGI, há algo que vocês sabem agora e que gostariam de ter sabido aos 25 anos?

Demis Hassabis: Já discutimos parte disso. Você percebe que perseguir problemas difíceis e problemas simples é, na essência, semelhante, só que a abordagem difere. A vida é curta; invista sua energia naquilo que, se você não fizer, ninguém mais fará. Use esse critério para escolher seu caminho.

Outro ponto é que, nos próximos anos, a combinação de diferentes áreas será mais comum. A IA facilitará a integração entre elas.

Por fim, depende do seu cronograma para a AGI. O meu é por volta de 2030. Se você começar um projeto de deep tech hoje, geralmente uma jornada de dez anos, deve planejar a chegada da AGI no meio do caminho. O que isso significa? Não necessariamente algo ruim, mas você precisa pensar nisso. Seu projeto pode se beneficiar de uma AGI? Como ela interagirá com seu projeto?

Voltando ao exemplo do AlphaFold e de sistemas de IA geral, posso imaginar que sistemas como Gemini, Claude ou similares usarão sistemas especializados como o AlphaFold como ferramentas, integrando-os ao seu fluxo de trabalho. Não acho que faremos tudo em um único sistema monolítico.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário