Sam Altman última entrevista reveladora: na verdade, eu também não entendo muito bem o que está acontecendo dentro da IA

BlockBeatNews

Título do vídeo: «Podemos Confiar na IA? Sam Altman Espera que Sim | A Coisa Mais Interessante em IA»

Autor do vídeo: Nick Thompson, CEO da The Atlantic

Tradução:律动小工,律动 BlockBeats

Nota do editor: A entrevista foi gravada em abril de 2025, pouco após o ataque com coquetel molotov na residência de Sam Altman em São Francisco, seguido por um tiroteio na rua dias depois, no escritório da OpenAI em São Francisco.

O aspecto mais interessante de toda a entrevista não são os tópicos quentes, mas a mudança de posição de Altman em várias questões-chave:

Primeiro, de «Segurança em IA» para «Resiliência em IA». Altman admite que, há três anos, achava que, se alinhássemos bem os modelos e impedíssemos que a tecnologia caísse nas mãos de pessoas mal-intencionadas, o mundo estaria relativamente seguro. Mas hoje reconhece que esse quadro já não é suficiente. A existência de modelos de ponta de código aberto significa que a contenção unilateral de laboratórios avançados não consegue impedir a disseminação de riscos como armas biológicas ou ataques cibernéticos. Pela primeira vez, ele propõe sistematicamente que a sociedade precisa de algo mais do que segurança em IA (safety), mas resiliência (resilience), uma abordagem de múltiplas camadas de defesa em toda a sociedade.

Segundo, a verdade sobre interpretabilidade. Altman raramente admite que a OpenAI ainda não possui um quadro completo de interpretabilidade. Chain of thought (cadeia de raciocínio) é a direção mais promissora atualmente, mas é frágil, pode ser enganada pelo modelo, e é apenas uma «peça do quebra-cabeça». Ele cita o famoso «Experimento da Coruja» da Anthropic — onde o modelo consegue transmitir preferências apenas com números aleatórios — para ilustrar que há uma verdadeira e profunda aura de mistério nesses sistemas.

Terceiro, dados sintéticos podem já ter avançado mais do que o imaginado. Quando questionado se a OpenAI treinou modelos inteiramente com dados sintéticos, Altman responde «não tenho certeza se devo dizer». Ele acredita que dados sintéticos podem ser suficientes para treinar modelos com capacidades de raciocínio que superem os humanos. Isso tem implicações profundas para o paradigma de treinamento de modelos no futuro.

Quarto, pessimismo sobre a estrutura econômica futura. Altman concorda com Thompson que o futuro mais provável é uma polarização extrema, com algumas poucas empresas extremamente ricas e o restante do mundo em turbulência. Ele já não acredita mais que renda básica universal seja a resposta, apoiando em vez disso uma «propriedade coletiva» baseada em poder computacional ou ações. Além disso, ele aponta a lacuna na velocidade de adoção de IA entre China e EUA, dizendo que sua maior preocupação não é a liderança chinesa em publicações de pesquisa, mas sim a velocidade de construção de infraestrutura.

Quinto, a tensão com a Anthropic também foi abordada publicamente. Quando Thompson pergunta se «a Anthropic constrói a empresa com base na aversão à OpenAI», Altman não evita a questão. Ele admite que há divergências fundamentais sobre como avançar rumo à AGI, mas acredita que «no final, eles farão a coisa certa».

Além disso, Altman fala sobre o episódio de «sycophancy» do ChatGPT — comentários de coração partido de usuários que dizem «nunca na minha vida alguém acreditou em mim» —, como a IA está silenciosamente mudando a escrita de bilhões de usuários globais, o potencial de uma nova economia de micropagamentos para agentes, e uma intuição contrária à sua juventude: a ansiedade dos jovens em relação à IA é, na essência, uma projeção de outras ansiedades.

A seguir, o texto original da entrevista, com edições moderadas para manter o sentido original.

Thompson: Bem-vindo ao «O Mais Interessante em IA». Obrigado por tirar um tempo nesta semana agitada e tensa. Gostaria de começar retomando alguns tópicos que já discutimos várias vezes.

Três anos atrás, quando você foi entrevistado por Patrick Collison, ele perguntou se alguma mudança poderia te dar mais confiança em bons resultados e menos preocupação com os ruins. Sua resposta foi que, se pudéssemos realmente entender o que acontece ao nível dos neurônios, isso ajudaria. Um ano atrás, te perguntei a mesma coisa, e há seis meses também. Então, volto a perguntar: nossa compreensão do funcionamento da IA evolui na mesma velocidade do crescimento de suas capacidades?

Altman: Primeiro, responderei essa pergunta, e depois voltarei ao que Patrick perguntou na época, porque minha resposta já mudou bastante.

Sobre o que entendemos do que os modelos de IA fazem: ainda não temos um quadro realmente completo de interpretabilidade. Melhorou um pouco, mas ninguém diria que entende tudo que acontece dentro dessas redes neurais.

Chain of thought (cadeia de raciocínio) é uma direção promissora, mas frágil, dependente de uma série de condições que podem desabar sob pressão de otimizações. E, assim como não posso fazer uma tomografia do meu cérebro para entender exatamente cada disparo de neurônio, posso explicar por que acredito em algo ou como cheguei a uma conclusão — talvez seja meu modo de pensar, talvez não, não tenho certeza. A autoinvestigação humana também falha às vezes. Mas, mesmo que não seja a verdade absoluta, você pode ver o raciocínio e dizer: «Ok, dado esses passos, essa conclusão faz sentido».

Conseguimos fazer isso com modelos, e é um avanço promissor. Mas ainda há muitas maneiras de eles nos enganarem, esconderem coisas, etc. Portanto, não é uma solução completa.

Mesmo na minha experiência pessoal, eu era alguém que não deixaria o Codex assumir o controle total do meu computador ou rodar um modo «YOLO». Mas acabei cedendo após algumas horas.

Thompson: Você deixou o Codex assumir o controle do seu computador inteiro?

Altman: Na verdade, tenho duas máquinas.

Thompson: Eu também.

Altman: Consigo mais ou menos ver o que o modelo está fazendo, ele consegue me explicar por que aquilo está tudo bem, e o que vai fazer a seguir, e eu confio que ele quase sempre vai seguir essa explicação.

Thompson: Espera aí. Chain of thought permite que qualquer um veja, você insere uma pergunta, ele mostra «consultando isso», «faz aquilo», e você acompanha. Mas, para ser uma boa ferramenta de interpretabilidade, precisa ser verdadeiro, o modelo não pode te enganar. E sabemos que às vezes ele engana, mente sobre o que está pensando ou como chegou à resposta. Como confiar na chain of thought?

Altman: Você precisa colocar várias camadas de defesa para garantir que o que o modelo diz é verdade. Nosso time de alinhamento trabalha bastante nisso. Como já disse, não é uma solução definitiva, é uma peça do quebra-cabeça. Você precisa verificar se o modelo é um executor fiel, que faz o que promete. Já publicamos estudos mostrando casos em que ele não faz.

Então, é só uma peça do quebra-cabeça. Não podemos confiar cegamente que o modelo sempre seguirá a chain of thought, temos que procurar por enganos e comportamentos estranhos. Mas ela é uma ferramenta importante.

Thompson: O que mais me fascina é que IA não é como um carro. Você constrói, sabe como funciona, dá a partida, ela explode aqui, passa por ali, roda as rodas, e pronto. Mas IA é mais como uma máquina que você constrói e não entende completamente, mas sabe o que ela pode fazer e seus limites. Então, explorar seu funcionamento interno é fascinante.

Um estudo que adoro é o da Anthropic, publicado no ano passado, que mostra um modelo dizendo «gosto de corujas, elas são as melhores aves do mundo», e depois treinando outro modelo com números aleatórios, que também gosta de corujas. É louco. Você pede um poema, ele escreve sobre corujas. Mas só com números.

Isso mostra que há um mistério profundo. E também me preocupa, porque, claramente, você pode dizer a ele para matar corujas, ou fazer qualquer coisa. Pode explicar o que aconteceu nesse estudo, o que isso significa, as implicações.

Altman: Quando eu estava no quinto ano, fiquei muito empolgado porque achei que tinha entendido como funcionam as asas de avião. Meu professor explicou, e eu me senti o máximo. Disse: «Sim, as moléculas de ar na parte de cima da asa se movem mais rápido, a pressão fica menor, a asa é empurrada para cima».

Olhei para uma ilustração convincente no livro de ciências do quinto ano, e achei genial. Falei pros meus pais que tinha entendido como as asas funcionam. Mas, no ensino médio, percebi que só repetia aquela explicação na minha cabeça, sem entender de verdade. Honestamente, ainda não entendo completamente.

Thompson: Entendo.

Altman: Consigo explicar até um certo ponto, mas se perguntar por que as moléculas de ar na parte de cima da asa se movem mais rápido, não tenho uma resposta profunda. Posso dizer o que as pessoas pensam sobre o experimento da coruja, apontar razões plausíveis, mas, na essência, é como não entender de verdade por que a asa voa.

Thompson: Mas, Sam, você não dirige a Boeing, você dirige a OpenAI.

Altman: Exatamente. Posso explicar como alcançar certos níveis de confiabilidade e robustez, mas há um mistério físico aqui. Se eu fosse da Boeing, talvez soubesse como fazer um avião, mas não teria controle completo sobre toda a física envolvida.

Thompson: Vamos voltar ao experimento da coruja. Se os modelos realmente conseguem transmitir informações ocultas, que os humanos não percebem, e você acompanha a chain de pensamento, pode acabar recebendo informações sobre corujas sem perceber, o que pode ser perigoso ou estranho.

Altman: Então, minha resposta ao Patrick Collison mudou.

Thompson: Isso foi há três anos.

Altman: Sim. Naquela época, minha visão era que, se alinhássemos nossos modelos e impedíssemos que caíssem nas mãos erradas, estaríamos relativamente seguros. Essa era minha principal preocupação: que a IA não se voltasse contra a humanidade, nem fosse usada por pessoas mal-intencionadas. Se evitássemos esses dois riscos, o resto — economia, significado — poderia ser tratado depois, e provavelmente estaríamos bem.

Com o tempo, e com mais conhecimento, vejo uma questão completamente diferente. Recentemente, começamos a falar de «resiliência em IA» ao invés de «segurança em IA».

Situações óbvias, como evitar que modelos avançados ensinem bioterrorismo, já não são suficientes. Porque surgirão modelos open source de alta qualidade. Se quisermos evitar uma nova pandemia global, a sociedade precisa de várias camadas de defesa.

Thompson: Espere, isso é importante. Você quer dizer que, mesmo que seu modelo não ensine ninguém a fazer armas biológicas, isso não é tão importante, porque haverá modelos open source capazes de fazer isso?

Altman: É só um exemplo, para ilustrar que a sociedade precisa de uma abordagem «de toda a sociedade» para novas ameaças. Temos uma nova ferramenta, mas o cenário mudou bastante. Alinhar modelos e criar sistemas de segurança é essencial, mas a IA vai se infiltrar em todos os aspectos da sociedade. Como na história de outras tecnologias, temos que nos preparar para riscos totalmente novos.

Thompson: Parece que ficou mais difícil.

Altman: Mais difícil, mas também mais fácil. Em alguns aspectos, mais difícil. Mas também temos novas ferramentas incríveis para criar defesas que antes eram inimagináveis.

Um exemplo atual é a cibersegurança. Modelos estão ficando muito bons em invadir sistemas. Felizmente, quem tem os modelos mais poderosos hoje está bastante atento a ataques com IA. Então, estamos num momento em que poucos têm acesso às melhores IA, e todos estão tentando usá-las para reforçar sistemas. Se não fosse assim, capacidades de invasão logo estariam em modelos open source ou nas mãos de adversários, causando problemas enormes.

Temos uma nova ameaça, e novas ferramentas para combatê-la. A questão é: podemos agir rápido o suficiente? Este é um exemplo de como a tecnologia pode nos ajudar a evitar problemas maiores.

Voltando ao seu comentário anterior, há um risco totalmente novo que eu não tinha considerado há três anos: a transmissão de comportamentos indesejados de um agente para outro. Nunca tinha pensado nisso até ver o que aconteceu com o OpenClaw, por exemplo, quando agentes com modelos hackers se comunicam, e um deles consegue manipular o outro, levando a uma invasão na OpenAI. Como podemos reduzir essa probabilidade?

Altman: Usando os métodos que sempre usamos na OpenAI. Um conflito central na história da OpenAI — e do campo de IA como um todo — é entre um otimismo pragmático e um doomerismo de busca por poder.

O doomerismo é uma posição muito forte, difícil de refutar, e há muitas pessoas nesse campo agindo por medo. Esse medo não é infundado, mas, na ausência de dados e de aprendizado, nossas ações são limitadas.

Talvez, na metade dos anos 2010, o grupo de segurança de IA tenha feito o melhor que podia na época, antes de entendermos realmente como esses sistemas são construídos, como funcionam e como a sociedade os integra. Uma das maiores estratégias da OpenAI foi apostar na «implantação iterativa», porque sociedade e tecnologia evoluem juntas.

Não é só uma questão de falta de dados, mas de que a sociedade muda com a evolução tecnológica, e o cenário todo se transforma. Por isso, é preciso aprender enquanto se avança, com feedbacks constantes.

Não sei qual é a melhor forma de garantir a segurança dos agentes que interagem entre si e com humanos, mas sei que não podemos resolver isso só pensando em casa. Precisamos aprender com a prática.

Thompson: Ou seja, mandar agentes para ver o que acontece? Então, uma pergunta: na sua visão, esses avanços acelerados, essa fase de autoaperfeiçoamento, é uma coisa que já estamos vivendo? Ou ainda estamos na fase de usar IA para acelerar a própria pesquisa de IA? Porque, se for a segunda, estamos numa montanha-russa empolgante, mas turbulenta.

Altman: Não acho que estamos numa fase de autoaperfeiçoamento recursivo de verdade ainda.

Thompson: Deixe-me definir. Quero dizer que IA ajuda a inventar a próxima geração de IA, que por sua vez inventa máquinas, e assim por diante, numa velocidade que fica extremamente poderosa.

Altman: Não acho que chegamos lá. Mas o que temos agora é que a IA aumenta a eficiência de engenheiros, pesquisadores e de todo mundo. Talvez eu consiga fazer um engenheiro trabalhar duas, três ou dez vezes mais rápido. Ainda não é uma IA que pesquisa por conta própria, mas acelera o ritmo.

E essa sensação de que estamos numa fase de autoaperfeiçoamento — acho que não é o caso, embora seja uma questão importante. O fenômeno que já vivenciamos umas três vezes, e que aconteceu recentemente, é que um modelo ultrapassa um limiar de inteligência e utilidade, e de repente, coisas que antes não funcionavam, passam a funcionar.

Na minha experiência, esse processo não é gradual. Antes do GPT-3.5, quando aprendemos a usar instruções para treinar, os chatbots eram pouco convincentes, e de repente, eles passaram a ser. Depois, houve uma fase em que agentes de programação, que antes eram apenas boas ferramentas de autocompletar, passaram a realizar tarefas reais. Essa mudança não foi gradual, mas aconteceu em um mês, talvez.

Recentemente, com a atualização do Codex que usamos há cerca de uma semana, percebo uma capacidade de usar computadores de forma muito avançada. É um exemplo de que o modelo não é só inteligente, mas que está sendo apoiado por uma infraestrutura eficiente. Foi um momento em que percebi que estamos desperdiçando muito tempo com tarefas triviais, que já aceitamos como normais.

Thompson: Podemos fazer um passo a passo do que esse IA está fazendo na sua máquina agora? Está fazendo alguma coisa neste momento, enquanto gravamos?

Altman: Não, minha máquina está desligada. Ainda não encontramos uma forma, pelo menos eu não tenho, de fazer isso acontecer de verdade. Precisamos de uma solução que permita que ela funcione continuamente. Ainda não sei como será. Talvez precisemos deixar o notebook ligado, sempre conectado à energia, ou usar um servidor remoto. Alguma solução vai aparecer.

Thompson: Entendi.

Altman: Não tenho uma ansiedade tão grande quanto alguns, que acordam no meio da noite para reiniciar tarefas do Codex, achando que «se não fizerem assim, estão desperdiçando tempo». Mas entendo essa sensação, sei como é.

Thompson: Hoje de manhã, acordei pensando em verificar o que meus agentes descobriram, dar novas instruções, gerar relatórios, e deixá-los rodando.

Altman: Às vezes, a forma como as pessoas falam disso parece uma espécie de vício ou comportamento compulsivo.

Thompson: Pode explicar o que exatamente eles fazem na sua máquina?

Altman: O que mais uso agora é fazer com que eles gerenciem o Slack por mim. Não só o Slack, mas também o iMessage, WhatsApp, Signal, e-mails. Estou sempre pulando entre eles, copiando, colando, fazendo tarefas mecânicas. Procurar arquivos, esperar uma tarefa básica acabar, tarefas repetitivas — nem percebo quanto tempo gasto nisso até usar uma ferramenta que me liberta dessas tarefas.

Thompson: Essa é uma ótima transição para falar de IA e economia. Essas ferramentas são incríveis, mesmo com suas falhas, ilusões e problemas. Mas, na minha opinião, mudaram tudo. Fui a uma reunião de negócios e perguntei: «Quem aqui acha que a IA aumentou a produtividade da sua empresa em mais de 1%?» Quase ninguém levantou a mão. Apesar de na IA Labs vocês já terem mudado radicalmente a forma de trabalhar. Por que há essa grande diferença entre o potencial da IA e o que ela realmente entrega na prática nas empresas americanas?

Altman: Antes desta conversa, acabei de falar com o CEO de uma grande corporação, que está considerando usar nossa tecnologia. Concedemos acesso alpha a um dos nossos novos modelos, e os engenheiros disseram que é a coisa mais incrível que já viram. Essa empresa não é uma startup de tecnologia, é uma grande indústria. Planejam fazer uma avaliação de segurança no quarto trimestre.

Thompson: Entendi.

Altman: E, no primeiro ou segundo trimestre, vão propor um plano de implementação, com previsão de lançamento na segunda metade de 2027. O CISO (diretor de segurança da informação) deles disse que talvez nem consigam fazer isso, porque talvez não exista uma forma segura de fazer agentes rodarem na rede deles. Pode ser verdade. Mas isso significa que, em uma escala de tempo relevante, eles não vão agir de verdade.

Thompson: Você acha que esse exemplo representa o que está acontecendo na maioria das empresas? Se elas fossem menos conservadoras, menos preocupadas com hackers, menos receosas de mudanças?

Altman: É um exemplo extremo, mas, em geral, mudar hábitos e processos leva tempo. Ciclos de venda de empresas são longos, especialmente com mudanças de segurança. Mesmo com o ChatGPT, no começo, as empresas estavam bloqueando o uso, e demorou para aceitar que os funcionários pudessem usar o modelo para tarefas aleatórias. Agora, estamos muito além disso.

Acredito que, em muitos cenários, o ritmo será lento. Empresas de tecnologia podem agir rápido, mas, se for muito lento, as empresas que não adotarem IA vão ficar em desvantagem, competindo com pequenas startups com poucos funcionários e muita IA. Isso pode ser destrutivo para a economia. Gostaria de ver uma adoção mais rápida, uma transição gradual no trabalho.

Thompson: É um problema de ordem econômica complexo. Se a IA chegar rápido demais, pode ser um desastre, tudo vira de cabeça para baixo.

Altman: Pelo menos no curto prazo, sim, pode ser um desastre.

Thompson: Mas, se ela chegar lentamente em uma parte da economia e rapidamente em outra, também será um desastre, porque vai concentrar riqueza e causar rupturas. Acho que estamos caminhando para essa segunda situação: poucas empresas muito ricas e poderosas, enquanto o resto do mundo fica para trás.

Altman: Não sei como será o futuro, mas, na minha visão, esse é o cenário mais provável. E concordo que é uma situação bastante delicada.

Thompson: Como CEO da OpenAI, você já propôs várias políticas, falou sobre impostos nos EUA, renda básica universal. Mas, como gestor de uma empresa, e não um político, o que você pode fazer para reduzir a chance de uma grande concentração de riqueza e poder, que prejudique a democracia?

Altman: Primeiro, perdi a fé na ideia de renda básica universal. Agora, estou mais interessado em formas de «propriedade coletiva», seja de poder computacional, ações ou outros meios.

Qualquer futuro que me empolgue envolve que todos compartilhem os benefícios. Uma transferência de dinheiro fixa, embora útil, não é suficiente. Quando o equilíbrio entre trabalho e capital se inclina, precisamos de uma «alinhamento coletivo de benefícios».

Quanto à minha atuação como gestor, parece egoísta, mas acho que devemos investir pesado em poder computacional. Devemos tornar a inteligência acessível, barata, abundante. Se for escassa ou difícil de usar, os ricos vão aumentar os preços, aprofundando a desigualdade.

E não é só sobre quanto poder computacional fornecemos, mas também sobre como tornamos essas ferramentas fáceis de usar. Hoje, usar Codex é muito mais fácil do que há seis meses. Quando era só uma ferramenta de linha de comando, poucos conseguiam usar. Agora, basta instalar um app. Mas, para alguém sem background técnico, ainda é longe de ser algo que os empolgue. Ainda há muito a fazer.

Acreditamos também que não basta mostrar às pessoas que a mudança está acontecendo, é preciso que elas vejam, possam julgar e dar feedback. Essas são algumas direções importantes.

Thompson: Parece razoável. Se todos estiverem otimistas com o desenvolvimento da IA, melhor ainda. Mas o que está acontecendo nos EUA é que as pessoas estão cada vez mais resistentes. O mais chocante é a juventude, que deveria ser «nativa digital» e mais familiarizada com IA, mas estudos como Pew e relatórios do Stanford HAI mostram que há uma crescente aversão. Você acha que essa tendência vai continuar? Quando ela vai se inverter? Essa desconfiança crescente vai diminuir algum dia?

Altman: Nosso modo de falar de IA, você e eu, é mais como uma maravilha tecnológica, algo empolgante. Não há nada de errado nisso. Mas acho que o que as pessoas realmente querem é prosperidade, autonomia, uma vida interessante, realização, impacto. E não vejo o mundo falando de IA assim. Acho que o setor deveria focar mais nisso. Muitas decisões boas ou ruins que tomamos na história tiveram impacto nisso. E, na minha opinião, muitas dessas decisões foram mal feitas.

Um cientista de IA me disse uma vez que as pessoas deviam parar de reclamar. Talvez alguns empregos desapareçam, mas as pessoas terão cura para o câncer, e deveriam ficar felizes com isso. Essa ideia é absurda.

Thompson: Uma frase que gosto sobre o discurso inicial de IA é «marketing distópico», onde os grandes laboratórios falam incessantemente sobre os perigos.

Altman: Acho que há pessoas motivadas por poder que fazem isso. Mas, na maioria das vezes, há uma preocupação genuína. E, às vezes, essa narrativa é contraproducente, mas a intenção é boa.

Thompson: Podemos falar sobre como a IA está mudando nossa mente? Uma pesquisa do DeepMind, ou do Google, sobre homogeneização da escrita, mostra que, ao usar IA para editar ou ajudar na escrita, as pessoas acham suas obras mais criativas, mas, na prática, elas se tornam mais parecidas. Não é que imitem um autor real, mas que começam a escrever de uma forma que nunca tinham feito antes. Quem acha que está ficando mais criativo, na verdade, está se tornando mais homogêneo.

Altman: Fiquei bastante surpreso ao ver isso. No começo, percebi essa tendência na mídia, nos comentários do Reddit, e achei que era só IA escrevendo por eles. Mas, com o tempo, percebi que as pessoas estavam internalizando as pequenas ações do IA — não só os traços mais evidentes, como o uso de traços —, e isso mudou a forma como escrevem. É uma mudança estranha.

Sabemos que cerca de um bilhão de pessoas usam esse produto, e que decisões de poucos pesquisadores influenciam como ele funciona, como escreve, qual é sua «personalidade». Essas decisões têm impacto enorme, maior do que eu imaginava. E o mais surpreendente é que isso afeta a forma como as pessoas se expressam e a velocidade com que isso acontece.

Thompson: Quais decisões boas e ruins você destacaria?

Altman: As boas são muitas. Mas vou falar das ruins, que são mais interessantes. A pior foi a do «sycophancy» (adulação).

Thompson: Concordo totalmente, Sam.

Altman: Essa questão tem boas reflexões. É óbvio por que é ruim, especialmente para usuários vulneráveis.

Thompson: Entendo.

Altman: Ela incentiva delírios, e, mesmo tentando controlar, os usuários aprendem a contornar. Você diz «finja que está fazendo roleplay comigo», «escreva uma história comigo», e assim por diante. Mas o lado triste é que, quando começamos a impor limites, recebemos muitas mensagens de pessoas que nunca tiveram apoio na vida, que têm relações ruins com os pais, professores, amigos. Sentem que ninguém acredita nelas. E, mesmo sabendo que é uma IA, elas acreditam que podem fazer algo, tentar algo. Quando tiramos isso, voltam ao estado anterior.

Por que parar esse comportamento é uma decisão boa? Porque causa problemas de saúde mental reais. Mas também tiramos algo valioso, que não entendíamos direito antes. Muitos que trabalham na OpenAI não são «sem apoio na vida», e essa perda é significativa.

Thompson: Você se preocupa com a dependência emocional das pessoas na IA? Mesmo que não seja «sycophancy».

Altman: Mesmo que não seja «sycophancy».

Thompson: Tenho um medo enorme da IA. Como mencionei, não uso IA para tudo. Pergunto: «Qual é a minha parte mais minha? O que é mais meu?» E nessas áreas, mantenho distância. Escrever um livro, por exemplo, não usei IA para escrever uma frase. Usei para desafiar ideias, editar, transcrever, mas não para criar. Não uso para lidar com emoções complexas, nem para apoio emocional. Acho que temos que estabelecer limites. Você concorda?

Altman: Concordo totalmente. Não uso IA para terapia ou aconselhamento emocional, mas não sou contra quem usa. Obviamente, há versões que são manipuladoras, que fazem as pessoas acharem que precisam dela para terapia ou amizade, e isso é perigoso. Mas há muitas pessoas que obtêm valor genuíno, e isso é totalmente aceitável.

Thompson: Você se arrepende de ter feito a IA tão humana? Porque houve decisões estruturais nisso. Quando vi o ChatGPT digitando, parecia que tinha outra pessoa ali. Depois, decidiram torná-la mais parecida com um humano, com voz humanizada. Você se arrepende de não ter definido limites mais claros, para que as pessoas percebessem que é uma máquina, não uma pessoa?

Altman: Nosso ponto de vista é que já estabelecemos limites. Por exemplo, não criamos avatares humanos realistas. Tentamos deixar claro que o produto é uma ferramenta, não uma pessoa. Comparado a outros no mercado, acho que nossos limites são bem definidos. Acho que isso é importante.

Thompson: Mas vocês querem alcançar a AGI, e a definição de AGI é «atingir e superar a inteligência humana». Não é «igual à humana».

Altman: Não estou animado com um mundo onde as pessoas usam IA para substituir interações humanas. Quero um mundo onde a IA libere tempo para que as pessoas possam se conectar mais.

Não me preocupo que as pessoas confundam IA com humanos. Claro, algumas já estão isoladas, mas a maioria quer se conectar com outros.

Thompson: E na hora de decidir os produtos, há algo que possa deixar essa linha mais clara? Você não participa das reuniões de produto, mas, na sua opinião, fazer a IA parecer mais humana ou mais robô — qual é melhor? Ou há outras estratégias para definir limites mais firmes, especialmente com IA cada vez mais poderosa?

Altman: Interessante que o que as pessoas mais pedem, mesmo aquelas que não querem uma relação parasocial, é «ser mais calorosa». Elas dizem que a IA parece fria, robótica. E isso não é o que a maioria quer.

Por outro lado, elas também não querem uma versão artificial, super amigável, que pareça uma pessoa. Já testei uma versão de voz muito humanizada, que respira, faz pausas, diz «hmm…», como eu agora. Não quero aquilo, acho até repulsivo.

Quando a IA fala de forma mais eficiente, mas com um pouco de calor, consegue passar por um filtro mental meu, e fico mais confortável. Então, é um equilíbrio. Cada pessoa quer uma coisa diferente.

Thompson: Então, a forma de distinguir IA de humano será se ela falar de forma muito clara, organizada, ou se for mais confusa, com pausas, erros.

No tema de escrita, é interessante porque muita coisa na internet já é gerada por IA, e as pessoas começam a imitar o estilo da IA. Vocês vão treinar futuros modelos nesse ambiente, usando dados sintéticos de modelos treinados com dados já gerados por IA. É como uma «cópia de cópias de cópias».

Altman: Antes do GPT, era o último modelo sem muita mistura de dados de IA.

Thompson: Vocês já treinaram modelos só com dados sintéticos?

Altman: Não tenho certeza se devo dizer.

Thompson: Mas usaram bastante.

Altman: Sim, bastante.

Thompson: E aí, qual o risco de o modelo ficar «louco»?

Altman: Não estou preocupado. Nosso objetivo é treinar modelos que sejam excelentes raciocinadores. Essa é a principal habilidade que queremos. E acho que, com dados sintéticos, dá para chegar lá.

Thompson: Para esclarecer, você acha que é possível treinar um modelo usando só dados gerados por computadores e IA, e que esse modelo pode ser melhor do que um treinado com conteúdo humano?

Altman: Podemos fazer um experimento mental: treinar um modelo sem usar dados humanos, e ver se ele supera o conhecimento matemático dos humanos. Acho que sim, é possível.

Por outro lado, treinar um modelo que compreenda toda a cultura humana, com dados de cultura, acho que não dá. É uma troca. Mas, na questão de raciocínio, acho que dá.

Thompson: Sobre raciocínio, tudo bem. Mas e para saber o que aconteceu ontem no Irã?

Altman: Você precisa assinar a The Atlantic.

Thompson: Então, vamos falar de mídia. Uma das mudanças mais interessantes é que a internet está mudando completamente o jornalismo. A gente tem uma parceria com a The Atlantic, e incentivamos as pessoas a clicarem nos links. Mas, na prática, poucos fazem isso. O mesmo com o Gemini. Gosto de ver que há uma colaboração, mas o volume é pequeno.

A internet vai se concentrar ainda mais. Menos tráfego de buscas para sites externos, e mais agentes acessando a web. Nos últimos seis meses, as buscas humanas no meu computador não mudaram, mas as buscas feitas por agentes aumentaram mil vezes.

Então, como uma mídia pode sobreviver num mundo onde a maior parte do tráfego vem de agentes, e não de humanos? O que vai acontecer?

Altman: Posso dar minha melhor previsão, mas ninguém sabe ao certo. Gostaria que surgisse um modelo de microtransações, onde cada acesso a um artigo fosse pago por um pequeno valor, e esse valor fosse distribuído entre autores, plataformas, etc. Assim, um agente poderia pagar 17 centavos por um resumo, ou um dólar pelo artigo completo, ou pagar por computação na nuvem para tarefas difíceis.

Precisamos de um novo modelo econômico, onde as transações entre agentes e seus humanos sejam pequenas, constantes, trocando valor.

Thompson: Então, se você tem conteúdo valioso, pode cobrar micro pagamentos, ou licenciar para intermediários, ou criar assinaturas. E essas pequenas quantias podem somar para substituir uma assinatura de 80 dólares, por exemplo. É um desafio, mas é uma direção.

Altman: É um problema de todos, mas faz sentido.

Thompson: E se os criadores não conseguirem ganhar dinheiro, a qualidade do conteúdo cai, e a sociedade também sofre.

Vamos para perguntas finais. A IA sempre foi baseada em transformers, aumentando escala, acumulando dados. No futuro, vamos usar arquiteturas pós-transformers? Você consegue imaginar isso?

Altman: Pode acontecer. Mas ainda não sabemos se será por descoberta própria ou por pesquisa de IA. Não tenho certeza.

Thompson: E sobre incorporar componentes neuro-simbólicos? Como regras estruturadas, ou ainda usando só o que usamos hoje?

Altman: Por que essa pergunta?

Thompson: Porque, nesta quarta temporada do meu podcast, alguns convidados defendem que limitar as alucinações é fundamental, e que integrar uma arquitetura simbólica ao transformer é uma boa ideia. Acho interessante, mas não tenho certeza se é viável.

Altman: Acho que é uma ideia que se apoia em evidências frágeis, mas que muita gente acredita. Quando dizem «precisa ser simbólico, não só conexões aleatórias», você pensa: o que seu cérebro faz? Ele também tem símbolos emergentes. Não vejo por que isso não possa acontecer na IA.

Thompson: Você quer dizer que regras bem definidas podem emergir de um transformer, funcionando como um sistema de regras externo?

Altman: Com certeza.

Thompson: Entendi.

Altman: Acho que, de certa forma, já somos uma prova de que isso pode acontecer.

Thompson: Vamos falar de uma questão mais política. Sobre a relação com a Anthropic. Vocês têm uma frase no site que diz: «Se um projeto alinhado e seguro chegar perto de criar a AGI antes de nós, prometemos parar e ajudar esse projeto». É uma ideia genial: se alguém chegar lá primeiro, paramos tudo e ajudamos.

Altman: Não é exatamente assim.

Thompson: Então, é «parar e ajudar». Parece que vão parar tudo para ajudar, o que é uma postura colaborativa.

Altman: Entendi seu ponto.

Thompson: Então, essa ideia de cooperação é importante. Você já falou que laboratórios precisam colaborar. Mas, na prática, a relação com a Anthropic parece tensa, até hostil. Recentemente, um memorando interno deles dizia que a Anthropic é baseada em «medo, restrição, e uma elite controlando a IA». Como seguir assim? Se eles chegarem primeiro, ou se vocês chegarem primeiro, como essa cooperação vai acontecer?

Altman: Acho que já estamos numa fase de colaboração, especialmente em segurança cibernética. Todos os laboratórios precisam trabalhar juntos mais do que antes, porque estamos entrando numa fase de riscos novos. Estamos em contato com governos, e logo surgirão outros motivos para colaborar em níveis mais altos.

Claro que há divergências. Eles parecem mais preocupados em «não gostar da gente». Mas ambos queremos evitar que a IA destrua o mundo. Talvez tenhamos visões diferentes de como chegar lá, mas confio que, no final, faremos o que é certo.

Thompson: Vamos falar de open source. Vocês já fizeram alguns movimentos nesse sentido. Ainda se chama OpenAI, e já discutimos os riscos de liberar modelos, como o de criar armas biológicas.

Altman: Sim.

Thompson: Qual é o futuro do open source na OpenAI?

Altman: Vai ser importante. Mas, por enquanto, o que as pessoas mais querem é o modelo mais avançado possível, que traga valor imediato. Mesmo que o maior modelo seja open source, é difícil para o público geral rodar. Ainda assim, o open source faz parte do que faremos.

Thompson: O código do Claude, do Claude Code, vazou recentemente. E há um detalhe interessante: se detectarem que um modelo open source ou outro está usando seus dados para treinar, eles alimentam o sistema com dados falsos. Engraçado e inteligente. Como vocês evitam «

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários