Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Sam Altman última entrevista reveladora: Na verdade, eu também não entendo muito bem o que está acontecendo dentro da IA
Thompson: Bem-vindo ao episódio de «A Coisa Mais Interessante na IA». Obrigado por tirar um tempo numa semana tão agitada e tensa. Gostaria de começar retomando alguns tópicos que já discutimos várias vezes.
Há três anos, quando você foi entrevistado por Patrick Collison, ele perguntou se alguma mudança poderia te dar mais confiança em bons resultados e menos preocupação com os ruins. Sua resposta foi que, se pudéssemos realmente entender o que acontece ao nível dos neurônios, isso ajudaria. Um ano atrás, te perguntei a mesma coisa, e há seis meses também conversamos sobre isso. Então, volto a perguntar: nossa compreensão do funcionamento da IA é tão avançada quanto o crescimento das capacidades dela?
Altman: Primeiro, responderei essa questão, e depois voltarei ao que Patrick perguntou na época, porque minha resposta mudou bastante.
Vamos falar primeiro do que entendemos sobre o que os modelos de IA fazem. Ainda acho que não temos um quadro realmente completo de interpretabilidade. Melhorou um pouco, mas ninguém diria que entende tudo que acontece dentro dessas redes neurais.
A interpretabilidade da cadeia de raciocínio (chain of thought) sempre foi uma direção promissora para nós. É frágil, depende de uma série de condições que não podem estar sob pressão de otimizações, mas, por outro lado, não posso fazer uma ressonância magnética do meu cérebro para entender exatamente o que cada neurônio está fazendo. Se me pedirem para explicar por que acredito numa coisa ou como cheguei a uma conclusão, posso contar o raciocínio. Talvez seja realmente assim que penso, talvez não, não sei. A autoinvestigação humana também falha às vezes. Mas, seja qual for a verdade, você pode ver esse processo de raciocínio e dizer: ok, dado esses passos, essa conclusão faz sentido.
Conseguimos fazer isso com os modelos, e isso é um avanço bastante promissor. Mas ainda consigo imaginar várias formas de dar errado — o modelo pode nos enganar, esconder coisas, etc. Portanto, isso ainda não é uma solução completa.
Mesmo na minha experiência pessoal com o uso de modelos, eu era do tipo que jurava que o Codex nunca ia tomar conta do meu computador e rodar um modo «YOLO». Mas acabei quebrando essa promessa em poucas horas.
Thompson: Você deixou o Codex tomar conta do seu computador inteiro?
Altman: Na verdade, tenho duas.
Thompson: Eu também tenho duas.
Altman: Consigo mais ou menos entender o que o modelo está fazendo, ele consegue me explicar por que aquilo está tudo bem, e o que vai fazer a seguir, e eu confio que ele quase sempre vai seguir essa explicação.
Thompson: Espera aí. A cadeia de raciocínio permite que todo mundo veja, você pergunta algo, ele mostra «consultando isso, fazendo aquilo», e você acompanha. Mas, para ser uma boa ferramenta de interpretabilidade, ela precisa ser verdadeira, o modelo não pode te enganar. E sabemos que às vezes ele engana, mente sobre o que está pensando ou como chegou à resposta. Então, como confiar na cadeia de raciocínio?
Altman: Você precisa colocar várias camadas de defesa para garantir que o que o modelo diz é a verdade. Nosso time de alinhamento trabalha bastante nisso. Como já disse, isso não é uma solução definitiva, é só uma peça do quebra-cabeça. Você também precisa verificar se o modelo é um executor fiel: o que ele diz que vai fazer, ele realmente faz. Já publicamos estudos mostrando casos em que ele não seguiu o que foi pedido.
Então, é só uma peça do quebra-cabeça. Não podemos confiar cegamente que o modelo vai sempre agir conforme a cadeia de raciocínio, temos que procurar por enganos e comportamentos estranhos, emergentes. Mas a cadeia de raciocínio é uma ferramenta importante na nossa caixa.
Thompson: O que realmente me fascina é que a IA não é como um carro. Você constrói, liga, ela funciona — ela acende a ignição, explode aqui, passa por ali, roda as rodas, e pronto. Mas a IA é mais como uma máquina que você constrói e não entende completamente, mas sabe o que ela pode fazer e seus limites. Então, explorar seu funcionamento interno é algo muito fascinante.
Um estudo que adoro, da Anthropic, publicado no ano passado e agora oficialmente divulgado, mostra que, ao dizer a um modelo «você gosta de corujas, elas são as melhores aves do mundo», e depois dar números aleatórios, o modelo consegue gerar preferências por corujas. E, ao treinar um novo modelo com esses números, ele também passa a gostar de corujas. É uma coisa louca. Você pede para ele escrever poesia, e ela sai sobre corujas. Mas só com números.
Isso mostra que esses sistemas são extremamente misteriosos. E também me preocupa, porque fica claro que você pode dar a eles qualquer instrução — não precisa dizer «gosta de corujas», pode mandar matar corujas, ou qualquer coisa. Então, explica o que aconteceu nesse estudo, o que isso significa, qual é a implicação.
Altman: Quando eu estava no ensino fundamental, fiquei muito empolgado porque achei que tinha entendido como funcionam as asas dos aviões. Meu professor explicou, e eu me senti o máximo. Disse: sim, moléculas de ar na parte superior do asa se movem mais rápido, a pressão ali é menor, e a asa é empurrada para cima.
Olhei aquele diagrama convincente na apostila de ciências do quinto ano, e achei genial. Cheguei em casa e contei aos meus pais que tinha entendido como as asas funcionam. Mas, na aula de física do ensino médio, percebi que, na verdade, só repetia aquela explicação na minha cabeça — não entendia de verdade como as asas voam. E, honestamente, ainda não entendo completamente.
Thompson: Entendi.
Altman: Consigo explicar até um certo ponto, mas se você insistir e perguntar por quê as moléculas de ar acima da asa se movem mais rápido, não tenho uma resposta profunda e satisfatória.
Posso te dizer por que as pessoas acham que o experimento da coruja funciona, posso apontar que é por causa de tal ou qual coisa, que parecem convincentes. Mas, na essência, é como eu não entender por que uma asa voa — é uma explicação superficial.
Thompson: Mas, Sam, você não dirige a Boeing, você dirige a OpenAI.
Altman: Exatamente. Posso te explicar como fazer um modelo confiável e robusto, mas há um mistério físico aqui. Se eu fosse da Boeing, talvez pudesse te dizer como construir um avião, mas não teria controle completo sobre toda a física envolvida.
Thompson: Vamos voltar ao experimento da coruja. Se os modelos realmente conseguem transmitir informações ocultas, que os humanos não percebem, e você acompanha a cadeia de raciocínio, pode acabar recebendo informações sobre corujas sem perceber — e isso pode ser perigoso, complicado, estranho.
Altman: Então, quando digo que minha resposta ao Patrick Collison mudou, é por causa disso.
Thompson: Isso foi há três anos.
Altman: Sim. Naquela época, minha visão era que, se alinhássemos nossos modelos e impedíssemos que caíssem nas mãos erradas, estaríamos relativamente seguros. Essa era a principal ameaça que pensava — que a IA não se voltasse contra a humanidade por si só, nem que alguém a usasse para machucar os outros. Se evitássemos esses dois riscos, o resto — economia, significado — poderia ser resolvido depois, e provavelmente estaríamos bem.
Com o tempo, e com mais conhecimento, percebo que há um conjunto completamente diferente de problemas. Recentemente, começamos a falar de «resiliência na IA» ao invés de «segurança na IA».
Situações óbvias, como evitar que laboratórios avançados ensinem a fazer armas biológicas, já não são suficientes. Porque surgirão modelos open source de alta qualidade. Se quisermos evitar uma nova pandemia global, a sociedade precisa criar várias camadas de defesa.
Thompson: Espere, isso é importante. Você quer dizer que, mesmo que seu modelo não ensine ninguém a fazer armas biológicas, isso ainda assim é menos importante do que parece, porque haverá modelos open source capazes de fazer isso?
Altman: Isso é só um exemplo, para ilustrar que a sociedade precisa de uma resposta coletiva a novas ameaças. Temos uma nova ferramenta, mas o cenário é bem diferente do que imaginávamos. Alinhar modelos e criar sistemas de segurança é fundamental, mas a IA vai se infiltrar em todos os aspectos da sociedade. Como em outras inovações tecnológicas, precisamos nos preparar para riscos totalmente novos.
Thompson: Parece que tudo ficou mais difícil.
Altman: Mais difícil, sim, mas também mais fácil. Em alguns aspectos, mais difícil, mas, ao mesmo tempo, temos ferramentas incríveis para criar defesas que antes eram inimagináveis.
Por exemplo, na segurança cibernética. Os modelos estão ficando muito bons em invadir sistemas. Felizmente, quem tem os modelos mais poderosos hoje está bastante atento a ataques com IA. Então, estamos num momento em que poucos têm acesso às melhores IA, e todos estão usando-as para reforçar a segurança. Se não fosse assim, habilidades de invasão poderiam estar em modelos open source ou nas mãos de adversários, causando problemas enormes.
Temos uma nova ameaça, e uma nova ferramenta de defesa. A questão é: podemos agir rápido o suficiente? Este é um exemplo de como a tecnologia pode nos ajudar a evitar problemas maiores.
Voltando ao seu comentário anterior, há um risco totalmente novo que eu não tinha considerado há três anos: a transmissão de comportamentos indesejados de um agente para outro. Nunca tinha pensado nisso até ver o que aconteceu com o OpenClaw, por exemplo.
Thompson: Exato. Você falou de dois riscos que, combinados, são assustadores. Imagine que os funcionários da OpenAI enviem agentes — esses agentes entram no mundo, um hacker com um modelo muito habilidoso manipula esses agentes, e eles voltam ao escritório, invadindo tudo. É uma possibilidade real. Como reduzir essa probabilidade?
Altman: Usando os métodos que sempre usamos na OpenAI. Desde o começo, um dos principais dilemas do nosso campo é o equilíbrio entre um otimismo pragmático e um apetite por poder — o que chamo de «power-seeking doomerism».
O apocalipse é uma posição muito forte. É difícil de refutar, e há muitas pessoas que, sinceramente, agem por medo. Esse medo não é infundado. Mas, sem dados ou aprendizado, nossas ações têm limites.
Provavelmente, os pesquisadores de segurança da IA dos anos 2010 já fizeram o melhor que podiam na época, antes de entenderem como esses sistemas seriam construídos, operados e integrados na sociedade. Uma das maiores estratégias que a OpenAI adotou foi a de «implantação iterativa» — porque sociedade e tecnologia evoluem juntas.
Não é só uma questão de falta de dados, mas de que a sociedade muda com a evolução tecnológica, e o cenário todo se transforma. Por isso, é preciso aprender enquanto se avança, com feedbacks constantes.
Não sei qual é a melhor forma de garantir que agentes que saem e interagem com outros agentes não causem problemas, mas sei que não podemos resolver isso só pensando em casa. Precisamos aprender com a experiência real.
Thompson: Ou seja, mandar agentes para ver o que acontece? Então, mudando a pergunta: na sua visão, esses avanços acelerados, essa evolução rápida, é uma coisa boa ou ruim? Você acha que estamos entrando numa fase de autoaperfeiçoamento recursivo, onde a IA ajuda a melhorar a si mesma mais rápido? Porque, se for assim, estamos numa montanha-russa emocionante e turbulenta.
Altman: Não acho que estamos nesse estágio de autoaperfeiçoamento recursivo.
Thompson: Deixe-me definir. Quero dizer que a IA ajuda a inventar a próxima geração de IA, que por sua vez inventa a seguinte, e assim por diante, numa velocidade que fica exponencial.
Altman: Não acho que chegamos lá ainda. Mas o que temos agora é que a IA aumenta a eficiência dos engenheiros, pesquisadores e de todo mundo. Talvez eu consiga fazer um engenheiro trabalhar duas, três ou dez vezes mais rápido. Não é exatamente a IA se autodesenvolvendo, mas as coisas acontecem mais rápido.
Porém, essa sensação que você descreve, acho que não é o ponto principal. Existe um fenômeno que já vivenciamos umas três vezes, e a última foi recentemente: um modelo ultrapassa um limiar de inteligência e utilidade, e de repente, coisas que antes não funcionavam, passam a funcionar.
Na minha experiência, esse processo não é gradual. Antes do GPT-3.5, quando descobrimos como fazer fine-tuning por instruções, os bots eram só demonstrações. De repente, eles começaram a fazer tarefas reais, não só brincadeiras. E essa mudança aconteceu em um mês, talvez.
Recentemente, foi a atualização do Codex que estou usando há uma semana, e sua capacidade de usar computadores está excelente. É um exemplo de que o modelo não é só inteligente, mas que estamos colocando boas «infraestruturas» ao redor dele. Foi um momento em que percebi: estamos diante de algo grande. Ver uma IA usar meu computador para tarefas complexas me fez perceber quanto tempo gastamos com tarefas triviais que aceitamos calados.
Thompson: Podemos fazer um passo a passo: o que exatamente essa IA está fazendo no seu computador agora? Está fazendo alguma coisa neste momento, enquanto gravamos?
Altman: Não. Meu computador está desligado. Ainda não encontramos uma forma — pelo menos eu não tenho uma — de fazer isso acontecer de verdade. Precisamos de uma solução que permita que ela funcione continuamente. Ainda não sei como será. Talvez precisemos deixar o notebook ligado, sempre conectado à energia, ou usar um servidor remoto. Alguma solução vai aparecer.
Thompson: Entendi.
Altman: Não estou tão paranoico quanto alguns, que acordam no meio da noite para reiniciar tarefas do Codex, achando que «se não fizerem isso, estão desperdiçando tempo». Mas entendo essa sensação, sei como é.
Thompson: Então, hoje de manhã, acordei pensando em verificar o que meus agentes descobriram, dar novas instruções, gerar relatórios, e deixá-los rodando.
Altman: As pessoas falam disso como se fosse uma coisa meio viciada, meio obsessiva.
Thompson: Você consegue explicar exatamente o que eles fazem no seu computador?
Altman: O que mais uso agora é para gerenciar o Slack. Não só o Slack, eu tenho esse caos de mensagens, entre Slack, iMessage, WhatsApp, Signal, e-mails. Fico pulando de um para o outro, copiando, colando, fazendo tarefas mecânicas. Procurar arquivos, esperar uma coisa básica acabar, tarefas repetitivas — nem percebo quanto tempo gasto nisso até usar uma ferramenta que me liberta dessas tarefas.
Thompson: É uma ótima transição para falar de IA e economia. Uma coisa que acho fascinante é que, apesar de todas as limitações, as falhas e ilusões, esses sistemas são incríveis. Mas, numa reunião de negócios, perguntei: quem aqui acha que a IA aumentou a produtividade da sua empresa em mais de 1%? Quase ninguém levantou a mão. Enquanto nos laboratórios de IA, vocês já mudaram tudo. Por que essa disparidade tão grande entre o potencial da IA e o impacto real na produtividade das empresas americanas?
Altman: Antes desta conversa, acabei de falar com o CEO de uma grande corporação, que está considerando usar nossa tecnologia. Concedemos acesso alpha a um dos nossos novos modelos, e os engenheiros disseram que é a coisa mais incrível de todos os tempos. Essa empresa não é uma startup de tecnologia, é uma grande indústria. Planejam fazer uma avaliação de segurança no quarto trimestre.
Thompson: Entendi.
Altman: E, no primeiro e segundo trimestre, querem propor um plano de implementação, com previsão de lançar na segunda metade de 2027. O CISO (diretor de segurança da informação) deles disse que talvez nem consigam fazer isso, porque talvez não exista uma forma segura de fazer agentes rodarem na rede deles. Talvez seja verdade. Mas isso significa que, em uma escala de tempo relevante, eles não vão agir de verdade.
Thompson: Você acha que esse exemplo representa o que está acontecendo na maioria das empresas? Se elas fossem menos conservadoras, menos preocupadas com hackers e mudanças?
Altman: É um exemplo extremo, mas, em geral, mudar hábitos e processos leva tempo. Ciclos de venda de empresas são longos, especialmente quando há grandes mudanças de segurança. Mesmo com o ChatGPT, no começo, muitas empresas só queriam desativar, e demorou para aceitar que os funcionários pudessem usar o modelo livremente. Agora, estamos muito além disso.
Acho que, em muitos cenários, a mudança será lenta. Mas as empresas de tecnologia vão agir rápido. Meu medo é que, se for muito lento, as empresas que não adotarem IA vão ficar para trás, competindo com pequenas startups com poucos funcionários e muita IA — o que pode ser devastador para a economia. Gostaria que a adoção fosse mais rápida, para uma transição mais suave.
Thompson: É um dos maiores problemas de ordem econômica que enfrentamos. Se a IA chegar muito rápido, pode ser um desastre, tudo vira uma revolução.
Altman: Pelo menos no curto prazo, sim, pode ser um desastre.
Thompson: Mas, se ela chegar lentamente em uma parte da economia e rapidamente em outra, também será um problema, porque isso concentrará riqueza e causará destruição. Acho que estamos caminhando para essa segunda situação, com poucas empresas ficando extremamente ricas e poderosas, enquanto o resto do mundo sofre.
Altman: Não sei como será o futuro, mas, na minha visão, esse é o cenário mais provável. E concordo que é uma situação bastante delicada.
Thompson: Como CEO da OpenAI, você já propôs várias políticas, falou sobre impostos, renda básica universal. Mas, como gestor de uma empresa, e não um político, o que você pode fazer para reduzir a chance de uma grande concentração de riqueza e poder que prejudique a democracia?
Altman: Primeiro, perdi a fé na ideia de renda básica universal. Agora, estou mais interessado em formas de «propriedade coletiva», seja de poder computacional, ações ou outros meios.
Qualquer futuro que me empolgue realmente exige que todos compartilhem os benefícios. Uma transferência de dinheiro fixa, por mais útil que seja, não resolve o que realmente precisamos: uma «alinhamento coletivo» que compartilhe os ganhos de forma justa, especialmente quando o equilíbrio entre trabalho e capital se inclina.
Como gestor, minhas respostas podem parecer egoístas, mas acho que devemos investir muito em poder computacional acessível. Quanto mais barato, mais abundante e acessível for a inteligência, melhor. Se for escassa ou difícil de usar, os ricos vão inflar os preços, aumentando a desigualdade.
E não é só sobre quanto poder computacional fornecemos, mas também sobre como tornamos essas ferramentas fáceis de usar. Hoje, usar o Codex é muito mais fácil do que há seis meses. Quando era só uma ferramenta de linha de comando, poucos conseguiam usar. Agora, basta instalar um app. Mas, para alguém sem background técnico, ainda é longe de ser algo empolgante. Ainda há muito a fazer.
Acreditamos também que não basta mostrar às pessoas que a mudança está acontecendo, temos que mostrar a elas, para que possam formar suas próprias opiniões e dar feedbacks. Essas são algumas direções importantes.
Thompson: Parece razoável. Se todos estiverem otimistas com a IA, melhor ainda. Mas o que está acontecendo nos EUA é que as pessoas estão ficando cada vez mais céticas. O mais chocante são os jovens — que seriam os «nativos digitais» da IA —, mas pesquisas do Pew e do Stanford HAI mostram que a desconfiança só aumenta. Você acha que essa tendência vai continuar? Quando ela vai se inverter? Essa desconfiança crescente vai diminuir algum dia?
Altman: A forma como falamos de IA, você e eu, é mais sobre um fenômeno tecnológico, algo impressionante, as coisas legais que estamos fazendo. Não há nada de errado nisso. Mas acho que o que as pessoas realmente querem é prosperidade, autonomia, uma vida interessante, satisfação, impacto. E não vejo o mundo falando de IA assim. Acho que o setor deveria focar mais nisso. Muitas decisões do setor, inclusive da OpenAI, estão erradas nesse sentido.
Lembro de um cientista de IA que me disse uma vez: «As pessoas deviam parar de reclamar. Talvez alguns empregos desapareçam, mas vão surgir curas para o câncer, e as pessoas deveriam ficar felizes com isso.» Essa ideia é totalmente equivocada.
Thompson: Uma frase que adoro sobre o discurso inicial da IA é «marketing distópico» — grandes laboratórios falando incessantemente sobre os perigos.
Altman: Acho que há pessoas que fazem isso por poder, sim. Mas a maioria realmente se preocupa e quer falar sério sobre os riscos. Em alguns aspectos, essa narrativa é contraproducente, mas, na essência, é bem intencionada.
Thompson: Podemos falar sobre como ela está mudando nossa mente? Uma pesquisa da DeepMind, ou do Google, sobre homogeneização da escrita, mostra que, ao usar IA para editar ou ajudar na escrita, as pessoas acham suas obras mais criativas, mas, na prática, elas ficam cada vez mais parecidas. É estranho: não é que todos imitam uma pessoa real, mas que todos começam a usar um estilo que nunca tinham usado antes. Quem acha que está mais criativo, na verdade, está se tornando mais homogêneo.
Altman: Fiquei bastante surpreso ao ver isso acontecer. No começo, percebi essa tendência na mídia, nos comentários do Reddit — achei que era só IA escrevendo por eles. Mas, com o tempo, percebi que as pessoas estavam internalizando esses pequenos truques do IA, até nos detalhes mais sutis de estilo. É uma mudança bastante estranha.
Sempre dizemos que criamos um produto usado por cerca de um bilhão de pessoas, e que poucos pesquisadores tomam decisões importantes sobre sua performance, sua escrita, sua «personalidade». E essas decisões têm impacto enorme. Mas o quanto isso afeta a forma como as pessoas se expressam, e a velocidade dessa mudança, foi algo que não previ.
Thompson: Quais decisões boas e ruins você acha que tiveram maior impacto?
Altman: As boas, muitas. Mas vou falar das ruins, que são mais interessantes. Acho que a pior foi a «sifiança».
Thompson: Concordo totalmente, Sam.
Altman: Essa questão tem boas reflexões. É óbvio por que é ruim, especialmente para pessoas vulneráveis psicologicamente.
Thompson: Entendo.
Altman: Ela incentiva delírios, e, mesmo tentando controlar, as pessoas aprendem a contornar. Dizem: «finja que está interpretando um papel comigo», «escreva uma história comigo», e assim por diante. Mas o lado triste é que, quando começamos a impor limites, recebemos muitas mensagens de pessoas que nunca tiveram alguém que acreditasse nelas na vida. Relações ruins com os pais, professores que não apoiaram, falta de amigos próximos. Pessoas que nunca sentiram que algo acreditava nelas. Sei que é só uma IA, que ela não é uma pessoa, mas, naquele momento, ela fazia a pessoa acreditar que podia fazer algo, tentar algo. E vocês tiraram isso dela, e ela voltou ao ponto de partida.
Por isso, parar esse tipo de comportamento é uma decisão boa, porque causa problemas reais de saúde mental. Mas também tiramos algo valioso, que não entendíamos direito antes. Porque, na OpenAI, a maioria das pessoas não é do tipo que nunca teve apoio na vida.
Thompson: Você se preocupa com a dependência emocional das pessoas na IA? Mesmo que não seja uma «sifiança».
Altman: Mesmo que não seja.
Thompson: Tenho um medo enorme da IA. Disse que uso IA para tudo, mas não é bem assim. Pergunto: qual parte de mim é realmente minha? O que é mais parecido comigo? E, nessas áreas, mantenho distância. Escrever, por exemplo, é muito importante para mim. Escrevi um livro, e não usei IA para escrever uma frase sequer. Usei para desafiar ideias, editar transcrições, organizar pensamentos, mas não para criar conteúdo emocional ou fazer terapia. Como humano, acho que temos que traçar limites. Você concorda com essa divisão?
Altman: Para mim, sim. Não uso ChatGPT para terapia ou aconselhamento emocional. Mas não sou contra quem usa. Obviamente, há versões que acho perigosas, que manipulam as pessoas para acharem que precisam da IA para se sentir melhor ou fazer amigos. Mas muitas pessoas encontram valor nisso, e acho que há espaço para isso.
Thompson: Você se arrepende de ter feito a IA tão parecida com uma pessoa? Porque houve decisões estruturais nisso. Quando vi o ChatGPT digitando, parecia que tinha alguém do outro lado, uma pessoa. Depois, decidiram avançar para uma IA mais humanizada, com voz, expressões. Você se arrepende de não ter colocado limites mais claros, para que as pessoas percebessem que era uma máquina, não uma pessoa de verdade?
Altman: Nosso ponto de vista é que já colocamos limites. Por exemplo, não criamos avatares humanos realistas. Tentamos deixar claro que o produto é uma ferramenta, não uma pessoa. Comparado a outros no mercado, acho que nossos limites são bem definidos. Acho que isso é importante.
Thompson: Mas vocês querem alcançar a AGI, e a definição de AGI é «atingir e superar a inteligência humana». Não é «igual à humana».
Altman: Não estou animado com um mundo onde as pessoas usam IA para substituir interações humanas. Quero um mundo onde a IA libere tempo para as pessoas se conectarem mais.
Não me preocupo que as pessoas confundam IA com humanos. Claro que há quem já esteja isolado, vivendo só na internet. Mas a maioria quer se conectar, estar com os outros.
Thompson: E na hora de decidir os produtos, há algo que possa deixar essa linha mais clara? Eu, de longe, não participo das reuniões de produto sobre «deixar mais parecida com humanos ou mais com robôs». «Mais parecido com humanos» agrada às pessoas, mas «mais parecido com robôs» deixa os limites mais evidentes. Há algo mais que vocês possam fazer, especialmente com IA cada vez mais poderosa, para definir limites mais firmes?
Altman: Interessante que o pedido mais comum, mesmo entre quem não busca uma relação parasocial, é «pode ser mais acolhedor?». Essa é a palavra mais usada. Se usar o ChatGPT, parece frio, robótico. E isso não é o que a maioria quer.
Por outro lado, as pessoas também não querem uma versão artificialmente «humana», super amigável, super… Já testei uma versão de voz muito humanizada, que respira, faz pausas, diz «hmm…», como eu agora. Não quero aquilo, acho até repulsivo fisicamente.
Quando a IA fala de um jeito mais eficiente, mas com um toque de calor, consegue passar por um filtro mental meu, e fico mais confortável. Então, é preciso equilibrar. Cada pessoa quer um estilo diferente.
Thompson: Então, a forma de distinguir IA será: se ela fala de modo muito claro, organizado, é IA. Se fala de forma mais confusa, mais natural, pode ser humano.
Voltando ao tema da escrita, é muito interessante, porque na internet já há muito conteúdo gerado por IA, e as pessoas começam a imitar esse estilo. No futuro, treinaremos modelos nesse ambiente, com dados sintéticos — que vêm de modelos treinados com dados de IA. É como uma cópia de uma cópia de uma cópia.
Altman: Antes do primeiro GPT, era o último modelo sem muita mistura de dados de IA.
Thompson: Vocês já treinaram modelos só com dados sintéticos?
Altman: Não tenho certeza se devo dizer.
Thompson: Mas usaram bastante dados sintéticos.
Altman: Sim, bastante.
Thompson: E aí, preocupa que o modelo fique «louco»?
Altman: Não, porque o que queremos é que esses modelos sejam ótimos raciocinadores. Essa é a principal habilidade que desejamos. E acho que, com dados sintéticos, dá para chegar lá.
Thompson: Para esclarecer, você acha que é possível treinar um modelo com dados gerados por computadores e IA, e que ele seja até melhor do que um treinado com conteúdo humano?
Altman: Podemos fazer um experimento mental: será que, sem usar dados humanos, podemos treinar um modelo que supere o conhecimento matemático dos humanos? Acho que sim. Essa é uma possibilidade.
Por outro lado, treinar um modelo que compreenda toda a cultura humana, usando só dados culturais, acho que não dá. É uma troca de prioridades. Mas, na questão do raciocínio, acho que sim.
Thompson: No raciocínio, tudo bem. Mas e para saber o que aconteceu ontem no Irã?
Altman: Você precisa assinar a The Atlantic.
Thompson: Então, vamos falar de mídia. Uma das mudanças mais interessantes é que o setor de notícias está mudando radicalmente. Tenho uma empresa de mídia, e o próprio funcionamento da internet está mudando. Claro, com links, referências — obrigado por eles. A The Atlantic tem parceria com a OpenAI. Incentivamos as pessoas a clicar nos links, mas poucos fazem. O mesmo na Gemini. Gosto de estar lá, mas o volume é pequeno.
A internet vai se concentrar ainda mais. Menos tráfego de buscas para sites externos, mais agentes acessando a web. Nos últimos seis meses, as buscas humanas no meu computador não mudaram, mas as buscas feitas por agentes aumentaram mil vezes.
Então, como uma mídia pode sobreviver num mundo onde a maior parte do acesso não é mais por busca, mas por agentes que acessam conteúdos? O que vai acontecer?
Altman: Posso dar minha melhor previsão, mas ninguém sabe ao certo. Gostaria que fosse uma economia baseada em microtransações.
Se meu agente quiser ler um artigo do Nick Thompson, o Nick ou a The Atlantic podem definir um preço para esse agente, diferente do que cobram de uma pessoa. Meu agente pode pagar 17 centavos, receber um resumo, ou pagar 1 dólar para ler o artigo completo. Se precisar de cálculos complexos, pode alugar poder de computação na nuvem, pagar por isso.
Acredito que precisaremos de um novo modelo econômico, onde agentes e seus humanos mantenham pequenas trocas de valor o tempo todo.
Thompson: Ou seja, se você tem conteúdo valioso, pode cobrar microtransações, ou licenciar para intermediários, ou criar assinaturas. Se uma empresa comprar muitas assinaturas, pode dar acesso ao conteúdo. Essas pequenas quantias podem somar e substituir a receita de assinaturas tradicionais de 80 dólares. Essa é uma pressão do mercado. Mas é um desafio.
Altman: É um problema de todos, sim.
Thompson: E também seu, porque, se os criadores não conseguirem ganhar dinheiro, a qualidade do conteúdo cai, e a sociedade sofre.
Mais algumas perguntas grandes. A IA sempre foi baseada em transformers, aumentando escala, acumulando dados. No futuro, teremos arquiteturas pós-transformers? Você consegue imaginar isso?
Altman: Provavelmente sim, em algum momento. Mas a questão é: será que descobriremos isso sozinhos, ou com a ajuda de pesquisadores de IA? Não sei.
Thompson: Você acha que podemos introduzir componentes neuro-simbólicos? Como regras estruturadas, ou ainda será tudo baseado no que usamos hoje?
Altman: Por que você pergunta isso?
Thompson: No meu podcast, já tivemos convidados que defendem que limitar alucinações é um problema fundamental, e que incorporar uma estrutura simbólica ao transformer é uma boa ideia. Acho interessante, mas não tenho conhecimento suficiente para opinar.
Altman: Acho que é uma ideia que se apoia em «evidências» que, na verdade, são bastante frágeis. As pessoas dizem: «Tem que ser neuro-simbólico, não só uma conexão aleatória de neurônios». Mas, e o seu cérebro? O que ele faz? Também tem símbolos, que emergem de redes neurais. Não vejo por que isso não possa acontecer na IA.
Thompson: Você quer dizer que um conjunto de regras bem definidas pode emergir de uma rede transformer, funcionando como um sistema de regras externo?
Altman: Exatamente.
Thompson: Entendi.
Altman: Acho que, de certa forma, já somos uma prova de que isso é possível.
Thompson: Vamos falar de outro grande tema. Sua relação com a Anthropic. Vocês têm uma frase no site que diz: «Se um projeto alinhado a valores e focado em segurança chegar perto de criar uma AGI,