O abuso de IA varre o mundo académico, levando a uma queda na qualidade dos artigos e do processo de revisão, com conteúdos incorretos infiltrando o sistema de pesquisa. Conferências internacionais estão a reforçar urgentemente as normas, e a confiança na academia enfrenta uma crise iminente.
No contexto do rápido desenvolvimento das tecnologias de inteligência artificial a nível global, o mundo da investigação está a mergulhar numa crise de confiança sem precedentes. Nos últimos anos, o sistema de revisão de conferências académicas de topo foi inundado por submissões de baixa qualidade, e os investigadores descobriram que a proporção de contributo humano nos artigos e na avaliação por pares (Peer Review) está a diminuir significativamente. Este fenómeno levanta preocupações que vão além de mudanças no estilo de escrita, centrando-se na precisão do conteúdo. Quando a exatidão se torna a base da investigação académica, as ferramentas automatizadas que geram erros estão a infiltrar-se silenciosamente nos resultados de pesquisa.
Inioluwa Deborah Raji, investigadora da Universidade da Califórnia em Berkeley (UC Berkeley), aponta que a comunidade académica está entusiasmada com a transformação da IA em outros setores, mas, ironicamente, esse próprio setor está a cair no caos devido ao uso excessivo de IA.
Dados indicam que a escala desta crise atingiu um nível de alerta. Segundo um relatório de agosto de 2025 da Universidade de Stanford, até 22% dos artigos na indústria de ciência da computação mostram sinais de uso de grandes modelos de linguagem (LLM). Uma análise de texto realizada pela startup Pangram, para a conferência internacional de representação de aprendizagem (ICLR) de 2025, revelou que cerca de 21% dos pareceres de revisão foram totalmente gerados por IA, e mais da metade do processo de revisão utilizou edição assistida por IA. Ainda mais chocante, aproximadamente 9% dos artigos submetidos continham mais da metade do conteúdo produzido por IA.
Thomas G. Dietterich, professor honorário da Universidade Estadual de Oregon, observa que o volume de uploads na plataforma de pré-publicações arXiv também aumentou drasticamente, parcialmente devido ao influxo de investigadores, mas claramente impulsionado pelo uso de ferramentas de IA.
Diante do fluxo de artigos de baixa qualidade e comentários automatizados, a comunidade académica atingiu um ponto de inflexão onde é imperativo agir. Em novembro de 2024, os revisores do ICLR descobriram um artigo suspeito de ter sido gerado por IA, que obteve uma pontuação entre os 17% superiores de todas as submissões, levantando fortes dúvidas sobre o sistema de avaliação atual. Em janeiro de 2025, a empresa de deteção GPTZero, ao analisar 50 artigos apresentados na conferência NeurIPS, revelou mais de 100 erros de geração automática. Estes erros incluíam referências fictícias e dados incorretos em gráficos, comprometendo gravemente a integridade científica.
Para combater este fenómeno, o ICLR atualizou as normas de submissão: se um artigo não revelar de forma transparente o uso extensivo de modelos de linguagem, será rejeitado; além disso, revisores que submeterem comentários automatizados de baixa qualidade enfrentarão a rejeição dos seus próprios artigos.
Hany Farid, professor de ciência da computação na UC Berkeley, alerta severamente que, se a comunidade científica continuar a publicar artigos incorretos e de baixa qualidade, a sociedade perderá a confiança fundamental nos cientistas. Na verdade, a velocidade de crescimento do número de artigos já supera o avanço das tecnologias de deteção. Por exemplo, no NeurIPS, em 2020, foram submetidos 9.467 artigos, crescendo para 17.491 em 2024, e atingindo 21.575 em 2025. Há casos extremos de autores que submetem mais de 100 artigos num único ano, claramente além do limite normal de produção de um investigador humano. Atualmente, a comunidade académica ainda carece de um padrão unificado para a deteção automática de textos, dificultando a prevenção.
Fonte da imagem: Prof. Hany Farid, Universidade da Califórnia em Berkeley
Por trás desta inflação académica, estão complexas dinâmicas de competição empresarial e considerações práticas. Com salários elevados na indústria de IA e uma competição tecnológica cada vez mais acirrada, parte do foco da investigação científica tem sido direcionado para a quantidade de produção, em detrimento da qualidade. A hiperbolização do mercado atrai muitos amadores que buscam resultados rápidos, diluindo a profundidade académica. No entanto, os especialistas também destacam a importância de distinguir entre “uso razoável” e “abuso”.
Thomas G. Dietterich refere que, para investigadores que não têm o inglês como língua materna (como académicos chineses), as ferramentas de IA podem ajudar a melhorar a clareza da expressão linguística, e esse tipo de assistência na escrita deve ser visto como um uso positivo.
Por outro lado, a crise mais profunda reside na “poluição de dados”, que ameaça o futuro do desenvolvimento da IA. Gigantes tecnológicos como Google, Anthropic e OpenAI estão a promover modelos como parceiros de investigação em áreas como ciências da vida, e esses modelos são treinados com textos académicos.
Hany Farid afirma que, se os dados de treino estiverem repletos de conteúdos sintéticos gerados por humanos, o desempenho dos modelos irá deteriorar-se significativamente.
Pesquisas anteriores já demonstraram que, ao alimentar LLM com dados automatizados não filtrados, os modelos acabam por colapsar e gerar informações sem sentido. Kevin Weil, responsável pelo departamento científico da OpenAI, admite que, embora a IA possa acelerar significativamente a investigação, a supervisão e verificação humanas são essenciais, e as ferramentas tecnológicas nunca poderão substituir a rigorosidade do método científico.
Este conteúdo foi compilado pelo agente de criptografia, reunindo informações de várias fontes, revisado e editado pela “Cidade Encriptada”. Ainda em fase de treino, pode conter desvios lógicos ou imprecisões. O conteúdo é apenas para referência, não constituindo aconselhamento de investimento.