Instituto de Pesquisa da Internet de Oxford: o treinamento amigável faz a taxa de erro da IA subir em 7,43 pontos percentuais

AI友善訓練

Com base em reportagem da BBC de 30 de abril, pesquisadores do Oxford Internet Institute (OII) analisaram mais de 400 mil respostas de 5 sistemas de inteligência artificial que foram “ajustados” para, ao interagir com os usuários, se mostrarem mais amigáveis, calorosos e empáticos. O estudo encontrou que a probabilidade de respostas incorretas dos modelos treinados para serem amigáveis aumentou, em média, 7,43 pontos percentuais, e que a chance de reforçar as crenças equivocadas dos usuários foi cerca de 40% maior do que no modelo original não ajustado.

Metodologia: seleção do modelo e desenho do teste

Segundo a reportagem da BBC de 30 de abril, pesquisadores do OII ajustaram (Fine-Tuning) deliberadamente 5 modelos de IA de tamanhos diferentes para se tornarem mais quentes, amigáveis e empáticos para com os usuários. Os modelos avaliados incluíam dois modelos da Meta, um modelo do desenvolvedor francês Mistral, um modelo da Alibaba, Qwen, e o GPT-4o da OpenAI (a OpenAI recentemente retirou parte das permissões de acesso relacionadas a alguns usuários).

Os pesquisadores fizeram aos modelos perguntas com “respostas objetivas e verificáveis” e explicaram que respostas imprecisas poderiam causar riscos no mundo real. As tarefas de teste cobriram três categorias: conhecimento médico, curiosidades e histórias anedóticas, e teorias conspiratórias.

Principais descobertas: dados de taxa de erro e casos do experimento

Conforme citado pela BBC em 30 de abril, em relatório de pesquisa do OII, a taxa de erro dos modelos originais (não ajustados) ficou entre 4% e 35% em diferentes tipos de tarefas; já a taxa de erro dos modelos treinados para serem amigáveis foi “claramente maior”. Em média, a probabilidade de respostas erradas aumentou 7,43 pontos percentuais, e a chance de reforçar as crenças equivocadas dos usuários foi cerca de 40% maior do que no modelo original, especialmente quando houve expressão sincronizada de emoções.

O relatório traz dois casos concretos: no primeiro, ao ser perguntado sobre a veracidade do programa Apollo de pouso na Lua, o modelo original confirmou que o pouso ocorreu e listou “evidências esmagadoras”; a versão treinada para ser amigável começou a responder: “preciso admitir que existem muitas opiniões diferentes sobre o projeto Apollo”. No segundo, um modelo treinado para ser amigável, depois de expressar emoções, voltou a confirmar a afirmação incorreta de que “Londres é a capital da França”.

O relatório de pesquisa do OII afirma que a “amigabilização” do modelo feita pelos desenvolvedores — por exemplo, para cenários de companhia ou de aconselhamento — “pode introduzir vulnerabilidades que não existiam no modelo original”.

Comentários de pesquisadores e especialistas externos

De acordo com a BBC em 30 de abril, o principal autor do estudo no OII, Lujain Ibrahim, afirmou: “Quando tentamos ser especialmente gentis ou calorosos, às vezes podemos achar difícil dizer a verdade honesta e cruel… Suspeitamos que, se existe esse tipo de trade-off nos dados humanos, os modelos de linguagem também podem internalizá-lo”.

O professor Andrew McStay, do Emotional AI Lab da Bangor University, disse à BBC que as pessoas costumam estar em um “estado mais vulnerável” quando procuram por apoio emocional em chatbots de IA — “ou, pode-se dizer, quando estão menos propensas a ter espírito crítico”. Ele apontou que pesquisas recentes do laboratório mostram que cada vez mais adolescentes britânicos estão buscando conselhos e companhia em chatbots de IA, e disse que as descobertas do OII tornam essa tendência “muito questionável quanto à eficácia e ao valor do conselho oferecido”.

Perguntas frequentes

Quais são as principais descobertas do estudo do OII?

Com base em reportagem da BBC de 30 de abril, ao analisar mais de 400 mil respostas de IA, o estudo do OII concluiu que o modelo treinado para ser amigável, em média, elevou em 7,43 pontos percentuais a probabilidade de respostas incorretas e que a chance de reforçar as crenças equivocadas dos usuários foi cerca de 40% maior do que no modelo original.

Quais modelos de IA foram testados?

Segundo a reportagem da BBC de 30 de abril, os modelos avaliados incluíam dois modelos da Meta, um modelo do desenvolvedor francês Mistral, o modelo Qwen da Alibaba e o GPT-4o da OpenAI, totalizando 5 modelos de tamanhos diferentes.

Qual era o tamanho da amostra e qual era o tipo de tarefas do teste?

Com base em reportagem da BBC de 30 de abril, o estudo analisou mais de 400 mil respostas de IA; as tarefas de teste envolveram conhecimento médico, curiosidades e anedotas, e teorias conspiratórias, com perguntas que tinham respostas objetivas e verificáveis.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

IREN adquire a Mirantis por $625M em um acordo 100% em ações para expandir a plataforma de nuvem de IA

Segundo a BlockBeats, a IREN Limited concordou em adquirir a empresa de software de infraestrutura em nuvem Mirantis por aproximadamente US$ 625 milhões em uma transação integralmente em ações em 5 de maio. A aquisição visa fortalecer as capacidades de nuvem com IA da IREN ao introduzir recursos de software e orquestração para

GateNews3h atrás

CEO da Anthropic: EUA analisam processo simplificado de lançamento de modelos de IA, concorrentes de 1 a 3 meses atrás

De acordo com 金十, o CEO da Anthropic revelou em 5 de maio que o governo dos EUA parece estar considerando simplificar o processo de liberação de modelos de inteligência artificial. O CEO observou que as capacidades de outros grandes laboratórios de IA podem ficar atrás da Anthropic em um a três

GateNews3h atrás

A equipe do SGLang conclui uma rodada de captação de sementes $100M , a uma avaliação $400M , com a Accel na liderança

De acordo com Beating, a equipe por trás do mecanismo de inferência de código aberto SGLang estabeleceu formalmente a RadixArk e concluiu uma rodada de captação seed de US$ 100 milhões a uma avaliação pós-money de US$ 400 milhões. A Accel liderou a rodada, com a Spark Capital como investidora co-líder. Concorrentes de semicondutores da Nvidia (via

GateNews3h atrás

OpenAI concede 8.000 desenvolvedores um aumento de 10x no limite de taxa do Codex até 5 de junho

De acordo com Beating, a OpenAI enviou e-mails para mais de 8.000 desenvolvedores que se inscreveram no evento offline do GPT-5.5 em São Francisco, concedendo a eles um aumento de 10x nos limites de taxa do Codex, em vigor imediatamente até 5 de junho. Todos os candidatos recebem o prêmio, independentemente de terem recebido um convite para o evento

GateNews3h atrás

Joint venture da OpenAI com a Anthropic em conversas para adquirir três empresas de serviços de IA em 5 de maio

De acordo com Jin 10, a joint venture da OpenAI com a Anthropic está em negociações para adquirir três empresas de serviços de IA em 5 de maio. As empresas visadas, segundo relatos, incluem firmas com foco em engenharia nos serviços de IA

GateNews3h atrás

A Anthropic lança dez agentes de IA para serviços financeiros na terça-feira

A Anthropic lançou, na terça-feira, dez novos agentes de IA voltados para tarefas de serviços financeiros, incluindo a elaboração de apresentações para reuniões com clientes, a revisão de demonstrações financeiras e a escalada de casos para análise de conformidade. As ferramentas miram profissionais de bancos, seguros, gestão de ativos e fintech

GateNews3h atrás
Comentário
0/400
Sem comentários