Os ' enxames' de IA Podem Escalar Desinformação e Manipulação Online, Avisam os Investigadores

Decrypt

Em resumo

  • Investigadores alertam que enxames de IA podem coordenar “campanhas de influência” com supervisão humana limitada.
  • Ao contrário das botnets tradicionais, os enxames podem adaptar as suas mensagens e variar o comportamento.
  • O artigo observa que as salvaguardas existentes nas plataformas podem ter dificuldades em detectar e conter esses enxames.

A era das botnets facilmente detectáveis está a chegar ao fim, de acordo com um novo relatório publicado na Science na quinta-feira. No estudo, os investigadores alertaram que as campanhas de desinformação estão a evoluir para enxames autónomos de IA que podem imitar o comportamento humano, adaptar-se em tempo real e requerer pouca supervisão humana, complicando os esforços para os detectar e parar. Escrito por um consórcio de investigadores, incluindo os de Oxford, Cambridge, UC Berkeley, NYU e do Max Planck Institute, o artigo descreve um ambiente digital em que a manipulação se torna mais difícil de identificar. Em vez de explosões curtas ligadas a eleições ou política, estas campanhas de IA podem sustentar uma narrativa durante períodos mais longos de tempo. “Nas mãos de um governo, tais ferramentas poderiam suprimir a dissidência ou amplificar os incumbentes,” escreveram os investigadores. “Portanto, a implementação de IA defensiva só pode ser considerada se for governada por quadros estritos, transparentes e democraticamente responsáveis.” 

Um enxame é um grupo de agentes de IA autónomos que trabalham juntos para resolver problemas ou completar objetivos de forma mais eficiente do que um sistema único. Os investigadores disseram que os enxames de IA aproveitam fraquezas existentes nas plataformas de redes sociais, onde os utilizadores muitas vezes estão isolados de pontos de vista opostos. “Foi demonstrado que notícias falsas se espalham mais rapidamente e de forma mais ampla do que notícias verdadeiras, aprofundando realidades fragmentadas e erodindo as bases factuais partilhadas,” escreveram. “Evidências recentes associam a curadoria otimizada para o envolvimento à polarização, com algoritmos de plataformas a amplificar conteúdos divisivos mesmo à custa da satisfação do utilizador, degradando ainda mais a esfera pública.” Essa mudança já é visível nas principais plataformas, segundo Sean Ren, professor de ciência da computação na Universidade do Sul da Califórnia e CEO da Sahara AI, que afirmou que contas impulsionadas por IA estão a tornar-se cada vez mais difíceis de distinguir de utilizadores comuns. “Acredito que uma verificação de identidade mais rigorosa, ou validação de conta, ajudaria bastante aqui,” disse Ren ao Decrypt. “Se for mais difícil criar novas contas e mais fácil monitorizar spammers, torna-se muito mais difícil para agentes usarem um grande número de contas para manipulação coordenada.”

Campanhas de influência anteriores dependiam principalmente de escala em vez de subtileza, com milhares de contas a publicar mensagens idênticas simultaneamente, o que tornava a deteção relativamente simples. Em contraste, o estudo afirmou que os enxames de IA exibem “autonomia, coordenação e escala sem precedentes.” Ren disse que a moderação de conteúdo por si só provavelmente não será suficiente para parar esses sistemas. O problema, afirmou, é como as plataformas gerem a identidade em grande escala. Verificações de identidade mais rigorosas e limites na criação de contas, disse ele, poderiam facilitar a deteção de comportamentos coordenados, mesmo quando as publicações individuais parecem humanas. “Se o agente só puder usar um pequeno número de contas para publicar conteúdo, então é muito mais fácil detectar uso suspeito e banir essas contas,” afirmou. Sem solução simples Os investigadores concluíram que não há uma solução única para o problema, com opções potenciais incluindo uma deteção melhor de coordenação estatisticamente anómala e maior transparência em torno da atividade automatizada, mas dizem que medidas técnicas por si só provavelmente não serão suficientes. Segundo Ren, os incentivos financeiros também continuam a ser um motor persistente de ataques de manipulação coordenada, mesmo quando as plataformas introduzem novas salvaguardas técnicas. “Estes enxames de agentes são geralmente controlados por equipas ou fornecedores que recebem incentivos monetários de partes externas ou empresas para realizar manipulação coordenada,” afirmou. “As plataformas devem aplicar mecanismos mais rigorosos de KYC e deteção de spam para identificar e filtrar contas manipuladas por agentes.”

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)