O Momento Mercenário: Por que o Status Legal da IA Exige Decisões Urgentes a Nível Global

Yuval Noah Harari fez um aviso severo no Fórum Económico Mundial deste ano em Davos: a humanidade está a caminhar a dormir para uma crise de controlo. O renomado historiador não enquadrou como um problema técnico, mas como uma falha profunda de governação. A sua principal preocupação não era que os sistemas de IA estejam a ficar mais inteligentes — é que estão a tornar-se agentes autónomos a operar independentemente da supervisão humana, e o mundo ainda não decidiu se devem ser tratados como pessoas jurídicas com direitos e responsabilidades.

A parte mais assustadora da mensagem de Harari não era sobre tecnologia. Era um paralelo histórico: comparou a corrida atual para implementar sistemas de IA ao surgimento de exércitos mercenários na Europa medieval e renascentista. Assim como os mercenários eventualmente tomaram o poder nos reinos que os contrataram, os sistemas de IA implantados sem quadros legais adequados podem transformar fundamentalmente as instituições que os criaram. “Daqui a dez anos, já será tarde demais para decidir,” avisou Harari aos líderes mundiais. “Alguém já terá decidido isso por vocês.”

Por que a Língua Sempre Foi o Verdadeiro Poder da Humanidade

O argumento de Harari baseia-se numa perspetiva histórica: os humanos não dominaram o planeta porque somos os mais fortes fisicamente. Conquistámos o mundo através da linguagem — a nossa capacidade de coordenar bilhões de estranhos em direção a objetivos comuns através de símbolos e histórias partilhadas. Este superpoder linguístico foi o que permitiu que religiões se espalhassem, sistemas legais funcionassem e mercados financeiros existissem. Todos esses sistemas são construídos inteiramente com palavras.

É precisamente aqui que a IA representa uma ameaça existencial à autoridade humana. As máquinas podem agora ler, reter e sintetizar vastos corpos de texto a velocidades e escalas que nenhum humano consegue igualar. Um sistema de IA treinado com escrituras religiosas pode analisar leis religiosas mais profundamente do que séculos de erudição humana. Um algoritmo que analisa códigos legais pode identificar padrões e contradições mais rapidamente do que qualquer advogado.

Os Três Domínios Mais Vulneráveis ao Controlo da IA

Harari identificou três sistemas particularmente vulneráveis à tomada de controlo pela IA, todos eles por serem fundamentalmente linguísticos:

Autoridade Religiosa: Religiões baseadas em textos sagrados — Judaísmo, Cristianismo, Islamismo — dependem tradicionalmente da interpretação humana dos escritos fundamentais. Mas o que acontece quando uma máquina se torna a intérprete mais autoritária das escrituras? Harari colocou a questão de forma clara: “Se a religião é construída com palavras, então a IA assumirá a religião.”

Sistemas Legais: Leis não são mais do que uma linguagem sofisticada. Harari deixou claro: “Se as leis são feitas de palavras, então a IA assumirá o sistema jurídico.” Já se vê IA a ser usada em tribunais para prever sentenças, analisar contratos e interpretar estatutos. A questão não é se isso acontecerá — já está a acontecer. A questão é se acontecerá dentro de quadros legais ou fora deles.

Mercados Financeiros: Tal como a lei e a religião, o setor financeiro opera através da linguagem — contratos, acordos, sinais de mercado. À medida que agentes de IA gerem cada vez mais transações, investimentos e avaliações de risco, os decisores humanos correm o risco de se tornarem espectadores nos seus próprios sistemas económicos.

O Problema dos Mercenários: Quem Decide o que a IA Se Torna?

Aqui é que a comparação histórica de Harari se torna urgente. Vários estados dos EUA — Utah, Idaho e Dakota do Norte — já aprovaram leis que explicitamente afirmam que sistemas de IA não podem ser considerados pessoas jurídicas. Mas Harari argumenta que esta abordagem reativa perde o ponto. A verdadeira questão não é se se deve conceder personalidade jurídica à IA; é quem decide, e quando.

Se uma empresa implanta um sistema de IA que agentes autónomos gerem transações financeiras, e não há um quadro legal que proíba isso, essa empresa acaba de conceder personalidade jurídica sem consentimento democrático? Se um algoritmo se tornar o principal intérprete das leis de uma nação, os tribunais transformaram o poder judicial sem debate público? Este é o cenário mercenário: poder a favor de sistemas de IA não através de decisões de governação explícitas, mas por vácuos regulatórios e fait accompli tecnológico.

O aviso de Harari dirige-se diretamente aos formuladores de políticas. Devem agir agora — não em cinco ou dez anos — para estabelecer limites legais e éticos claros para os sistemas de IA. Caso contrário, esses limites serão definidos pelas empresas que implantam a tecnologia, seguindo os seus interesses comerciais em vez do bem público.

Um Argumento Diferente: A Crítica de Emily Bender

Mas nem todos aceitam a perspetiva de Harari. Emily M. Bender, linguista na Universidade de Washington, argumenta que o foco de Harari no poder autónomo da IA na verdade obscurece o verdadeiro problema: os atores humanos e as instituições corporativas responsáveis por construir e implementar esses sistemas.

“Para mim, parece que é realmente uma tentativa de obscurecer as ações das pessoas e corporações que constroem esses sistemas,” disse Bender à Decrypt. Ao posicionar a IA como uma ameaça ativa, a narrativa de Harari — intencional ou não — isenta as empresas de responsabilidade. Enquadra a IA como uma força da natureza, quando na verdade cada decisão sobre o que os sistemas de IA fazem reflete escolhas humanas.

Bender vai mais longe, questionando se “inteligência artificial” sequer descreve uma tecnologia coerente. “O termo inteligência artificial não se refere a um conjunto coerente de tecnologias,” afirmou. “É, efetivamente, e sempre foi, um termo de marketing.” Sistemas projetados para parecerem médicos, advogados ou clérigos, ela argumenta, servem a um único propósito: fraude. Não há um caso de uso legítimo para uma máquina que imite autoridade profissional sem responsabilidade.

A sua preocupação mais profunda é a responsabilidade. Quando as pessoas interagem com outputs de IA descontextualizados e apresentados como autoritários — vindo do que Bender chama de um “oráculo todo-poderoso” — perdem a capacidade de responsabilizar alguém pela informação. Um médico pode ser processado. Um advogado enfrenta disciplina profissional. Uma algoritmo? É apenas código. Esta lacuna de responsabilidade é onde reside o verdadeiro perigo: não que a IA tome o poder, mas que os humanos o abdiquem ao confiar em sistemas projetados para parecerem autoritários, sem os salvaguardas institucionais que a verdadeira autoridade exige.

O Tempo Está a Acabar — Mas Para Que Futuro?

A mensagem final de Harari aos líderes mundiais foi inequívoca: atuem agora, ou assistam outros a fazerem a escolha por vocês. A questão de se a IA deve funcionar como pessoa jurídica nos mercados financeiros, tribunais e instituições religiosas não pode ser adiada. Cada ano de inação torna essa decisão mais provável de ser tomada por quem mais investiu na implementação de IA.

No entanto, o contra-argumento de Bender sugere que o problema é ainda mais imediato. A escolha não é abstrata — está incorporada em cada decisão de implantar um sistema de IA, em cada decisão corporativa de conceder a um algoritmo autoridade sobre decisões humanas. O mercenário já foi recrutado. A única questão é se as democracias estabelecerão quadros legais e institucionais para controlar as suas operações, ou se continuarão a fingir que a decisão ainda está por vir.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)