Tribunal colombiano rejeita recurso contra escrita por IA, depois é sinalizado pelo seu próprio detector de IA

Decrypt

Resumo

  • A Suprema Corte da Colômbia rejeitou um recurso de cassação após detectores de IA identificarem o documento como gerado por máquina.
  • Advogados testaram a decisão com as mesmas ferramentas e também descobriram que parecia ter sido escrita por IA.
  • Especialistas e estudos mostraram que softwares de detecção de IA produzem resultados pouco confiáveis e inconsistentes.

A Suprema Corte da Colômbia negou um recurso de cassação, alegando que foi gerado por IA. Mas a mesma ferramenta usada pelo tribunal para determinar a origem suposta de IA na decisão afirmou que sua própria sentença também recebeu ajuda de geração automática. É um duplo padrão do tribunal ou ferramentas defeituosas em uso? “Diante de uma suspeita fundamentada de que o documento apresentado pelo advogado não foi redigido pelo próprio profissional, o tribunal submeteu o texto à ferramenta Winston AI,” argumentou o tribunal. “Sua análise indicou que o documento continha apenas 7% de conteúdo humano, evidenciando forte influência de escrita automatizada e levando à conclusão de que foi produzido usando inteligência artificial.”

 Após realizar a análise com outras ferramentas que forneceram resultados semelhantes, o tribunal decidiu que “como o documento não pode ser considerado uma petição devidamente apresentada, seu indeferimento é obrigatório.” Mas quando a decisão do tribunal foi submetida a análise por especialistas jurídicos, os resultados também foram semelhantes. “Enviei o texto do Auto AP760/2026 da Suprema Corte para o mesmo software Winston AI citado na decisão,” escreveu o advogado Emmanuel Alessio Velásquez no X na terça-feira. “O resultado: O documento contém 93% de texto gerado por IA.”

Submeti o texto do auto AP760/2026 da @CorteSupremaJ ao mesmo software Winston IA citado na decisão. O resultado foi que o documento apresenta 93% de “texto gerado com IA”. https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4

— Emmanuel Alessio Velásquez (@EmmanuVeZe) 3 de março de 2026

“Se a própria decisão que condena o uso de inteligência artificial aponta essa porcentagem, a fragilidade metodológica de usar esses detectores como suporte argumentativo torna-se evidente,” afirmou em um tweet posterior. Horas após o tribunal publicar uma thread sobre a decisão no X, advogados começaram a fazer seus próprios testes. A postagem de Velásquez viralizou no meio jurídico, acumulando dezenas de milhares de visualizações. Testamos também a veredicto do tribunal, e inicialmente os resultados não foram bons. Quando o GPTZero analisou apenas as palavras iniciais do texto, retornou um resultado 100% de IA.

Quando a mesma ferramenta processou uma versão mais longa, incluindo a seção de contexto factual, o resultado mudou completamente: 100% humano. A ferramenta simplesmente não é confiável o suficiente para ser usada em tribunal ou em situações que exijam alto grau de certeza.

Advogados colombianos reagiram rapidamente com seus próprios experimentos. O advogado de defesa criminal e professor Andres F. Arango G enviou uma petição de 2019, anos antes de modelos de linguagem avançados que essas ferramentas foram treinadas para detectar existirem, e o resultado indicou 95% de geração por IA. “Essas ferramentas então convidam você a ‘humanizar’ o artigo através de seus serviços pagos,” escreveu no X, observando um evidente incentivo comercial embutido no modelo de negócio de detecção. Nicolas Buelvas analisou sua tese de graduação de 2020 sobre o princípio da confiança no direito penal. O resultado? 100% IA. Outro advogado colombiano, Dario Cabrera Montealegre, apontou a hipocrisia de confiar na tecnologia para combatê-la. “O tribunal usa IA para determinar se houve IA,” disse. “Algo contraditório do meu ponto de vista prático.”

La Corte usa IA para determinar se hubo IA…!? Algo contradictorio desde mi punto de vista práctico…Se se rejeita deve ser porque como humanos o detectamos

— Darío Cabrera Montealegre (@dalcamont_daro) 2 de março de 2026

Para além do meio jurídico, indivíduos com conhecimento técnico destacaram os perigos de confiar excessivamente em ferramentas de detecção de IA. “Até hoje, não existe uma ferramenta acessível ao público que possa definir com precisão a porcentagem de uso de IA na elaboração de um texto,” argumentou Carlos Alejandro Torres Pinedo. “O que é pior: ninguém pode verificar publicamente o código-fonte dessas plataformas de detecção. Como podem ser usadas para desacreditar o direito de alguém ao acesso à justiça?”

As razões técnicas por trás dessas falhas estão bem documentadas. Detectores de IA medem padrões estatísticos: comprimento de frases, previsibilidade do vocabulário e uma característica que os pesquisadores chamam de “burstiness,” que se refere à variação natural do ritmo na escrita humana. O problema é que textos formais jurídicos, escritos acadêmicos e textos produzidos por pessoas que escrevem em uma segunda língua compartilham muitas dessas mesmas assinaturas estatísticas. Estudos sobre detecção de IA Um estudo de 2023 publicado na Patterns descobriu que mais de 61% dos ensaios do TOEFL escritos por não nativos de inglês foram incorretamente marcados como gerados por IA. Uma revisão sistemática de Weber-Wulff naquele mesmo ano concluiu que nenhuma ferramenta disponível é precisa ou confiável. A Turnitin reconheceu, em junho de 2023, que seu próprio detector apresentou taxas mais altas de falsos positivos quando o nível de conteúdo de IA em um documento caiu abaixo de 20%. Até a OpenAI precisou retirar sua própria ferramenta de detecção de IA após constantes imprecisões e incapacidade de realizar seu trabalho de forma eficaz. As universidades têm lidado com isso há anos. Vanderbilt desativou o detector de IA da Turnitin em 2023, estimando que geraria cerca de 3.000 falsos positivos por ano. A Universidade do Arizona removeu recursos de detecção de IA de seu software de plágio após um estudante perder 20% de uma nota por um falso positivo. Em 2024, na UC Davis, 17 estudantes de linguística foram marcados, 15 deles não nativos de inglês. O padrão é consistente. As ferramentas penalizam quem escreve de forma mais formal, repetitiva ou cuidadosa, exatamente o perfil que advogados, acadêmicos e falantes de segunda língua representam.

O impacto cultural beirou o absurdo. Em círculos de escrita e jornalismo, as pessoas começaram a evitar o uso de travessões, não por uma questão de estilo, mas porque modelos de linguagem de IA os usam frequentemente e as ferramentas de detecção (e as pessoas) notaram. Autores estão autocorrigindo a pontuação natural por medo de suspeitas algorítmicas. Além do mundo escrito, artistas sofreram a ira de moderadores e colegas por criarem obras que parecem feitas por IA.

Estamos no mundo em que artistas de verdade estão sendo punidos por serem vítimas desses ladrões chamados artistas de IA? #SalveArtistaHumano #semArteAI #SemAI #SalveOFuturoDaArte pic.twitter.com/yTQAeyc8SR

— artista Benmoran (@benmoran_artist) 27 de dezembro de 2022

As duas decisões judiciais da Colômbia—AC739-2026, na qual a Câmara Cível multou um advogado por citar 10 precedentes inexistentes de IA em fevereiro, e AP760-2026—estão surgindo como algumas das primeiras decisões judiciais na região a confrontar diretamente o uso indevido de IA generativa em petições legais. O ramo judicial colombiano adotou diretrizes formais em dezembro de 2024 que regulam o uso de inteligência artificial por juízes e funcionários do tribunal. As regras permitem o uso de IA livremente para tarefas administrativas e de suporte, como redigir e-mails, organizar agendas, traduzir documentos ou resumir textos, enquanto usos mais sensíveis, como pesquisa jurídica ou elaboração de documentos processuais, só podem ocorrer com revisão humana cuidadosa. As diretrizes proíbem explicitamente confiar na IA para avaliar provas, interpretar a lei ou tomar decisões judiciais, reforçando que os juízes humanos continuam totalmente responsáveis por todas as decisões e devem divulgar quando ferramentas de IA forem usadas na preparação de materiais judiciais. Essas diretrizes, compiladas no acordo “PCSJA24-12243”, podem ser usadas para contestar uma decisão judicial.

A Suprema Corte ainda não emitiu nenhuma declaração adicional em resposta à repercussão sobre sua escolha de ferramentas de detecção. A decisão também não utilizou travessões.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)