La Corte Suprema de Colombia negó un recurso de casación, argumentando que fue generado por IA. Pero la misma herramienta que utilizó la corte para determinar el origen supuestamente AI del recurso indicó que su propia sentencia también recibió ayuda generativa. ¿Es un doble estándar por parte de la corte, o están fallando las herramientas? “Frente a una sospecha fundada de que el escrito presentado por el abogado no fue redactado por el profesional en derecho, la corte sometió el texto a la herramienta Winston AI,” argumentó la corte. “Su análisis indicó que el documento contenía solo un 7% de contenido humano, evidenciando una marcada influencia de la escritura automatizada y llevando a la conclusión de que había sido producido usando inteligencia artificial.”
Tras realizar el análisis con otras herramientas que arrojaron resultados similares, la corte dictaminó que “como el escrito no puede considerarse una alegación debidamente presentada, se requiere su rechazo por inadmisible.” Pero cuando la sentencia de la corte enfrentó un análisis similar por parte de expertos legales, mostró resultados parecidos. “Envié el texto del auto AP760/2026 de la @CorteSupremaJ a la misma software Winston IA citado en la providencia,” escribió el abogado Emmanuel Alessio Velásquez en X el martes. “El resultado: El documento contiene un 93% de texto generado con IA.”
Sometí el texto del auto AP760/2026 de la @CorteSupremaJ al mismo software Winston IA citado en la providencia. El resultado fue que el documento presenta un 93% de “texto generado con IA”. https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4
— Emmanuel Alessio Velásquez (@EmmanuVeZe) 3 de marzo de 2026
“Si la misma sentencia que condena el uso de inteligencia artificial obtiene ese porcentaje, la fragilidad metodológica de usar estos detectores como soporte argumental se vuelve evidente,” argumentó en un tuit posterior. A pocas horas de que la corte publicara un hilo sobre la decisión en X, abogados comenzaron a realizar sus propias pruebas. La publicación de Velásquez se volvió viral en círculos jurídicos, acumulando decenas de miles de vistas. También probamos la veredicto de la corte, y al principio no parecía muy prometedor. Cuando GPTZero escaneó solo las palabras iniciales del texto judicial, arrojó un resultado del 100% de IA.
Cuando la misma herramienta procesó una versión más larga que incluía la sección de antecedentes fácticos, cambió completamente de opinión: 100% humano. La herramienta simplemente no es lo suficientemente confiable para ser utilizada en la corte o en situaciones que requieran un alto grado de certeza.
Abogados colombianos reaccionaron rápidamente con sus propios experimentos. El abogado penalista y docente Andrés F. Arango G, presentó un expediente judicial de 2019, años antes de que existieran los grandes modelos de lenguaje con los que estas herramientas fueron entrenadas para detectar, y el resultado fue que indicaba un 95% de generación por IA. “Estas herramientas luego te invitan a ‘humanizar’ el artículo a través de sus servicios pagos,” escribió en X, señalando un evidente incentivo comercial en el modelo de negocio de detección. Nicolás Buelvas realizó su tesis de pregrado en 2020 sobre el principio de confianza en el derecho penal. ¿El resultado? 100% IA. Dario Cabrera Montealegre, otro abogado colombiano, señaló la hipocresía de confiar en la tecnología para intentar combatirla. “La corte usa IA para determinar si hubo IA,” dijo. “Desde mi punto de vista práctico, es algo contradictorio.”
La Corte usa IA para determinar si hubo IA…!? Algo contradictorio desde mi punto de vista práctico…Si se rechaza debe ser porque como humanos lo detectamos
— Darío Cabrera Montealegre (@dalcamont_daro) 2 de marzo de 2026
Más allá de los círculos legales, otros individuos con conocimientos tecnológicos señalaron los peligros de depender excesivamente de las herramientas de detección de IA. “Hasta la fecha, no existe ninguna herramienta accesible públicamente que pueda definir con precisión el porcentaje de uso de IA al redactar un texto,” argumentó Carlos Alejandro Torres Pinedo. “¿Qué es peor? Que nadie puede verificar públicamente el código fuente detrás de estas plataformas de detección. ¿Cómo pueden usarse para legitimar o invalidar el acceso a la justicia de alguien?”
Las razones técnicas de estos fallos están bien documentadas. Los detectores de IA miden patrones estadísticos: longitud de las oraciones, predictibilidad del vocabulario y una cualidad que los investigadores llaman “burstiness,” que se refiere a la variación en el ritmo natural que los humanos introducen en su escritura. El problema es que la prosa legal formal, la escritura académica y los textos producidos por personas que escriben en un segundo idioma comparten muchas de esas mismas firmas estadísticas. Estudios sobre detección de IA Un estudio de 2023 publicado en Patterns encontró que más del 61% de los ensayos del TOEFL escritos por hablantes no nativos de inglés fueron señalados incorrectamente como generados por IA. Una revisión sistemática de Weber-Wulff ese mismo año concluyó que ninguna herramienta disponible es ni precisa ni confiable. Turnitin reconoció en junio de 2023 que su propio detector producía tasas más altas de falsos positivos cuando el nivel de contenido de IA en un documento bajaba del 20%. Incluso OpenAI tuvo que retirar su propia herramienta de detección de IA tras constantes inexactitudes e incapacidad para cumplir con su función real. Las universidades han estado lidiando con esto durante años. Vanderbilt desactivó en 2023 el detector de IA de Turnitin tras estimar que generaría alrededor de 3,000 falsos positivos anualmente. La Universidad de Arizona eliminó las funciones de detección de IA de su software antiplagio después de que un estudiante perdiera un 20% de una calificación por un falso positivo. En un caso de 2024 en UC Davis, 17 estudiantes de lingüística fueron señalados, 15 de ellos no nativos en inglés. El patrón es consistente. Las herramientas penalizan a quienes escriben de manera más formal, repetitiva o cuidadosa, exactamente el perfil que encajan abogados, académicos y hablantes de segundo idioma.
El impacto cultural ha rozado lo absurdo. En círculos de escritura y periodismo, la gente ha comenzado a evitar los guiones largos (em dashes) en sus textos, no por una guía de estilo, sino porque los modelos de lenguaje de IA los usan con frecuencia y las herramientas de detección (y las personas) han tomado nota. Los escritores están autocorrectando la puntuación natural por miedo a la sospecha algorítmica. Más allá del mundo escrito, artistas han sufrido la ira de moderadores y colegas por crear obras que parecen hechas por IA.
¿Estamos en un mundo donde los verdaderos artistas están siendo castigados porque son víctimas de estos ladrones llamados artistas IA? #Savehumanartist #noAIart #NoAI #SavefutureArt pic.twitter.com/yTQAeyc8SR
— artista Benmoran (@benmoran_artist) 27 de diciembre de 2022
Las dos decisiones judiciales de Colombia—AC739-2026, en la que la Sala Civil multó a un abogado por citar 10 precedentes inexistentes generados por IA en febrero, y AP760-2026— están emergiendo como algunas de las primeras resoluciones judiciales en la región que enfrentan directamente el uso indebido de IA generativa en escritos legales. El poder judicial colombiano adoptó en diciembre de 2024 directrices formales que regulan cómo pueden usar la inteligencia artificial jueces y personal judicial. Las reglas permiten el uso libre de IA para tareas administrativas y de apoyo, como redactar correos, organizar agendas, traducir documentos o resumir textos, mientras que usos más delicados, como investigación legal o redacción de documentos procesales, solo con revisión humana cuidadosa. Las directrices prohíben expresamente confiar en IA para evaluar pruebas, interpretar la ley o tomar decisiones judiciales, enfatizando que los jueces humanos siguen siendo responsables de todas las sentencias y deben revelar cuándo se usó IA en la preparación de materiales judiciales. Estas directrices, recopiladas en el acuerdo “PCSJA24-12243,” podrían usarse para impugnar una decisión de ese tipo.
La Corte Suprema aún no ha emitido ninguna declaración adicional en respuesta a la reacción negativa por su elección de herramientas de detección. La sentencia tampoco contenía guiones largos.