Tóm tắt ngắn gọn
Tòa án Tối cao Colombia từ chối kháng cáo, cho rằng bản án do AI tạo ra. Nhưng chính công cụ mà tòa sử dụng để xác định nguồn gốc AI của bản án cũng cho thấy chính bản án của tòa cũng có sự giúp đỡ của AI. Liệu đây có phải là tiêu chuẩn kép của tòa án, hay là do công cụ lỗi? “Trong trường hợp có nghi ngờ hợp lý rằng bản tóm tắt do luật sư nộp không do chính người luật sư soạn thảo, tòa đã đưa văn bản vào công cụ Winston AI,” tòa án lập luận. “Phân tích của công cụ cho thấy chỉ có 7% nội dung do con người tạo ra, chứng tỏ ảnh hưởng rõ rệt của viết tự động và kết luận rằng nó đã được sản xuất bằng trí tuệ nhân tạo.”
Sau khi chạy phân tích bằng các công cụ khác cho kết quả tương tự, tòa án kết luận rằng “vì hồ sơ không thể coi là một đơn kiện hợp lệ, nên việc bác bỏ là cần thiết.” Tuy nhiên, khi bản án của tòa bị các chuyên gia pháp lý kiểm tra, kết quả cũng tương tự. “Tôi đã gửi nội dung của Auto AP760/2026 từ Tòa án Tối cao qua cùng phần mềm Winston AI được trích dẫn trong quyết định,” luật sư Emmanuel Alessio Velasquez viết trên X vào thứ Ba. “Kết quả: Tài liệu chứa 93% nội dung do AI tạo ra.”
Tôi đã gửi nội dung của auto AP760/2026 từ @CorteSupremaJ qua cùng phần mềm Winston IA được trích dẫn trong quyết định. Kết quả: Tài liệu chứa 93% “nội dung do AI tạo ra”. https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4
— Emmanuel Alessio Velásquez (@EmmanuVeZe) 3 tháng 3, 2026
“Nếu chính bản án đó, phê phán việc sử dụng trí tuệ nhân tạo, lại cho ra tỷ lệ đó, thì tính yếu kém về phương pháp của việc sử dụng các công cụ này làm căn cứ tranh luận trở nên rõ ràng,” ông lập luận trong một tweet sau đó. Chỉ trong vài giờ sau khi tòa đăng một chuỗi về quyết định trên X, các luật sư bắt đầu tự thử nghiệm. Bài đăng của Velasquez đã lan truyền mạnh trong giới pháp lý, thu hút hàng chục nghìn lượt xem. Chúng tôi cũng đã thử nghiệm trên phán quyết của tòa, ban đầu kết quả không khả quan. Khi GPTZero quét chỉ phần mở đầu của văn bản tòa, nó trả về kết quả 100% do AI tạo ra.
Khi cùng công cụ xử lý một phiên bản dài hơn bao gồm phần nền tảng thực tế, kết quả hoàn toàn đảo ngược: 100% do con người viết. Công cụ này đơn giản là không đủ đáng tin cậy để tin tưởng trong tòa hoặc trong các tình huống đòi hỏi độ chính xác cao.
Các luật sư Colombia phản ứng nhanh với các thử nghiệm của riêng họ. Luật sư bào chữa hình sự và giảng viên Andres F. Arango G đã nộp một hồ sơ tòa từ năm 2019, trước khi các mô hình ngôn ngữ lớn mà các công cụ này được huấn luyện để phát hiện thậm chí tồn tại, và kết quả là 95% do AI tạo ra. “Các công cụ này sau đó mời bạn ‘nhân bản’ bài viết qua dịch vụ trả phí của họ,” ông viết trên X, lưu ý một động cơ thương mại rõ ràng trong mô hình kinh doanh phát hiện này. Nicolas Buelvas đã thực hiện luận án tốt nghiệp năm 2020 về nguyên tắc tin tưởng trong luật hình sự. Kết quả? 100% do AI. Dario Cabrera Montealegre, một luật sư Colombia khác, chỉ ra sự đạo đức giả của việc dựa vào công nghệ để cố gắng chống lại chính nó. “Tòa án đang dùng AI để xác định xem có AI hay không,” ông nói. “Điều này mâu thuẫn rõ ràng từ góc độ thực tiễn của tôi.”
La Corte usa IA para determinar si hubo IA…!? Algo contradictorio desde mi punto de vista práctico…Si se rechaza debe ser porque como humanos lo detectamos
— Darío Cabrera Montealegre (@dalcamont_daro) 2 tháng 3, 2026
Ngoài giới pháp lý, các cá nhân am hiểu công nghệ còn chỉ ra những nguy cơ của việc quá phụ thuộc vào các công cụ phát hiện AI. “Cho đến nay, chưa có công cụ nào công khai có thể xác định chính xác tỷ lệ sử dụng AI khi soạn thảo một văn bản,” Carlos Alejandro Torres Pinedo lập luận. “Điều tồi tệ hơn: Không ai có thể công khai xác minh mã nguồn của các nền tảng phát hiện này. Làm sao họ có thể dùng để làm mất uy tín quyền tiếp cận công lý của ai đó?”
Các lý do kỹ thuật cho các thất bại này đã được ghi nhận rõ ràng. Các công cụ phát hiện AI đo lường các mẫu thống kê: độ dài câu, dự đoán từ vựng, và một đặc điểm mà các nhà nghiên cứu gọi là “burstiness,” đề cập đến sự biến đổi nhịp điệu tự nhiên mà con người tạo ra trong văn viết. Vấn đề là các văn bản pháp lý chính thức, bài viết học thuật, và các văn bản do người viết bằng ngôn ngữ thứ hai tạo ra đều chia sẻ nhiều đặc điểm thống kê giống nhau đó. Nghiên cứu về phát hiện AI Một nghiên cứu năm 2023 đăng trên Patterns phát hiện hơn 61% bài luận TOEFL của người không phải bản ngữ tiếng Anh bị nhầm là do AI tạo ra. Một đánh giá hệ thống của Weber-Wulff cùng năm kết luận không có công cụ nào chính xác hoặc đáng tin cậy. Turnitin đã thừa nhận vào tháng 6 năm 2023 rằng công cụ phát hiện của họ cho tỷ lệ dương tính giả cao hơn khi mức nội dung AI trong tài liệu dưới 20%. Ngay cả OpenAI cũng phải gỡ bỏ công cụ phát hiện AI của chính mình sau nhiều lần sai sót và không thể thực hiện đúng chức năng. Các trường đại học đã đối mặt với vấn đề này nhiều năm. Vanderbilt đã vô hiệu hóa công cụ phát hiện AI của Turnitin vào năm 2023 sau khi ước tính sẽ có khoảng 3.000 kết quả dương tính giả mỗi năm. Trường Đại học Arizona đã loại bỏ tính năng phát hiện AI khỏi phần mềm đạo văn sau khi một sinh viên bị trừ 20% điểm vì kết quả dương tính giả. Năm 2024, tại UC Davis, 17 sinh viên ngôn ngữ học bị phát hiện, trong đó 15 người không phải người bản ngữ tiếng Anh. Mô hình này nhất quán. Các công cụ này phạt những người viết chính thức, lặp lại nhiều nhất hoặc cẩn thận nhất, đúng với hồ sơ của các luật sư, nhà học thuật và người nói thứ hai.
Hậu quả văn hóa còn đi xa đến mức kỳ quặc. Trong giới viết lách và báo chí, mọi người bắt đầu tránh dùng dấu gạch ngang (em dash) trong công việc của mình, không phải vì quy tắc phong cách, mà vì các mô hình ngôn ngữ AI sử dụng chúng thường xuyên và các công cụ phát hiện (và cả con người) đã để ý. Các nhà văn tự chỉnh sửa dấu câu tự nhiên của mình vì sợ bị nghi ngờ bởi thuật toán. Ngoài thế giới viết, các nghệ sĩ cũng đã chịu ảnh hưởng từ các moderator và đồng nghiệp vì tạo ra các tác phẩm nghệ thuật trông giống AI.
Chúng ta đang sống trong thế giới mà các nghệ sĩ thực sự bị trừng phạt vì là nạn nhân của những tên trộm gọi là nghệ sĩ AI? #Savehumanartist #noAIart #NoAI #SavefutureArt pic.twitter.com/yTQAeyc8SR
— nghệ sĩ Benmoran (@benmoran_artist) 27 tháng 12, 2022
Hai phán quyết của Colombia—AC739-2026, trong đó Tòa án Dân sự phạt một luật sư vì trích dẫn 10 tiền lệ do AI tạo ra không tồn tại vào tháng 2, và AP760-2026—đang nổi lên như một trong những quyết định tư pháp đầu tiên của khu vực trực tiếp đối mặt với việc lạm dụng AI tạo sinh trong các hồ sơ pháp lý. Lực lượng tư pháp Colombia đã ban hành hướng dẫn chính thức vào tháng 12 năm 2024 quy định cách các thẩm phán và nhân viên tòa án có thể sử dụng trí tuệ nhân tạo. Các quy định cho phép sử dụng AI tự do cho các công việc hành chính và hỗ trợ, như soạn email, tổ chức lịch trình, dịch tài liệu hoặc tóm tắt văn bản, trong khi chỉ cho phép các mục đích nhạy cảm hơn, như nghiên cứu pháp lý hoặc soạn thảo tài liệu thủ tục, sau khi có sự xem xét cẩn thận của con người. Các hướng dẫn này rõ ràng cấm dựa vào AI để đánh giá chứng cứ, diễn giải luật hoặc đưa ra quyết định tư pháp, nhấn mạnh rằng các thẩm phán con người vẫn hoàn toàn chịu trách nhiệm về tất cả các phán quyết và phải tiết lộ khi đã sử dụng công cụ AI trong việc chuẩn bị các tài liệu tư pháp. Các hướng dẫn này, được tổng hợp trong thỏa thuận “PCSJA24-12243,” có thể được dùng để phản bác một quyết định như vậy.
Tòa án Tối cao vẫn chưa đưa ra bất kỳ tuyên bố nào khác phản hồi về phản ứng dữ dội đối với việc lựa chọn công cụ phát hiện của mình. Quyết định này cũng không có dấu gạch ngang.