コロンビアの裁判所、AI執筆の控訴を却下、その後自らのAI検出器によりフラグが立てられる

Decrypt

要点

  • コロンビア最高裁判所は、AI検出ツールにより機械生成と判定されたため、上告を却下した。
  • 弁護士たちは同じツールを使って判決文を分析し、AIによる執筆の可能性が示された。
  • 専門家や研究によると、AI検出ソフトは信頼性に欠け、一貫性のない結果を出すことが明らかになった。

コロンビア最高裁判所は、AIによって生成されたと主張して上告を却下した。しかし、裁判所が使用した同じツールは、裁判所自身の判決文もAIによるものと示した。これは裁判所の二重基準なのか、それともツールの欠陥なのか? 「弁護士が提出した書類が本人によって作成されたものでないと疑われる場合、裁判所はウィンストンAIツールにかけた」と裁判所は述べた。「その分析結果は、文書のうち人間による内容はわずか7%であり、自動生成の影響が顕著であることを示し、人工知能を用いて作成されたと結論付けた。」

他のツールでも同様の結果が得られたため、裁判所は「提出書類は正式な訴状とみなせないため、却下は妥当である」と判断した。 しかし、法的専門家による同様の分析でも、結果は似ていた。 「最高裁判所のAuto AP760/2026の判決文を、判決で引用されたウィンストンAIソフトにかけてみた」と弁護士エマニュエル・アレシオ・ベラスケスは火曜日にX(旧Twitter)で書いた。「結果は、文書の93%がAI生成のテキストだった。」

私は最高裁判所の判決文Auto AP760/2026を同じウィンストンAIにかけてみました。その結果、文書の93%が「AI生成のテキスト」と判定されました。https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4

— エマニュエル・アレシオ・ベラスケス (@EmmanuVeZe) 2026年3月3日

「もし、その判決自体がAIの使用を非難しながら、その割合を示すなら、これらの検出ツールを証拠として使うことの方法論的脆弱性は明白になる」と、彼はその後のツイートで述べた。 裁判所がXで決定についてのスレッドを投稿してから数時間後、弁護士たちは自分たちのテストを開始した。ベラスケスの投稿は法曹界で拡散し、何万もの閲覧を集めた。 私たちも裁判所の判決文を分析したが、最初は結果が良くなかった。GPTZeroは裁判所の文章の最初の数語だけをスキャンし、100%AIと判定した。

同じツールで、背景説明を含む長い文章を処理したところ、結果は一変し、「人間によるもの」と判定された。 このツールは、裁判や高い確信度を必要とする場面で信頼できるものではない。

コロンビアの弁護士たちも迅速に自らの実験を行った。刑事弁護人で講師のアンドレス・F・アランゴ・Gは、2019年の裁判資料を提出し、その時点ではこれらのツールが存在すらしていなかったが、結果は95%AI生成と出た。 「これらのツールは、その後、有料サービスを通じて記事を‘人間らしく’することを促している」と彼はXで書き、検出ビジネスモデルに明らかな商業的動機があることを指摘した。 ニコラス・ブエルバスは、2020年の学部論文で、刑法における信頼の原則をテーマにした。その結果は?100%AIだった。 もう一人のコロンビア弁護士ダリオ・カブレラ・モンテアレグは、技術に頼ることの矛盾を指摘した。 「裁判所はAIを使ってAIの有無を判断している…!? これは私の実務的観点からすると矛盾している」と彼は述べた。

裁判所はAIを使ってAIの有無を判断している…!? これは私の実務的観点からすると矛盾している…人間が検出すべきだと思う。

— ダリオ・カブレラ・モンテアレグ (@dalcamont_daro) 2026年3月2日

法曹界を超えて、技術に詳しい人々はAI検出ツールの過剰依存の危険性を指摘した。 「現時点で、文章作成時のAI使用割合を正確に定義できる公開ツールは存在しない」とカルロス・アレハンドロ・トーレス・ピネドは主張する。「さらに悪いことに、これらの検出プラットフォームの背後にあるソースコードを公開で検証できる者は誰もいない。どうやって正義へのアクセス権を正当化できるのか?」

これらの失敗の技術的理由は十分に記録されている。AI検出器は統計的パターンを測定する:文の長さ、語彙の予測性、そして研究者が「バースティネス」と呼ぶ自然なリズムの変動だ。 問題は、正式な法律文章、学術的な文章、第二言語で書かれた文章も、多くの統計的特徴を共有している点にある。 AI検出に関する研究 2023年に『Patterns』に掲載された研究では、英語を母語としないTOEFLエッセイの61%以上が誤ってAI生成と判定された。 同年のウェーバー・ウルフによる系統的レビューでは、利用可能なツールは正確でも信頼性も高くもないと結論付けられた。Turnitinは2023年6月、AIコンテンツのレベルが20%未満の文書では誤検知率が高まることを認めた。 OpenAIも、誤判定の多さと本来の機能を果たせないため、自社のAI検出ツールを撤去した。 大学も長年この問題に取り組んできた。ヴァンダービルト大学は2023年、誤検知による年間約3000件の誤報を見込んで、TurnitinのAI検出機能を停止した。 アリゾナ大学は、誤検知による20%の成績減少を受けて、剽窃検出ソフトからAI検出機能を削除した。2024年のUCデイビスのケースでは、17人の言語学専攻学生が誤って検出され、そのうち15人は英語が第二言語だった。 このパターンは一貫している。これらのツールは、最も正式に、最も反復的に、最も注意深く書く人々を罰している。弁護士、学者、第二言語話者のプロフィールにぴったり合うのだ。

文化的な影響は、馬鹿げたレベルにまで達している。文章やジャーナリズムの世界では、AI言語モデルが頻繁に使うダッシュ記号を避ける動きが広まった。スタイルガイドではなく、AIの言語モデルや検出ツール(そして人々)が気づいたからだ。 作家たちは、アルゴリズムの疑いを恐れて自然な句読点を自己修正している。書き言葉の世界を超えて、アーティストたちもAIに見える作品を作ったことで、モデレーターや同僚から非難を浴びている。

本物のアーティストがAIと呼ばれる盗人の犠牲になって罰せられる世界に私たちはいるのか? #Savehumanartist #noAIart #NoAI #SavefutureArt pic.twitter.com/yTQAeyc8SR

— ベンモランアーティスト (@benmoran_artist) 2022年12月27日

コロンビアの二つの判決—AC739-2026(2026年2月に民事部門が弁護士に10の不存在のAI生成判例を引用したことで罰金を科したケース)とAP760-2026—は、生成AIの誤用に直接対処した地域初の司法判断の一つとして浮上している。 コロンビアの司法部は2024年12月、裁判官や裁判所職員のAI利用を規制する正式なガイドラインを採用した。 この規則では、メール作成やスケジュール整理、文書翻訳、要約などの事務・支援作業にはAIを自由に使えるが、法的調査や手続き文書の作成など、より敏感な用途には慎重な人間のレビューを伴うことを求めている。 また、証拠の評価や法律の解釈、裁判決定の判断にAIを使うことは禁止されており、裁判官はすべての判決に対して完全に責任を持ち、AIツールの使用についても明示しなければならない。 これらのガイドラインは、「PCSJA24-12243」合意にまとめられ、こうした判決に対して異議を唱える根拠となり得る。

最高裁判所は、検出ツールの選択に関する反発に対して、追加の声明を出していない。判決文にもエムダッシュはなかった。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし