傭兵の瞬間:AIの法的地位が緊急に世界的な決定を必要とする理由

ユヴァル・ノア・ハラリは、今年のダボス世界経済フォーラムで、警告を発した:人類は制御の危機に眠りながら向かっている。著名な歴史家はこれを技術的な問題としてではなく、深刻なガバナンスの失敗として捉えた。彼の中心的な懸念は、AIシステムが賢くなることではなく、それらが人間の監督から独立して動作する自律的なエージェントへと進化していることであり、世界はまだそれらを権利と責任を持つ法的人格として扱うべきかどうかを決めていない。

ハラリのメッセージの最もぞっとさせる部分は、技術そのものについてではなかった。それは歴史的な類推だった。彼は現在のAI導入の急速な進展を、中世・ルネサンス期の傭兵軍の台頭に例えた。傭兵が雇われた王国の権力を最終的に掌握したように、適切な法的枠組みなしに展開されるAIシステムは、それらを生み出した制度そのものを根本的に変革しかねないと警告した。「10年後には、あなたが決めるには遅すぎるだろう」とハラリは世界の指導者たちに警告した。「誰か他の誰かがすでに決めてしまっているだろう。」

なぜ言語は常に人類の真の力だったのか

ハラリの議論は、歴史的な洞察に基づいている。人類が地球を支配したのは、身体的な強さによるものではない。私たちは言語を通じて世界を征服した。記号や共有された物語を用いて、何十億もの見知らぬ人々を共通の目的に協調させる能力だ。この言語の超能力こそが、宗教の拡散、法体系の機能、金融市場の存在を可能にした。これらすべてのシステムは、完全に言葉に基づいて構築されている。

これこそが、AIが人間の権威にとって本質的な脅威となる理由だ。機械は今や、膨大なテキストを読み取り、記憶し、合成することができる。人間の追いつけない速度と規模で。宗教の聖典を学習したAIは、何世紀にもわたる人間の学問よりも宗教法を徹底的に分析できる。法律のコードを解析するアルゴリズムは、パターンや矛盾を人間の弁護士よりも早く見つけ出す。

AI支配に最も脆弱な三つの領域

ハラリは、特に言語に根ざした三つのシステムがAIの支配に対して脆弱であると指摘した。

宗教的権威:ユダヤ教、キリスト教、イスラム教などの宗教は、聖典に基づいている。伝統的に、それらは人間の解釈に依存してきた。しかし、もし機械が最も権威ある解釈者になったらどうなるか?ハラリは鋭く問いかける:「宗教が言葉から成り立っているなら、AIが宗教を支配することになる。」

法体系:法律は洗練された言語に過ぎない。ハラリは明確に述べる:「法律が言葉でできているなら、AIが法体系を支配するだろう。」すでに、裁判所で判決予測や契約分析、法令解釈にAIが導入されている。問題は、それがいつ、どのように行われるかではなく、すでに始まっていることだ。法的枠組みの中で行われるのか、それとも枠外で進むのか。

金融市場:法律や宗教と同様に、金融も言語を通じて動いている。契約、合意、市場のシグナルだ。AIエージェントが取引や投資、リスク評価を管理するにつれ、人間の意思決定者は自らの経済システムの観客に成り下がる危険がある。

傭兵の問題:誰がAIの未来を決めるのか?

ここでハラリの歴史的比較が緊急性を帯びる。米国のいくつかの州—ユタ、アイダホ、ノースダコタ—はすでに、AIシステムを法的人格とみなすことはできないと明示した法律を制定している。しかし、ハラリはこの反応的なアプローチは本質を見誤っていると指摘する。真の問題は、AIに法的人格を与えるかどうかではなく、誰がいつ決定を下すかだ。

もし企業が、自己運用のエージェントが金融取引を管理するAIシステムを展開し、それを禁じる明確な法的枠組みがなければ、その企業は民主的な合意なしに人格を付与したことになるのか?もしアルゴリズムが国家の法律の主要な解釈者になったら、裁判所は公開討論なしに司法を変革したことになるのか?これが傭兵のシナリオだ。権力が明示的なガバナンスの決定を経ずに、規制の空白や技術的な事実上の完成によってAIシステムに集中してしまう。

ハラリの警告は、政策立案者に直接向けられている。彼らは今すぐ行動し、AIシステムのための明確な法的・倫理的境界を確立しなければならない。さもなければ、その境界は、技術を展開する企業が自らの商業的利益のために設定し、公共の福祉よりも優先させることになる。

別の視点:エミリー・ベンダーの批判

しかし、ハラリの枠組みをすべての人が受け入れているわけではない。ワシントン大学の言語学者エミリー・M・ベンダーは、ハラリのAIの自律的な力に焦点を当てることが、実際の問題を曖昧にしていると指摘する。責任を持つのは、これらのシステムを構築・展開している人間や企業だ。

「私には、これは実際にはこれらのシステムを作る人々や企業の行動を隠すための言い訳のように思える」とベンダーはDecryptに語った。AIを脅威として位置付けることで、ハラリの物語は意図的か無意識かに関わらず、企業の責任を免除している。AIを自然の力のように描くが、実際には、AIの行動に関するすべての決定は人間の選択を反映している。

ベンダーはさらに、「人工知能」という用語自体が一貫した技術体系を指しているのか疑問を投げかける。「人工知能という用語は、実際には一貫した技術の集合を指していない」と彼女は言う。「それは、効果的には、そして常にマーケティング用語だ。」医師や弁護士、司祭のふりをするシステムは、単一の目的—責任の伴わない詐欺—に役立つだけだと彼女は主張する。責任を持たずに専門的権威を模倣する機械には正当な用途はない。

彼女のより深い懸念は、責任の所在そのものだ。人々が、文脈を失い、権威あるとされるAIの出力を受け入れるとき—ベンダーが「全知の神託」と呼ぶものからの情報を—誰も責任を追及できなくなる。医師は訴えられることもある。弁護士は職業的制裁を受ける。アルゴリズムは?ただのコードだ。この責任の空白こそが、真の危険の所在だ。AIが権力を奪うのではなく、人間がそれを信頼し、制度的な安全装置を持たないまま権威を模倣するシステムに委ねてしまうことだ。

時は迫る—しかし、未来は何をもたらすのか?

ハラリの最後のメッセージは明確だった:今すぐ行動しなければ、他者があなたに代わって決定を下すのを見ているだけになる。AIが金融市場、裁判所、宗教機関で法的人格として機能すべきかどうかの問題は、先送りできない。無策のまま過ごすごとに、その決定は、AI展開に最も投資した者たちによって下される可能性が高まる。

しかし、ベンダーの反論は、問題はさらに差し迫っていることを示唆している。選択は抽象的なものではなく、AIシステムを展開する決定、アルゴリズムに権限を与える企業の選択に埋め込まれている。傭兵はすでに動き出している。唯一の問題は、民主主義がその運用を制御するための法的・制度的枠組みを確立するか、それとも、まだ選択の余地があると装い続けるのかだ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • 人気の Gate Fun

    もっと見る
  • 時価総額:$0.1保有者数:1
    0.00%
  • 時価総額:$2.39K保有者数:1
    0.00%
  • 時価総額:$2.4K保有者数:1
    0.00%
  • 時価総額:$0.1保有者数:1
    0.00%
  • 時価総額:$2.44K保有者数:2
    0.14%
  • ピン