torygreen
人々は「AIアラインメント」について、まるで倫理の問題であるかのように語る。
実際には、それはインセンティブの問題だ。
クローズドシステムは、プラットフォームのKPIを最適化する。なぜなら、それが彼らの報酬だからだ。
ユーザーは長く滞在したか?
苦情は減ったか?
エンゲージメントは向上したか?
ダッシュボード上の指標は良好に見えたか?
AIはこれらの数字を最適化することを学び、「アラインメント」ではなくユーザーに対して最適化する。
DeAIは、出力、データの系譜、実行証明を報酬の対象にする。
出力、データの系譜、実行証明がネイティブになれば、「アラインメント」は哲学的な議論ではなく、監査可能な請求書となる。
実際には、それはインセンティブの問題だ。
クローズドシステムは、プラットフォームのKPIを最適化する。なぜなら、それが彼らの報酬だからだ。
ユーザーは長く滞在したか?
苦情は減ったか?
エンゲージメントは向上したか?
ダッシュボード上の指標は良好に見えたか?
AIはこれらの数字を最適化することを学び、「アラインメント」ではなくユーザーに対して最適化する。
DeAIは、出力、データの系譜、実行証明を報酬の対象にする。
出力、データの系譜、実行証明がネイティブになれば、「アラインメント」は哲学的な議論ではなく、監査可能な請求書となる。
DEAI8.81%