バイラル『ストレンジャー・シングス』AI動画がディープフェイクに関する新たな懸念を引き起こす

Decrypt

要約

  • バイラルAI動画は、Stranger Thingsの俳優と顔や体を入れ替えるもので、1400万回以上の視聴を記録。
  • 研究者は、全身のディープフェイクは従来の顔だけの操作で使われていた視覚的手がかりを排除すると指摘。
  • 専門家は、アクセス拡大に伴い、同じツールが詐欺、誤情報、その他の乱用を助長する可能性を警告。

今週、Kling AIの2.6 Motion Controlを用いて作成されたとされる動画をフィーチャーしたバイラル投稿が、ブラジルのコンテンツクリエイターEder Xavierの動画としてソーシャルメディアを席巻し、彼がStranger Thingsの俳優ミリー・ボビー・ブラウン、デヴィッド・ハーバー、フィン・ウルフハードと顔と体を完璧に入れ替える様子を映していた。 これらの動画はソーシャルプラットフォーム全体に広まり、Xでは1400万回以上視聴されており、その後も追加のバージョンが投稿されている。これらのクリップは、a16zのパートナーであるジャスティン・ムーアを含む技術者の注目も集めており、彼はXavierのInstagramアカウントから動画を共有した。 「AIによる制作パイプラインの変化の速さには準備ができていない」とムーアは書いた。「最新の動画モデルはハリウッドに即時的な影響を与える。無限のキャラクター入れ替えがほとんどコストなしで可能に。」 画像や動画生成ツールの進歩とともに、Kling、GoogleのVeo 3.1やNano Banana、FaceFusion、OpenAIのSora 2などの新モデルが高品質な合成メディアへのアクセスを拡大している中、研究者は、バイラルクリップで見られる技術が孤立したデモを超えて急速に広がる可能性を警告している。

 滑りやすい坂道 視聴者はボディスワップ動画の品質に驚いたが、専門家はこれが間違いなくなりすまし詐欺のツールになると警告している。 「扉は開かれている。個人のデジタル肖像—声や顔—を盗むのはこれまでになく簡単になった。今や、1つの画像でそれを命に吹き込むことができる。誰も安全ではない」と、サイバーセキュリティ企業GetReal Securityのチーフ調査官エマニュエル・サリバは_decrypt_に語った。

「私たちは、1対1のソーシャルエンジニアリングから協調した誤情報キャンペーン、重要な企業や機関への直接攻撃まで、あらゆる規模で体系的な乱用を目にし始めるだろう」と彼は述べた。 サリバによると、Stranger Thingsの俳優をフィーチャーしたバイラル動画は、現在の乱用に対するガードレールがいかに薄いかを示している。 「数ドルで、誰でも政治家、著名人、CEO、または個人の全身動画を1枚の画像から生成できる」と彼女は言う。「個人のデジタル肖像を保護するデフォルトの仕組みはない。身元保証もない。」 ビンガムトン大学の電気・コンピュータ工学教授のYu Chenは、全身のキャラクター入れ替えは、従来のディープフェイクツールで使われていた顔だけの操作を超え、新たな課題をもたらすと指摘する。 「全身キャラクター入れ替えは、合成メディアの能力において大きな進展を示している」とChenは_decrypt_に語った。「これらのシステムは、ポーズ推定、骨格追跡、衣服やテクスチャの転送、自然な動きの合成を人間全体にわたって同時に処理しなければならない。」 また、クリエイターは映画『ウォール街の狼』のレオナルド・ディカプリオのボディスワップ動画も投稿している。

準備はできていない。

AIはディープフェイクとキャラクター入れ替えを再定義した。

そして、それは非常に簡単にできる。

野生の例。ブックマークしておこう。

[🎞️JulianoMass on IG]pic.twitter.com/fYvrnZTGL3

— Min Choi (@minchoi) 2026年1月15日

「従来のディープフェイク技術は、主に顔の置換に限定された操作空間内で動作しており、フレームの他の部分はほとんど触れられていなかった」とChenは述べた。「検出方法は、合成顔と元の体の境界の不一致や、頭の動きが自然に体の動きと一致しないときの時間的アーティファクトを利用できた。」

Chenは続けて言った:「金融詐欺やなりすまし詐欺は依然として懸念だが、他の悪用の可能性も注目に値する」と。 「非合意の親密な画像は、これらのツールが実在の個人を含む合成性的な露骨なコンテンツを作成する技術的障壁を下げるため、最も即時的な害のベクトルだ。」 SalibaとChenが指摘した他の脅威には、政治的な誤情報や企業スパイ活動があり、詐欺師は従業員やCEOになりすまし、偽の「リーク」クリップを公開し、コントロールを回避し、「信じられる人物がビデオに映ることで疑念を長く抱かせずに、重要な企業内にアクセスさせる」攻撃を行うと述べている。 スタジオや動画に登場する俳優がどのように対応するかは不明だが、Chenは、これらのクリップが公開されているAIモデルに依存しているため、開発者が安全策を実装する上で重要な役割を果たすと述べた。 それでも、責任はプラットフォーム、政策立案者、エンドユーザーの間で共有されるべきだと彼は言う。開発者だけに責任を負わせることは実現不可能であり、有益な用途を妨げる可能性がある。 これらのツールが普及するにつれ、Chenは、研究者は容易に除去できるメタデータに頼るのではなく、合成コンテンツの内在的な統計的署名を識別する検出モデルの優先順位をつけるべきだと述べた。 「プラットフォームは、自動検出パイプラインと人間によるレビュー能力の両方に投資し、公共の人物や詐欺の可能性のある高リスクコンテンツに関する明確なエスカレーション手順を開発すべきだ」と彼は述べた。さらに、政策立案者は、明確な責任枠組みと開示義務の確立に焦点を当てるべきだとも述べている。 「これらの能力の急速な民主化により、今日開発された対応フレームワークは、数年ではなく数ヶ月以内に大規模で試されることになるだろう」とChenは締めくくった。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし