Googleフォト新機能:AIが古い写真をスキャン、Wardrobeがあなたのバーチャル試着室を実現

Google Photos ついに「Wardrobe」機能をリリース、ユーザーのアルバムを自動スキャンし、デジタルクローゼットを作成、バーチャル試着もサポート;コアは「Nano Banana」モデルで、衣服の認識、デジタルアバターの生成、試着効果のレンダリングを担当;この機能はまずAndroidデバイスで展開(2026年夏予定)、iOSサポートは後追い。

(前置き:Nano Banana 2登場!4K対応でキャラクターの一貫性強化、Geminiの生画像もより速く正確に)

(補足:a16z最新AIトップアプリリスト:ChatGPTがトップをキープ、プラットフォームブランドのポジショニング戦争本格化)

この記事の目次

トグル

  • クローゼットAIの仕組み
  • 昨年の試着機能との違い
  • スマホアルバムがもう一つの入口に

1995年の映画『独領風騷』の印象的なシーン:女性主人公がスクリーン前に立ち、コンピュータが自動的にクローゼットから衣服を取り出し、その日のコーディネートを即時にマッチング。今やそのシーンがAIの助けで徐々に現実になりつつある。

Googleは公式発表で、Google Photosに「Wardrobe」機能を正式に導入すると述べた。システムはユーザーのアルバムを自動的にスキャンし、過去の写真から着用した衣服を認識、トップス、ボトムス、スカート、ドレス、靴などのカテゴリーに自動整理し、インタラクティブなデジタルクローゼットを構築する。

クローゼットAIの仕組み

この機能のコアは「Nano Banana」モデルで、システムはあなたのデジタルアバターを生成し、そのアバターに選択した衣装をレンダリングして「バーチャル試着」を完了させる。

全工程は端末側で実行される。ユーザーは追加のデータをアップロードする必要はなく、既存のアルバムからそのまま処理可能。気に入ったコーディネートは「ムードボード」として保存したり、友人と共有したりもできる。

ただし注意点として、Nano Bananaは認識とレンダリングを担当し、「今日何を着るべきかの提案」は行わない。あくまでツールであり、スタイリストではない。

昨年の試着機能との違い

Googleは2025年にSearchでAI試着機能を導入したが、そのバージョンは:商品を検索し、着用感を知りたいときに試着して購入判断をするというもので、主に「ショッピング支援」が目的だった。

今回のWardrobe機能は全く異なるロジックだ。対象は「購入準備中の商品」から「すでに所有している衣服」へと変わり、消費行動から日常管理へと切り替わる。ユーザーのアルバムは単なる記憶の保存庫ではなく、操作可能な衣服データベースへと進化する。

一部Android端末(例:Motorola Razr)では既にテスト中で、正式版は2026年夏までにリリース予定。iOS版も追随予定。

スマホアルバムがもう一つの入口に

Googleは近年、AI能力を自社の消費者向けアプリに積極的に組み込んできた:GeminiはGmail、Docs、Mapsに入り込み、AI生成の要約が検索結果に表示され、写真アプリにはMagic Eraser(雑物除去)、Photo Unblur(ぼやけた写真の修復)などが搭載されている。

Wardrobeはこの流れの延長線上にあり、ただし今回はよりプライベートなシーン:あなたの着用履歴。

ただし一つ考えるべき問題は、AIシステムがあなたの過去数年の写真から自動的にあなたの着用嗜好に関する完全なデータを構築できるとき、そのデータの所有権と用途の境界はどこにあるのか?Googleは現時点の発表で、Wardrobe機能が広告ターゲティングに影響を与えるかどうかや、デジタルクローゼットのデータがモデル訓練に使われるかどうかについては明言していない。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン