Thinking Machinesは200msの応答でインタラクションモデルを発表し、GPT-Realtime-2.0を上回ります

Beatingによれば、元OpenAI CTOのミラ・ムラティが設立した研究所であるThinking Machinesは、相互作用モデルの研究プレビューを公開し、200ミリ秒のマイクロターン応答によるネイティブのリアルタイム音声・映像処理を特徴としている。このモデルは、ユーザーのリアルタイムな中断に対応しつつ、同時に聞く・見る・話すことを可能にする。

TML-Interaction-Smallモデルは、2760億パラメータのMoEアーキテクチャを用い、推論ごとに120億パラメータを活性化する。公式データでは、発話ターンの受け渡し遅延が0.40秒、FD-bench V1.5スコアが77.8であり、いずれもGPT-Realtime-2.0およびGemini 3.1 Flash Liveを上回っている。限定的なプレビューアクセスは今後数か月で予定されている。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし