輝达 (NVIDIA)与聯发科(MediaTek)展开深度合作关係, 雙強聯手建構高效的中央运算架構,NVIDIA DRIVE AGX 运算平台將人工智慧从單一指令接收器转化为具備推理能力的 AI 代理,整合聯发科的 Dimensity AX 座艙晶片,藉由边緣运算与雲端资源使车輛能提供低延遲、高隐私且具備个人化 AI 代理的體验。
车載 AI 代理混合架構處理複雜运算需求
车載 AI 代理採用混合架構(Hybrid Architecture)以应对多元化的任務需求。边緣端由 NVIDIA DRIVE AGX 平台執行,專门處理对延遲極度敏感(反应时间低於 500 毫秒)且涉及隐私的本地任務,例如语音控制、影像辨识及车輛遙測數據分析。即使在網路收訊不穩定或中斷的情況下,本地端仍能运行參數达 7B 以上的大型语言模型与視覺语言模型(VLM),確保基本功能运作。相对地,雲端環境則扮演「AI 工廠」的角色,负责執行網頁搜尋、複雜行程規劃等高运算需求任務持续进行模型訓練、微调与验证,随后將優化后的成果部署回车端,达成动態的效能平衡。
AI代理編排如何優化使用者體验?
为了確保使用者在边緣与雲端转換间獲得无縫體验,系统導入代理編排(Agent Orchestration)机制。当駕駛提出複雜需求时,系统会根據当前情境自动辨识意圖,將任務路由至正確的本地或雲端代理協作。例如討論行程时,系统会调动本地導航与雲端搜尋代理共同工作。关鍵在於上下文共享(Context Sharing)技術,系统会在不同平台间同步相关背景资訊,避免使用者重複指令,確保雲端资訊能正確反饋給本地系统。这種透明化的互动逻辑(UX Transparency)能追蹤非同步任務狀態,確保系统即使在網路切換或中斷时,仍能維持穩定且连貫的服務品质,減少对駕駛的干擾。
软體堆疊对跨平台部署的效能为何?
NVIDIA 透过 NeMo 与 TensorRT 提供统一的软體架構,有效縮短从研发到实际部署的技術鴻溝。开发者可以在雲端環境使用 TensorRT-LLM 进行大規模推論,能无縫迁移至车載边緣端的 TensorRT Edge-LLM 部署模型,这種一致性的工具链不僅確保了模型在不同環境下的效能与可靠性,也建立起「混合边緣 X 雲端反饋循環」,透过车輛实际使用數據的累積,助理程式能不斷进行迭代进化,使其理解力与反应更趨精準,汽车製造商能更靈活地更新车載功能,使车輛具備随使用时间自我優化的能力,大幅延长车載系统的技術生命週期。
NVIDIA 攜手聯发科实现未来 AI 原生车
NVIDIA 与聯发科合作的中央电腦架構將聯发科的 MediaTek Dimensity AX 系列座艙的晶片(SoC)与 NVIDIA DRIVE AGX 平台的 Orin 或 Thor 相結合。在此架構中,Dimensity AX 负责處理高階车內遊戲、多媒體与傳统资訊娛樂系统(IVI)的工作负載;而 NVIDIA DRIVE AGX 則專注於處理人工智慧运算,支持多模態应用与自动駕駛功能。
NVIDIA 与聯发科合作的晶片架構主要是將 MediaTek Dimensity AX 系列座艙系统單晶片(SoC)与 NVIDIA DRIVE AGX 平台相結合,構建出一種中央电腦(Central Car Computer)架構。
以下为該合作架構的关鍵細節:
核心組件將 MediaTek Dimensity AX C-X1(或 C 系列)座艙 SoC 与 NVIDIA 的 DRIVE AGX(如 Orin 或 Thor)配对使用。
MediaTek Dimensity AX 负责處理高階车內遊戲、多媒體以及傳统的资訊娛樂系统(IVI)工作负載。
NVIDIA DRIVE AGX 卸載 AI 工作负載,支援多數 AI 模型,实现豐富的多模態应用与自动駕駛。
聯发科的 Dimensity 平台与 NVIDIA 的 DRIVE AGX 共享 DriveOS 软體環境。
两者透过 PCIE 连結,利用 DriveOS NvStreams API 实现影片与音訊等高频寬數據的无縫共享 2。
輝达与聯发科的合作为汽车製造商提供了極具擴展性的选擇,汽车廠商能維持现有座艙體验的同时升級成「AI 原生」未来车款。
这篇文章 輝达、聯发科雙強聯手打造 AI 原生助理未来车 最早出现於 链新聞 ABMedia。
相关文章