NVIDIA (輝達) y MediaTek (聯發科) inician una colaboración profunda: ambas potencias se unen para construir una arquitectura central de cómputo eficiente. La plataforma de cómputo NVIDIA DRIVE AGX transforma a la inteligencia artificial, que antes funcionaba como un receptor de instrucciones único, en un agente de IA con capacidad de inferencia. Integra el chip de cabina Dimensity AX de MediaTek y, mediante cómputo en el borde y recursos en la nube, permite que el vehículo ofrezca una experiencia de agentes de IA personalizada, con baja latencia y alta privacidad.
Arquitectura híbrida de agentes de IA para vehículos para procesar demandas de cómputo complejas
Los agentes de IA para vehículos adoptan una arquitectura híbrida para hacer frente a requisitos de tareas diversificados. En el borde, la plataforma NVIDIA DRIVE AGX ejecuta tareas especializadas, especialmente las locales que son extremadamente sensibles a la latencia (tiempo de respuesta inferior a 500 milisegundos) e implican privacidad, como el control por voz, el reconocimiento de imágenes y el análisis de datos de telemetría del vehículo. Incluso cuando la señal de red es inestable o se interrumpe, el extremo local aún puede ejecutar modelos de lenguaje de gran tamaño (LLM) y modelos de lenguaje visual (VLM) con parámetros de 7B o más, garantizando que las funciones básicas sigan operativas. En cambio, el entorno en la nube desempeña el papel de una “fábrica de IA”: ejecuta de forma continua tareas de alta carga como búsqueda web y planificación de rutas complejas para entrenar, ajustar fino y validar modelos; luego, los resultados optimizados se despliegan de vuelta en el vehículo, logrando un equilibrio dinámico del rendimiento.
¿Cómo optimiza el orquestado de agentes la experiencia del usuario?
Para asegurar que los usuarios reciban una experiencia sin fisuras entre la transición del borde a la nube, el sistema introduce un mecanismo de orquestación de agentes (Agent Orchestration). Cuando el conductor plantea una necesidad compleja, el sistema identifica automáticamente la intención según el contexto actual y enruta la tarea al agente local o de nube correcto para que colaboren. Por ejemplo, al discutir un itinerario, el sistema convoca conjuntamente a los agentes locales de navegación y a los agentes de búsqueda en la nube. Lo clave es la tecnología de intercambio de contexto (Context Sharing): el sistema sincroniza información de fondo relevante entre plataformas, evitando que el usuario tenga que repetir comandos y garantizando que la información de la nube se retroalimente correctamente al sistema local. Esta lógica de interacción transparente (UX Transparency) puede rastrear el estado de las tareas asincrónicas, asegurando que el sistema mantenga un servicio estable y coherente incluso cuando la red cambia o se interrumpe, y reduciendo la interferencia para el conductor.
¿Por qué el software en pila mejora el rendimiento para despliegue multiplataforma?
NVIDIA, mediante NeMo y TensorRT, ofrece una arquitectura de software unificada que reduce de forma efectiva la brecha técnica desde el desarrollo hasta el despliegue real. Los desarrolladores pueden usar TensorRT-LLM en el entorno de nube para realizar inferencia a gran escala y migrarlo sin problemas a un despliegue en el borde del vehículo mediante TensorRT Edge-LLM. Esta cadena de herramientas de consistencia no solo garantiza el rendimiento y la confiabilidad del modelo en distintos entornos, sino que también crea un “ciclo de retroalimentación híbrida entre borde y nube”. Con la acumulación de datos reales de uso del vehículo, el asistente puede seguir evolucionando en iteraciones, mejorando su capacidad de comprensión y su capacidad de respuesta; y los fabricantes de automóviles pueden actualizar con más flexibilidad las funciones del vehículo, dotándolo de la capacidad de autooptimizarse con el tiempo de uso, extendiendo considerablemente el ciclo de vida técnico de los sistemas a bordo.
NVIDIA y MediaTek hacen posible el futuro de un coche nativo de IA
La arquitectura central de computación en la que colaboran NVIDIA y MediaTek combina los chips de cabina (SoC) de la serie MediaTek Dimensity AX y la plataforma NVIDIA DRIVE AGX, ya sea con Orin o con Thor. En esta arquitectura, Dimensity AX se encarga de cargas de trabajo de alto nivel como juegos en el coche, multimedia y sistemas tradicionales de entretenimiento de información (IVI); mientras que NVIDIA DRIVE AGX se enfoca en el cómputo de inteligencia artificial, y soporta aplicaciones multimodales y funciones de conducción autónoma.
La arquitectura de chips que comparten NVIDIA y MediaTek se basa principalmente en combinar el sistema en un chip (SoC) de cabina de la serie MediaTek Dimensity AX con la plataforma NVIDIA DRIVE AGX, para construir una arquitectura de “computadora central del automóvil” (Central Car Computer).
A continuación, los detalles clave de esta arquitectura de colaboración:
Los componentes centrales emparejan el SoC de cabina MediaTek Dimensity AX C-X1 (o C) con NVIDIA DRIVE AGX (como Orin o Thor).
MediaTek Dimensity AX se encarga de procesar cargas de trabajo de juegos de alto nivel en el vehículo, multimedia y el sistema tradicional de entretenimiento de información (IVI).
NVIDIA DRIVE AGX descarga las cargas de trabajo de IA, soporta la mayoría de los modelos de IA y habilita aplicaciones multimodales y conducción autónoma.
La plataforma Dimensity de MediaTek y el entorno de software DriveOS de NVIDIA DRIVE AGX comparten el entorno.
Ambos se conectan mediante PCIE y usan la API DriveOS NvStreams para habilitar un intercambio sin fisuras de datos de alto ancho de banda como video y audio 2.
La colaboración entre NVIDIA y MediaTek ofrece a los fabricantes de automóviles una opción altamente escalable: pueden mantener la experiencia de cabina existente y, al mismo tiempo, actualizarse a futuros modelos de “coche nativo de IA”.
Este artículo, “NVIDIA y MediaTek, las dos potencias, se unen para construir el futuro coche asistente de IA nativa”, apareció por primera vez en ChainNews ABMedia.
Artículos relacionados
Snap pone fin al acuerdo con Perplexity AI y cancela el pago de 400 millones de dólares
El 5/6, Musk anunció la disolución de XAI y su renombrado como SpaceXAI, integrándolo en SpaceX
Genesis AI lanza la plataforma de robótica GENE-26.5 con financiación US$105M
Ethos recauda 27,5 millones de USD en una Serie A liderada por a16z
Moonshot AI recauda 2 mil millones de dólares con una valoración de 20 mil millones, liderada por Meituan
OpenAI revoca mañana, 8 de mayo, el certificado de firma en macOS, deshabilitando aplicaciones obsoletas