Nvidia y MediaTek se unen para crear el futuro del coche con un asistente nativo de IA

NVIDIA (輝達) y MediaTek (聯發科) inician una colaboración profunda: ambas potencias se unen para construir una arquitectura central de cómputo eficiente. La plataforma de cómputo NVIDIA DRIVE AGX transforma a la inteligencia artificial, que antes funcionaba como un receptor de instrucciones único, en un agente de IA con capacidad de inferencia. Integra el chip de cabina Dimensity AX de MediaTek y, mediante cómputo en el borde y recursos en la nube, permite que el vehículo ofrezca una experiencia de agentes de IA personalizada, con baja latencia y alta privacidad.

Arquitectura híbrida de agentes de IA para vehículos para procesar demandas de cómputo complejas

Los agentes de IA para vehículos adoptan una arquitectura híbrida para hacer frente a requisitos de tareas diversificados. En el borde, la plataforma NVIDIA DRIVE AGX ejecuta tareas especializadas, especialmente las locales que son extremadamente sensibles a la latencia (tiempo de respuesta inferior a 500 milisegundos) e implican privacidad, como el control por voz, el reconocimiento de imágenes y el análisis de datos de telemetría del vehículo. Incluso cuando la señal de red es inestable o se interrumpe, el extremo local aún puede ejecutar modelos de lenguaje de gran tamaño (LLM) y modelos de lenguaje visual (VLM) con parámetros de 7B o más, garantizando que las funciones básicas sigan operativas. En cambio, el entorno en la nube desempeña el papel de una “fábrica de IA”: ejecuta de forma continua tareas de alta carga como búsqueda web y planificación de rutas complejas para entrenar, ajustar fino y validar modelos; luego, los resultados optimizados se despliegan de vuelta en el vehículo, logrando un equilibrio dinámico del rendimiento.

¿Cómo optimiza el orquestado de agentes la experiencia del usuario?

Para asegurar que los usuarios reciban una experiencia sin fisuras entre la transición del borde a la nube, el sistema introduce un mecanismo de orquestación de agentes (Agent Orchestration). Cuando el conductor plantea una necesidad compleja, el sistema identifica automáticamente la intención según el contexto actual y enruta la tarea al agente local o de nube correcto para que colaboren. Por ejemplo, al discutir un itinerario, el sistema convoca conjuntamente a los agentes locales de navegación y a los agentes de búsqueda en la nube. Lo clave es la tecnología de intercambio de contexto (Context Sharing): el sistema sincroniza información de fondo relevante entre plataformas, evitando que el usuario tenga que repetir comandos y garantizando que la información de la nube se retroalimente correctamente al sistema local. Esta lógica de interacción transparente (UX Transparency) puede rastrear el estado de las tareas asincrónicas, asegurando que el sistema mantenga un servicio estable y coherente incluso cuando la red cambia o se interrumpe, y reduciendo la interferencia para el conductor.

¿Por qué el software en pila mejora el rendimiento para despliegue multiplataforma?

NVIDIA, mediante NeMo y TensorRT, ofrece una arquitectura de software unificada que reduce de forma efectiva la brecha técnica desde el desarrollo hasta el despliegue real. Los desarrolladores pueden usar TensorRT-LLM en el entorno de nube para realizar inferencia a gran escala y migrarlo sin problemas a un despliegue en el borde del vehículo mediante TensorRT Edge-LLM. Esta cadena de herramientas de consistencia no solo garantiza el rendimiento y la confiabilidad del modelo en distintos entornos, sino que también crea un “ciclo de retroalimentación híbrida entre borde y nube”. Con la acumulación de datos reales de uso del vehículo, el asistente puede seguir evolucionando en iteraciones, mejorando su capacidad de comprensión y su capacidad de respuesta; y los fabricantes de automóviles pueden actualizar con más flexibilidad las funciones del vehículo, dotándolo de la capacidad de autooptimizarse con el tiempo de uso, extendiendo considerablemente el ciclo de vida técnico de los sistemas a bordo.

NVIDIA y MediaTek hacen posible el futuro de un coche nativo de IA

La arquitectura central de computación en la que colaboran NVIDIA y MediaTek combina los chips de cabina (SoC) de la serie MediaTek Dimensity AX y la plataforma NVIDIA DRIVE AGX, ya sea con Orin o con Thor. En esta arquitectura, Dimensity AX se encarga de cargas de trabajo de alto nivel como juegos en el coche, multimedia y sistemas tradicionales de entretenimiento de información (IVI); mientras que NVIDIA DRIVE AGX se enfoca en el cómputo de inteligencia artificial, y soporta aplicaciones multimodales y funciones de conducción autónoma.

La arquitectura de chips que comparten NVIDIA y MediaTek se basa principalmente en combinar el sistema en un chip (SoC) de cabina de la serie MediaTek Dimensity AX con la plataforma NVIDIA DRIVE AGX, para construir una arquitectura de “computadora central del automóvil” (Central Car Computer).

A continuación, los detalles clave de esta arquitectura de colaboración:

Los componentes centrales emparejan el SoC de cabina MediaTek Dimensity AX C-X1 (o C) con NVIDIA DRIVE AGX (como Orin o Thor).

MediaTek Dimensity AX se encarga de procesar cargas de trabajo de juegos de alto nivel en el vehículo, multimedia y el sistema tradicional de entretenimiento de información (IVI).

NVIDIA DRIVE AGX descarga las cargas de trabajo de IA, soporta la mayoría de los modelos de IA y habilita aplicaciones multimodales y conducción autónoma.

La plataforma Dimensity de MediaTek y el entorno de software DriveOS de NVIDIA DRIVE AGX comparten el entorno.

Ambos se conectan mediante PCIE y usan la API DriveOS NvStreams para habilitar un intercambio sin fisuras de datos de alto ancho de banda como video y audio 2.

La colaboración entre NVIDIA y MediaTek ofrece a los fabricantes de automóviles una opción altamente escalable: pueden mantener la experiencia de cabina existente y, al mismo tiempo, actualizarse a futuros modelos de “coche nativo de IA”.

Este artículo, “NVIDIA y MediaTek, las dos potencias, se unen para construir el futuro coche asistente de IA nativa”, apareció por primera vez en ChainNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Snap pone fin al acuerdo con Perplexity AI y cancela el pago de 400 millones de dólares

Según su último informe de resultados, Snap cerró un acuerdo con la startup de búsqueda de IA Perplexity, anunciado en noviembre, anulando un pago planificado de 400 millones de dólares en efectivo y en acciones durante un año. La función se probó con un grupo reducido de usuarios en el Chat de Snapchat, pero las empresas no acordaron una implementación más amplia

GateNewsHace7m

El 5/6, Musk anunció la disolución de XAI y su renombrado como SpaceXAI, integrándolo en SpaceX

El 5/6, Musk anunció en X que xAI se disolvería como empresa independiente; que los futuros productos de IA aparecerán unificados bajo la marca SpaceXAI; y que SpaceX también adquiriría xAI en febrero de 2026. Este sería el último paso para consolidar la marca y la organización tras la adquisición. En el mismo periodo, Anthropic y SpaceXAI firmaron un contrato de capacidad informática de Colossus1, lo que muestra que la unificación de la marca entró en vigor ese mismo día.

ChainNewsAbmediaHace10m

Genesis AI lanza la plataforma de robótica GENE-26.5 con financiación US$105M

Genesis AI lanzó GENE-26.5 el 6 de mayo. Es una plataforma de robótica full-stack diseñada para mejorar la manipulación de robots utilizando datos de un guante háptico propietario, simulación y videos de humanos, según la empresa. La startup ha recaudado 105 millones de dólares de inversores, incluidos Eclipse y Khosla Ventures a

CryptoFrontierHace27m

Ethos recauda 27,5 millones de USD en una Serie A liderada por a16z

Según Foresight News, la plataforma de emparejamiento de talento impulsada por IA Ethos recaudó 27,5 millones de dólares en una ronda de financiación de Serie A liderada por Andreessen Horowitz (a16z), con la participación de General Catalyst, XTX Markets, Matt Miller y Common Magic. La plataforma utiliza IA para entrevistar a los candidatos y analizar sus

GateNewsHace56m

Moonshot AI recauda 2 mil millones de dólares con una valoración de 20 mil millones, liderada por Meituan

Según Bloomberg, Moonshot AI, la startup con sede en Pekín detrás del chatbot Kimi, recaudó aproximadamente 2 mil millones de dólares en una ronda de financiación liderada por la división de venture de Meituan, Long-Z Investments, valorando a la empresa en más de 20 mil millones de dólares. Los ingresos recurrentes anuales de la empresa superaron los 200 millones de dólares en

GateNewshace1h

OpenAI revoca mañana, 8 de mayo, el certificado de firma en macOS, deshabilitando aplicaciones obsoletas

Según Beating, el certificado de firma de macOS de OpenAI se revocará el 8 de mayo, lo que inutilizará las versiones desactualizadas de ChatGPT Desktop, Codex, Codex CLI y Atlas y las dejará sin capacidad para recibir actualizaciones. Los usuarios con versiones de Mac deben actualizar de inmediato mediante las actualizaciones en la aplicación o descargando desde Ope

GateNewshace1h
Comentar
0/400
Sin comentarios