Google en conversaciones con Marvell para desarrollar chips de IA personalizados; se planea una unidad de procesamiento de memoria para 2027

Mensaje de Gate News, 20 de abril — Google está en conversaciones con el fabricante estadounidense de chips Marvell Technology para desarrollar dos chips personalizados diseñados para ejecutar cargas de trabajo de IA de manera más eficiente y reducir la dependencia de las GPU de Nvidia.

Uno de los chips será una unidad de procesamiento de memoria (MPU) diseñada para trabajar junto con la unidad de procesamiento de tensores (TPU) de Google, mientras que la otra será una nueva TPU construida específicamente para la inferencia de modelos de IA. Las compañías buscan completar el diseño de la MPU tan pronto como en 2027 antes de pasar a la producción de pruebas.

La asociación refleja el impulso más amplio de Google por desarrollar silicio propietario para su infraestructura de IA en la nube, lo que le permitirá optimizar el rendimiento mientras construye alternativas a las soluciones basadas en GPU existentes.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

DeepSeek V4-Flash se lanza en Ollama Cloud, servidor en EE. UU.: Claude Code, OpenClaw con un clic para conectar

Ollama Cloud ha publicado DeepSeek V4-Flash, con inferencia en servidores en Estados Unidos, y ofrece tres conjuntos de comandos de un solo clic para conectarse a Claude Code, OpenClaw y Hermes. V4-Flash/V4-Pro adoptan una arquitectura MoE, cuentan con soporte nativo de contexto 1M, y reducen costos con compresión Token-wise + atención dispersa DSA, logrando una reducción del 27% en FLOPs por token y una disminución del 10% en caché KV en escenarios de 1M. La API es compatible con OpenAI ChatCompletions y Anthropic, lo que facilita el cambio entre múltiples flujos de trabajo, y reduce el costo y el riesgo de soberanía de los datos.

ChainNewsAbmediahace1h

La infraestructura de IA de Web3 AIW3 recauda $2M en financiación semilla liderada por Buffalo Capital

Mensaje de Gate News, 24 de abril — La plataforma de infraestructura de IA para Web3, AIW3, anunció la finalización de una ronda semilla de financiación de $2 millones. La ronda fue liderada por Buffalo Capital, con GalaXin Capital y Three-stones Ventures participando como coinversores. AIW3 se está trasladando hacia un paradigma de ejecución en cadena de Agent-as-a-Service

GateNewshace1h

Cohere adquiere la firma alemana de IA Aleph Alpha y asegura $600M inversión para la expansión europea

Mensaje de Gate News, 24 de abril: la empresa canadiense de IA Cohere anunció planes para adquirir la firma alemana de IA Aleph Alpha para reforzar su presencia en Europa. Schwarz Group, un patrocinador de Aleph Alpha, planea invertir $600 millones en la ronda de financiación Serie E de Cohere. Se espera que la ronda de financiación cierre en 202

GateNewshace2h

Xpeng, Xiaomi Lead In-Car AI Push at Beijing Auto Show

Gate News message, April 24 — Chinese automakers showcased advanced in-car AI systems at the Beijing Auto Show on April 24, as the country accelerates its AI Plus strategy and seeks greater independence from foreign semiconductors. Xpeng demonstrated voice-controlled parking that allows drivers to

GateNewshace2h

Ex ingeniero de Seed de ByteDance: la iteración de la IA de ByteDance tarda seis meses frente a los tres meses de Google

Mensaje de Gate News, 24 de abril — Zhang Chi, ex ingeniero del equipo Seed de ByteDance y profesor asistente actual en la Universidad de Pekín, reveló en el podcast "Into Asia" que ByteDance requiere aproximadamente seis meses para completar un ciclo completo de entrenamiento de preentrenamiento de modelos de lenguaje a gran escala (pretraining

GateNewshace3h

El ingeniero de OpenAI Clive Chan cuestiona las recomendaciones de hardware de V4, citando errores y falta de claridad frente a V3

Mensaje de Gate News, 24 de abril — El ingeniero de OpenAI, Clive Chan, ha presentado objeciones detalladas al capítulo de recomendaciones de hardware en el informe técnico V4, calificándolo de "sorprendentemente mediocre y propenso a errores" en comparación con la versión V3 aclamada. La guía de hardware de V3, que incluyó sesiones de Q&A

GateNewshace3h
Comentar
0/400
Sin comentarios