LG Electronics presenta una unidad de refrigeración directo al chip de 1,4 MW para centros de datos de IA

Mensaje de Gate News, 21 de abril — LG Electronics mostró nuevos productos de refrigeración y energía para la infraestructura de centros de datos de IA en Data Center World 2026 en Washington, incluido una unidad de distribución de refrigerante directo al chip con una capacidad de refrigeración de 1,4 megavatios.

La empresa demostró bombas inversoras y sensores virtuales diseñados para mejorar la eficiencia energética, junto con la tecnología de refrigeración por inmersión desarrollada en asociación con Green Revolution Cooling y SK Enmove. LG también presentó sistemas de refrigeración por aire, una plataforma de monitoreo y una herramienta de optimización energética creada con PADO. Un proyecto de red de corriente continua que involucra a LG Energy Solution y empresas de LS busca reducir las pérdidas de energía de aproximadamente 25% a alrededor de 15%.

La expansión de LG hacia la infraestructura de centros de datos forma parte de su estrategia más amplia para convertirse en un proveedor de infraestructura de IA, respaldada por un plan de inversión reportado de aproximadamente $70 mil millones. La empresa ha firmado un contrato de suministro llave en mano con Microsoft para centros de datos de IA y ha suscrito un MOU con Flex para soluciones modulares de refrigeración, con el objetivo de reducir el tiempo de implementación de hasta dos años a seis meses.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Vercel abre el código del framework deepsec con 1.000+ concurrencia de sandbox para el escaneo local de seguridad de IA

Según Beating, Vercel ha hecho de código abierto deepsec, un marco de pruebas de seguridad impulsado por IA que permite a los desarrolladores escanear grandes bases de código localmente sin exponer el código fuente a servicios en la nube externos. El marco utiliza un flujo de verificación de varias etapas: después del filtrado inicial por regex, un

GateNewshace2h

Las cámaras de Netradyne AI supervisan el comportamiento de los conductores en flotas

Sistema de monitoreo del conductor con IA de Netradyne Netradyne, una startup india, está desplegando cámaras con IA en flotas de vehículos comerciales para monitorear el comportamiento del conductor y reducir los accidentes. Las cámaras orientadas hacia el interior se enfocan en el conductor en lugar de los pasajeros, alertando al conductor cuando supera los límites de velocidad o

CryptoFrontierhace4h

AequiSolva lanza la arquitectura de IA Sentinel Stack para la verificación institucional de activos el 30 de abril

Según AequiSolva, la empresa lanzó su arquitectura de intercambio Sentinel Stack™ con IA integrada el 30 de abril de 2026, con ejecución determinista, vigilancia de mercados impulsada por IA y el motor Omni-Attest Engine™ para una prueba criptográfica continua de reservas. La plataforma combina tres núcleos

GateNewshace9h

Karpathy revela en detalle: el método completo para construir una base de conocimiento personal con LLM

Los miembros del equipo fundador de OpenAI, Andrej Karpathy, ex director de IA de Tesla, publicó en X el flujo de trabajo de “LLM Knowledge Bases”, explicando que recientemente movió un gran volumen de uso de tokens de “controlar código” a “controlar conocimiento”: usar LLM para convertir artículos, papers, carpetas, imágenes y materiales dispersos en un wiki personal que se mantiene automáticamente. Todo el proceso ya se ha acumulado en sus propios proyectos de investigación con ~100 artículos, ~400 mil palabras, y en todo momento fue escrito y actualizado por LLM. Este artículo recopila el setup completo de Karpathy y ofrece a los desarrolladores que quieran replicarlo una lista para implementarlo. Idea central: datos sin procesar → compilación con LLM → wiki → Q&A La filosofía de diseño de Karpathy puede reducirse a una

ChainNewsAbmediahace15h

La empresa de tesorería Bitcoin K Wave Media asegura hasta $485M para la creación de infraestructura de IA

Según ChainCatcher, la empresa de tesorería de bitcoin cotizada en Nasdaq, K Wave Media, anunció el 4 de mayo un giro estratégico hacia la infraestructura de IA, asegurando hasta 485 millones de dólares en apoyo de capital para inversiones en centros de datos, servicios de alquiler de GPU y adquisiciones y asociaciones de infraestructura de IA. La empresa

GateNewshace17h

Antimatter lanza un plan de centro de datos de IA con €300M de financiación

Antimatter, una empresa de infraestructura en la nube con sede en Francia para cargas de trabajo de IA, se lanzó el 4 de mayo al combinar tres empresas existentes: Datafactory, Policloud y Hivenet. La compañía está recaudando 300 millones de euros (351 millones de USD) para implementar 100 unidades de micro centros de datos en 2026 para la inferencia de IA

CryptoFrontierhace18h
Comentar
0/400
Sin comentarios