LG CNS, el brazo de servicios de TI del Grupo LG en Corea del Sur, lanzó su plataforma PhysicalWorks para entrenar y gestionar flotas de robots mixtas mediante una única capa de software unificada, según The Korea Herald. En una demostración, cuatro robots de Unitree, Deep Robotics, Dexmate y Bear Robotics movieron cajas sin control remoto, completando una sola transferencia en 90 segundos a lo largo de dos a tres metros. La empresa dijo que el sistema combina simulación y formación mediante video con software que reasigna el trabajo en tiempo real, incluida la capacidad de cambiar de equipo durante emergencias; por ejemplo, cuando desvió un cuadropedo para realizar tareas de patrulla y reasignó su cometido a un carrito de Bear Robotics.
Capacidades y despliegue de la plataforma
El sistema PhysicalWorks gestiona robots de diferentes fabricantes a través de una sola capa de control, abordando un mercado fragmentado donde las máquinas de proveedores distintos típicamente requieren ingeniería personalizada para funcionar juntas. Según la fuente, este enfoque unificado podría facilitar la adopción de la automatización, permitiendo que las empresas elijan el mejor robot para cada tarea sin quedar atrapadas en un ecosistema de un solo proveedor.
LG CNS informó que la plataforma puede reducir el tiempo de despliegue de robots de varios meses a aproximadamente uno a dos meses. La empresa actualmente ejecuta más de 20 proyectos de prueba de concepto, y un ejecutivo señaló que la generación de ingresos podría tardar entre uno y dos años.
Fundación de software para robots de LG CNS
El lanzamiento de PhysicalWorks se apoya en cuatro décadas de experiencia de LG CNS como integrador de sistemas en el sector manufacturero. La empresa ha dedicado 40 años a construir infraestructura de TI para fabricantes, incluyendo experiencia para enlazar software de producción heredado; una ventaja que la compañía considera relevante para la integración de la robótica moderna.
PhysicalWorks se basa en herramientas existentes de LG CNS como Real Time Dispatcher (RTD), que establece prioridades de tareas y condiciones de movimiento logístico en tiempo real. RTD también puede controlar equipamiento logístico, incluidos los Automated Guided Vehicles (AGVs), vehículos sin conductor usados para mover materiales en fábricas.
Inteligencia artificial y adaptabilidad
La plataforma incorpora un Robot Foundation Model (RFM) desarrollado mediante la asociación de LG CNS con Skild AI, una startup estadounidense que construye sistemas de IA para robots. El RFM busca hacer que los robots sean más adaptables al permitirles aprender a partir de fotos y datos de video del lugar de trabajo, y luego actuar de forma autónoma en lugar de requerir desarrollo específico para cada acción o control directo en cada paso.
La preparación de LG CNS para el lanzamiento incluyó un periodo de desarrollo de 11 meses, durante el cual la empresa invirtió en Skild AI y adquirió una participación en la firma de robótica Dexmate.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
CopilotKit abre código abierto Open Generative UI: implementación del marco entre agentes de Claude Artifacts
El framework de frontend de agentes de IA de código abierto CopilotKit anunció el 7 de mayo el lanzamiento de Open Generative UI, una implementación de código abierto de la función Anthropic Claude Artifacts. akshay\_pachaar recopiló y explicó los detalles: la versión de CopilotKit permite que el agente genere dinámicamente HTML/SVG durante la ejecución y lo muestre en un iframe con sandbox mediante un streaming token por token; así, los usuarios pueden ver en tiempo real el proceso de ensamblaje de la interfaz, sin necesidad de esperar la respuesta completa. Antes de los Artifacts de Anthropic Claude, la capacidad de UI generativa solo existía dentro de los propios productos de Anthropic; CopilotKit lleva el mismo modelo a
ChainNewsAbmediahace1h
OpenAI Codex llega a la extensión para Chrome: puede probar una Web App en el navegador, obtener Contexto entre páginas y funcionar en paralelo
OpenAI 7 de mayo (hora de EE. UU.) anunció la función de extensión de Chrome de Codex, que permite que los agentes de codificación de Codex operen directamente dentro del navegador Chrome en macOS y Windows. La documentación oficial de Codex de OpenAI detalla que la extensión permite a Codex probar una web app sin hacerse cargo del navegador del usuario, obtener context a través de múltiples pestañas, usar Chrome DevTools y realizar otras tareas en paralelo. OpenAI también informó que los usuarios activos semanales de Codex superan los 4 millones, lo que representa un crecimiento de 8 veces desde principios de año.
Cosas que se pueden hacer dentro del navegador: probar web app, obtener context entre páginas, usar DevTools
Extensión de Chrome
ChainNewsAbmediahace1h
El benchmark reitera una calificación de compra de $27 en Bitdeer mientras BTDR se dispara un 21% con el impulso de la infraestructura de IA
Según Benchmark Equity Research, el jueves la firma reiteró su recomendación de compra y un objetivo de precio de 27 dólares para Bitdeer Technologies (BTDR), citando el potencial de revalorización de la acción mientras pasa a AI y
GateNewshace11h
Video Rebirth lanza la herramienta BACH AI para generación de video de múltiples tomas de hasta 30 segundos
Video Rebirth lanzó BACH el 7 de mayo, una herramienta que genera videos de varios planos de hasta 30 segundos a partir de indicaciones de texto e imágenes de referencia. La herramienta mantiene la consistencia de los personajes entre planos, sigue las instrucciones de la cámara y produce video nativo en 1080p con efectos de sonido, locución y
GateNewshace16h
Tether lanza el modelo de IA médica MedPsy QVAC y logra una puntuación de 62,62 en la versión de 17 mil millones de parámetros
Según Odaily, Tether AI Research Group lanzó QVAC MedPsy, un modelo de IA médica diseñado para ejecutarse localmente en teléfonos inteligentes y dispositivos portátiles sin depender de la nube. La versión de 1,7 mil millones de parámetros obtuvo 62,62 en siete evaluaciones médicas, superando a MedGemma-1.5-4B de Google por 11,42 poi
GateNewshace17h
Xiaomi abre el código de OmniVoice, un modelo de clonación de voz con cero-shot compatible con 646 idiomas
Según Beating, el equipo Kaldi del AI Lab de Xiaomi ha publicado como open-source OmniVoice, un modelo de TTS de clonación de voz zero-shot que admite 646 idiomas. El modelo clona las características de la voz a partir de apenas unos segundos de audio de referencia y funciona entre idiomas: una sola voz puede sintetizar voz en mandarín,
GateNewshace19h