Según Beating, Thinking Machines, el laboratorio fundado por la ex CTO de OpenAI Mira Murati, lanzó una vista previa de investigación de su modelo de Interacción, con procesamiento nativo de audio y video en tiempo real y respuestas de micro-turn de 200 milisegundos. El modelo permite escuchar, ver y hablar de forma simultánea, mientras admite interrupciones en tiempo real por parte del usuario.
El modelo TML-Interaction-Small utiliza una arquitectura MoE de 276 mil millones de parámetros, con 12 mil millones de parámetros activados por inferencia. Los datos oficiales muestran una latencia de cambio de turno de voz de 0,40 segundos y una puntuación FD-bench V1.5 de 77,8, ambas superando a GPT-Realtime-2.0 y a Gemini 3.1 Flash Live. Se planea un acceso limitado a la vista previa para los próximos meses.
Related News
¿OpenAI también sigue el modelo de consultoría tipo Palantir? Invierte 4 mil millones para crear una empresa independiente y envía FDE a las empresas para una integración profunda del trabajo con flujos de IA
OpenAI impulsa una empresa de despliegue de 4 mil millones de dólares: compra Tomoro
Los empleados de OpenAI venden acciones por 6.600 millones de dólares, con una ganancia promedio de 11 millones de dólares por persona