Google Cloud presenta el modelo Gemini 3.2 Flash Lite con costes de inferencia un 95% inferiores a los de GPT-5.5

De acuerdo con la monitorización de Beating.AI, una nueva opción de modelo llamada gemini-3.2-flash-lite-live-preview ha aparecido en la lista de selección de modelos de Google Cloud a partir del 17 de mayo. Los sufijos “lite” y “live” indican que Google está creando una versión especializada optimizada para interacciones en tiempo real de latencia ultra baja.

El CEO de Abacus.AI, Bindu Reddy, reveló previamente que Gemini 3.2 Flash logra el 92% de las capacidades de codificación y razonamiento de GPT-5.5, manteniendo los costos de inferencia en solo 1/20 de los de GPT-5.5, con la mayoría de las consultas devolviendo respuestas por debajo de 200 milisegundos. Los observadores de la industria esperan que este modelo ligero optimizado por costos sea presentado formalmente en Google I/O el 20 de mayo.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios