ByteDance planea aumentar el gasto en infraestructura de IA en un 25% este año, hasta 200 mil millones de yuanes

Según ChainCatcher citando Golden Data, ByteDance planea aumentar este año el gasto en infraestructura de IA en un 25% hasta 200 mil millones de yuanes, impulsado por el alza en los costos de los chips de memoria y el desarrollo acelerado de la inteligencia artificial.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

La disputa en Code Mode de Anthropic sobre MCP vs CLI: herramientas para el runtime y los tokens pasan de 150K a 2K

2025 年整年 AI 工程社群在「MCP vs CLI」哪個更適合 Agent 工具呼叫的問題上爭論不休、Anthropic 2025 年 11 月發表的「Code execution with MCP」論文從第一原則重新定義了問題。akshay\pachaar 5/10 整理 thread說明:問題從來不在協議本身、而在「session 開始時把所有工具描述塞進 context」的舊習慣;Anthropic 的解法是讓模型寫程式碼呼叫工具、運行時負責管理工具細節。新模式被稱為「Code Mode」。 舊模式的問題:150 mil tokens 中模型大部分用不到 舊 MCP 模式的浪費結構: Playwright MCP:13,7 mil tokens(一次塞滿) Chrome DevTools MCP:18 mil tokens 5 個 server 設定:尚未開始工作就燒掉 55 mil tokens 單一 workflow 完整執行:可膨脹到 150 mil tokens 模型實際用到的:絕大部分都用不上 批評者主張改用 CLI、但 CLI 在多租戶 app 容易出錯、缺乏

ChainNewsAbmediahace1h

Plataforma empresarial de IA cierra la ronda de financiación de $16M , liderada por a16z

Según Odaily, la plataforma de IA empresarial Pit anunció la finalización de una ronda de financiación de 16 millones de dólares liderada por a16z, con la participación de Lakestar y de ejecutivos de OpenAI, Anthropic, Google, Deel y Revolut. Pit se posiciona como “equipo de productos de IA como servicio”, diseñado para reemplazar las hojas de cálculo tradicionales y los sistemas SaaS rígidos.

GateNewshace1h

Google impulsa exámenes de contratación que permiten a los ingenieros usar herramientas de IA

Según The Chosun Daily, Google está pilotando exámenes de contratación que permiten a los candidatos a ingeniero de software en EE. UU. usar herramientas de IA en puestos seleccionados de nivel inicial y medio. La prueba incluye tareas de comprensión de código en las que los solicitantes revisan código existente, corrigen errores y mejoran el rendimiento. Los entrevistadores evaluarán cómo los candidatos redactan instrucciones para la IA, verifican su salida, editan los resultados y depuran el c

GateNewshace3h

OpenAI descontinúa la API de ajuste fino con efecto inmediato; los usuarios existentes pueden acceder hasta el 6 de enero de 2027

Según el anuncio oficial de OpenAI monitoreado por Beating, la empresa está descontinuando su API de ajuste fino self-serve para desarrolladores con efecto inmediato. Los nuevos usuarios ya no pueden crear tareas de ajuste fino, mientras que los usuarios activos existentes pueden acceder al servicio hasta el 6 de enero de 2027. Los modelos ajustados finamente desplegados tendrán sus servicios de inferencia vinculados al ciclo de vida de sus modelos base, y se suspenderán cuando el modelo base se

GateNewshace4h

Sakana AI y Nvidia logran una inferencia 30% más rápida en H100 al omitir el 80% de los cálculos inválidos

Sakana AI y Nvidia han publicado TwELL como open-source, un formato de datos dispersos que permite a las GPU H100 omitir el 80% de los cálculos inválidos en modelos de lenguaje grandes sin perder precisión. La solución ofrece hasta un 30% más de velocidad en la inferencia y un 24% más rápida en el entrenamiento en H100, a la vez que reduce el uso máximo de memoria. En pruebas con un modelo de 1,5 mil millones de parámetros, el enfoque redujo las neuronas activas a menos del 2% mediante una regul

GateNewshace5h

Microsoft lanza código abierto el modelo Phi-Ground 4B y supera a OpenAI Operator y a Claude en precisión al hacer clic en pantalla

Beating informó que Microsoft recientemente publicó como código abierto la familia de modelos Phi-Ground, diseñada para resolver el problema de dónde debe hacer clic la IA en una pantalla de computadora. La versión de 4 mil millones de parámetros, combinada con modelos lingüísticos más grandes para la planificación de instrucciones, superó la precisión de clic de OpenAI Operator y Claude Computer Use en el benchmark Showdown y quedó en el primer lugar entre todos los modelos de menos de 100 mil

GateNewshace6h
Comentar
0/400
Sin comentarios