Laut Odaily hat die Enterprise-AI-Plattform Pit die Fertigstellung einer Finanzierungsrunde über 16 Millionen US-Dollar bekanntgegeben, die von a16z angeführt wurde; beteiligt waren Lakestar sowie Führungskräfte von OpenAI, Anthropic, Google, Deel und Revolut. Pit positioniert sich als „AI product team as a service“ und soll traditionelle Tabellenkalkulationen sowie starre SaaS-Systeme ersetzen.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Anthropic im Code-Modus: Streit um MCP vs. CLI — Tools für Runtime belegt, Tokens von 150.000 auf 2.000 gedrückt
2025 年整年 AI 工程社群在「MCP vs CLI」哪個更適合 Agent 工具呼叫的問題上爭論不休、Anthropic 2025 年 11 月發表的「Code execution with MCP」論文從第一原則重新定義了問題。akshaypachaar 5/10 整理 thread說明:問題從來不在協議本身、而在「session 開始時把所有工具描述塞進 context」的舊習慣;Anthropic 的解法是讓模型寫程式碼呼叫工具、運行時負責管理工具細節。新模式被稱為「Code Mode」。 舊模式的問題:150K tokens 中模型大部分用不到 舊 MCP 模式的浪費結構: Playwright MCP:13.7K tokens(一次塞滿) Chrome DevTools MCP:18K tokens 5 個 server 設定:尚未開始工作就燒掉 55K tokens 單一 workflow 完整執行:可膨脹到 150K tokens 模型實際用到的:絕大部分都用不上 批評者主張改用 CLI、但 CLI 在多租戶 app 容易出錯、缺乏 typed contract、a
ChainNewsAbmedia2Std her
ByteDance plant, die Ausgaben für KI-Infrastruktur in diesem Jahr um 25% auf 200 Milliarden Yuan zu erhöhen
Laut ChainCatcher unter Berufung auf Golden Data plant ByteDance, die Ausgaben für KI-Infrastruktur in diesem Jahr um 25% auf 200 Milliarden Yuan zu erhöhen, angetrieben durch steigende Kosten für Speicherchips und eine beschleunigte Entwicklung künstlicher Intelligenz.
GateNews3Std her
Google testet die Einstellung mit Prüfungen, bei denen Ingenieure KI-Tools nutzen dürfen
Laut The Chosun Daily testet Google Einstellungstests, mit denen US-amerikanische Software-Engineer-Kandidaten KI-Tools in ausgewählten Einstiegs- und Mid-Level-Positionen nutzen können. Der Versuch umfasst Aufgaben zum Code-Verständnis, bei denen die Bewerber bestehenden Code durchsehen, Bugs beheben und die Performance verbessern. Die Interviewer werden bewerten, wie die Kandidaten KI anleiten, deren Ergebnisse prüfen, die Resultate überarbeiten und Code debuggen, statt nur ihre Fähigkeit zu b
GateNews5Std her
OpenAI stellt die Fine-Tuning-API mit sofortiger Wirkung ein. Bestehende Nutzer können sie bis zum 6. Januar 2027 weiterhin nutzen.
Laut der offiziellen Ankündigung von OpenAI, die von Beating überwacht wird, stellt das Unternehmen seine Self-Serve Fine-Tuning-API für Entwickler mit sofortiger Wirkung ein. Neue Nutzer können keine Fine-Tuning-Aufgaben mehr erstellen, während bestehende aktive Nutzer auf den Dienst bis zum 6. Januar 2027 zugreifen können. Die bereitgestellten Fine-Tuned-Modelle werden ihre Inferenzdienste an den Lebenszyklus ihrer Basismodelle gebunden haben und enden, wenn das Basismodell außer Dienst gestel
GateNews6Std her
Sakana AI und Nvidia erzielen mit dem Überspringen von 80% ungültiger Berechnungen 30% schnellere H100-Inferenz
Sakana AI und Nvidia haben TwELL Open Source veröffentlicht, ein sparsames Datenformat, das H100-GPUs ermöglicht, in großen Sprachmodellen 80% ungültiger Berechnungen zu überspringen, ohne die Genauigkeit zu beeinträchtigen. Die Lösung liefert bis zu 30% schnellere Inferenz und 24% schnellere Trainingsleistung auf H100s und senkt gleichzeitig den Spitzen-Speicherverbrauch. In Tests an einem Modell mit 1,5 Milliarden Parametern reduzierte der Ansatz die aktiven Neuronen durch eine leichte Regular
GateNews7Std her
Microsoft stellt Phi-Ground 4B Open-Source und übertrifft OpenAI Operator sowie Claude bei der Bildschirmklick-Genauigkeit
Laut Beating hat Microsoft kürzlich die Modellfamilie Phi-Ground Open Source gestellt. Sie wurde entwickelt, um das Problem zu lösen, wo eine KI auf dem Bildschirm eines Computers klicken soll. Die Version mit 4 Milliarden Parametern, kombiniert mit größeren Sprachmodellen zur Planungsanweisung, übertraf in dem Showdown-Benchmark die Klickgenauigkeit von OpenAI Operator und Claude Computer Use und belegte in fünf Auswertungen, darunter ScreenSpot-Pro, den ersten Platz unter allen Modellen mit we
GateNews7Std her