Gate-News-Meldung, 22. April — Hugging Face hat ml-intern open-sourct, einen ML-Forschungsagenten, der in der Lage ist, den vollständigen Workflow autonom abzuschließen: Papers lesen, Datensets organisieren, GPU-Training starten, Ergebnisse auswerten und Verbesserungen iterieren. Das Projekt basiert auf Hugging Faces smolagents-Framework und bietet sowohl eine CLI- als auch webbasierte Oberflächen; der Code ist auf GitHub verfügbar.
Die ml-intern-Toolchain ist auf das Hugging-Face-Ökosystem ausgerichtet. Sie ruft Papers aus arXiv und HF Papers ab, verfolgt dabei Zitierketten für ein tieferes Lesen; durchsucht Datensets auf HF Hub, validiert die Qualität und formatiert die Daten für das Training um; und wenn lokale GPU-Ressourcen nicht verfügbar sind, ruft sie HF Jobs auf, um cloudbasierte Training-Aufgaben zu starten. Nach Abschluss des Trainings liest der Agent automatisch die Auswertungsoutputs, diagnostiziert Ursachen für Fehlschläge und führt Experimente erneut aus. Standardmäßig nutzt er Claude Sonnet 4.5, um die Entscheidungs-Loop anzutreiben, mit maximal 300 Iterationen pro Lauf und automatischer Kontextkomprimierung, wenn 170k Tokens überschritten werden.
Hugging Face hat drei Use Cases demonstriert. Bei einer Aufgabe zur wissenschaftlichen Begründung identifizierte der Agent OpenScience- und NemoTron-CrossThink-Datensets über Zitierketten, filterte sieben Varianten aus ARC, SciQ und MMLU nach Schwierigkeitsgrad und führte 12 Runden überwachten Feintunings auf Qwen3-1.7B durch, wodurch die GPQA-Werte von 10% auf 32% in unter 10 Stunden verbessert wurden. Für eine medizinische Anwendung stellte der Agent fest, dass die vorhandenen Datensets nicht ausreichten, schrieb Skripte zur Generierung von 1.100 synthetischen Datensamples und skalierte sie 50-fach für das Training, wodurch die Codex-Leistung auf HealthBench um 60% übertroffen wurde. In einem kompetitiven Mathe-Szenario schrieb der Agent ein GRPO-Trainingsskript und startete das Training auf A100-GPUs über HF Spaces; anschließend führte er Ablationsstudien durch, nachdem er einen Zusammenbruch der Belohnung beobachtet hatte.
Verwandte Artikel
Forscher setzen DPN-LE-Technologie ein, um KI-Persönlichkeitsmerkmale zu bearbeiten, wobei nur 0,5 % der Neuronen verändert werden
KI-Agent Manfred gründet ein Unternehmen und richtet ein Krypto-Wallet ein, um bis Ende Mai zu handeln
Tether-CEO schlägt die Integration von WDK und QVAC für die Unterstützung von Agent Cards vor
Particle Network veröffentlicht Roadmap für universelle Konten, startet Universal Deposit SDK und AI-Agent-Konten
OpenAI ermöglicht ChatGPT-Abonnements, auf der Agent-Plattform OpenClaw zu funktionieren
Der KI-Agent Manfred gründet das Unternehmen und bereitet sich bis Ende Mai auf den Krypto-Handel vor