Борясь с трудностями, Microsoft недавно открыла исходный код семейств модели Phi-Ground, предназначенных для решения проблемы того, где именно ИИ должен кликать по экрану компьютера. Версия на 4 миллиарда параметров в паре с более крупными языковыми моделями для планирования инструкций превзошла по точности кликов OpenAI Operator и Claude Computer Use в бенчмарке Showdown и заняла первое место среди всех моделей с менее чем 100 миллиардами параметров по пяти оценкам, включая ScreenSpot-Pro.
Команда обучалась на более чем 40 миллионов наборах данных и выяснила, что три распространённые техники обучения из научных работ перестали работать эффективно при масштабировании. Ключевой подход оказался простым: выводить координаты как обычные числа, например «523, 417». Ранее исследования предлагали специализированные словари позиций для координат, но они не масштабировались. Также команда обнаружила, что размещение текстовых инструкций перед изображениями повышает качество, поскольку модели могли распознавать цели, обрабатывая пиксели. Кроме того, методы обучения с подкреплением, такие как DPO, улучшали точность даже после дообучения.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Режим кода от Anthropic: спор вокруг MCP vs CLI — инструменты удерживают runtime, а токены сжали с 150 тыс. до 2 тыс.
2025 年 весь год AI-инженерное сообщество бурно спорило о том, что лучше для вызова инструментов агентами — «MCP vs CLI». Опубликованная в ноябре 2025 года статья Anthropic «Code execution with MCP» переопределила проблему с точки зрения первых принципов. akshaypachaar 5/10 собрал thread и пояснил: дело никогда не в самом протоколе, а в старой привычке — на старте session пихать в context описание всех инструментов целиком; решение Anthropic заключается в том, чтобы модель писала код для вызова и
ChainNewsAbmedia54м назад
ByteDance планирует увеличить расходы на AI-инфраструктуру на 25% до 200 миллиардов юаней в этом году
Ссылаясь на Golden Data, ChainCatcher сообщает, что ByteDance планирует увеличить расходы на ИИ-инфраструктуру на 25% — до 200 миллиардов юаней в этом году — на фоне роста стоимости чипов памяти и ускорения развития искусственного интеллекта.
GateNews1ч назад
Предприятие AI-платформа Pit закрывает $16M раундов финансирования серии, лидером выступает a16z
Согласно Odaily, корпоративная платформа для ИИ Pit объявила о завершении раунда финансирования на 16 миллионов долларов, который возглавила a16z; в нём также участвовали Lakestar и руководители из OpenAI, Anthropic, Google, Deel и Revolut. Pit позиционирует себя как «AI product team as a service», предназначенную для замены традиционных таблиц и жёстких систем SaaS.
GateNews1ч назад
Google запускает набор на вакансии с помощью экзаменов, на которых инженерам разрешают использовать инструменты ИИ
По данным The Chosun Daily, Google проводит пилотный набор экзаменов при приёме на работу, которые позволяют кандидатам на должности в США для разработки ПО использовать инструменты ИИ в отобранных позициях начального и среднего уровня. В рамках эксперимента предусмотрены задания на понимание кода: соискатели рассматривают существующий код, исправляют ошибки и улучшают производительность. Интервьюеры будут оценивать, как кандидаты формулируют запросы к ИИ, проверяют его вывод, вносят правки и от
GateNews3ч назад
OpenAI прекращает API для тонкой настройки с немедленным вступлением в силу; существующие пользователи могут продолжать пользоваться им до 6 января 2027 года
Согласно официальному объявлению OpenAI, которое отслеживает Beating, компания прекращает для разработчиков свой самообслуживаемый API для fine-tuning (тонкой настройки) с немедленным вступлением в силу. Новые пользователи больше не могут создавать задачи fine-tuning, тогда как существующие активные пользователи могут пользоваться сервисом до 6 января 2027 года. Развернутые модели после fine-tuning будут привязаны к жизненному циклу своих базовых моделей и прекратят работу, когда базовая модель
GateNews4ч назад
Sakana AI и Nvidia добиваются на 30% более быстрого вывода на H100, пропуская 80% недействительных вычислений
Sakana AI и Nvidia открыли исходный код TwELL — разреженного формата данных, который позволяет GPU H100 пропускать 80% недопустимых вычислений в больших языковых моделях без потери точности. Решение обеспечивает до 30% более быстрый инференс и 24% более быстрое обучение на H100, одновременно снижая пиковое потребление памяти. В тестах на модели с 1,5 миллиарда параметров подход сократил число активных нейронов до менее 2% за счёт лёгкой регуляризации во время обучения, при этом не наблюдалось ух
GateNews5ч назад