По данным Reuters, SoftBank Group начала переговоры с Nvidia и Foxconn о строительстве AI-серверов в Японии. Японская телекоммуникационная и инвестиционная группа изучает партнерства для расширения бизнеса по развитию AI-инфраструктуры, планируя начать проектирование серверов и сборку компонентов к концу десятилетия.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
RLWRLD выпустила модель ИИ RLDX-1 для промышленных роботизированных рук
RLWRLD, стартап по робототехнике и ИИ, поддерживаемый LG Electronics, представил RLDX-1 — базовую модель, предназначенную для роботизированных кистей с пятью пальцами в промышленных применениях, сообщила RLWRLD. Компания опубликовала веса модели, код и техническую документацию на GitHub и Hugging Face.
Модель
CryptoFrontier19м назад
DeepMind AlphaEvolve междисциплинарные результаты: умножение матриц 4×4 обновило рекорд Страссена 1969 года, обучение Gemini ускорилось на 1%
Google DeepMind 7 мая (по американскому времени) опубликовала отчёт о междисциплинарных результатах AlphaEvolve. Официальный блог DeepMind подводит итоги конкретных достижений AlphaEvolve с момента запуска: найден метод умножения 4×4 комплексных матриц, который лучше алгоритма Strassen 1969 (48 умножений скаляров), совместно с математиками, включая Терренса Тао (Terence Tao), решены несколько математических трудных задач по Эрдёшу (Эрдős), сэкономлено 0,7% мировых вычислительных ресурсов для дата-центров Google, ключевое ускорение kernel при обучении Gemini увеличено на 23%, а общее время обучения Gemini сокращено на 1%.
Архитектура: Gemini Flash — широкомасштабный поиск + Gemini
ChainNewsAbmedia32м назад
OpenAI Codex запускает расширение для Chrome: можно тестировать Web App в браузере, получать Context между страницами, работать параллельно
OpenAI 7 мая (по американскому времени) опубликовала Chrome-расширение для Codex, позволяющее Codex-кодирующим агентам работать прямо в браузере Chrome на macOS и Windows. Официальная документация OpenAI по Codex поясняет, что расширение даёт Codex возможность тестировать web app, получать контекст на нескольких вкладках, использовать Chrome DevTools и выполнять другие задачи параллельно — при этом оно не перехватывает управление браузером пользователя. OpenAI также сообщила, что еженедельно активные пользователи Codex превысили 4 миллиона, что в 8 раз больше по сравнению с началом года.
Что можно делать внутри браузера: тестировать web app, получать контекст между вкладками, использовать DevTools
Chrome-расширение
ChainNewsAbmedia35м назад
OpenAI выпускает GPT-Realtime-2: переносит рассуждения GPT-5 в голосовых агентов, контекст увеличен до 128K
OpenAI 7 мая (по американскому времени) на конференции для разработчиков представила три новых Realtime-модели: GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper, все они доступны разработчикам через Realtime API. Официальное объявление OpenAI поясняет, что GPT-Realtime-2 — это первая в OpenAI модель, обладающая GPT-5
ChainNewsAbmedia36м назад
Полевое посещение китайских AI-лабораторий: исследователь раскрывает, что «пробелы в чипах и данных» — ключевая причина разницы между Китаем и США
Глубокое посещение нескольких AI-лабораторий в Китае Натан Ламберт отметил, что ключевое преимущество страны — в культуре, талантах и прагматичном настрое: исследования направлены в первую очередь на повышение качества моделей, студенты выступают ключевыми основными вкладчиками, а внутренние конфликты в организациях случаются реже из‑за конкуренции внутри команд; при этом есть пробелы в чипах, данных и креативности, а внешние вычислительные мощности ограничены контролем со стороны США, тогда как низкое качество данных подталкивает к созданию собственной тренировочной среды. Компании открывают исходный код, но сохраняют ключевые технологии для собственных точных доработок; если США ужесточат открытый экосистемный доступ, это может повлиять на глобальное лидерство.
ChainNewsAbmedia46м назад
a16z возглавляет раунд финансирования $16M для шведского AI-стартапа Pit
По данным Bloomberg, шведская AI-компания Pit привлекла 16 миллионов долларов в раунде финансирования под руководством Andreessen Horowitz при участии Lakestar и руководителей из крупных AI- и технологических компаний. В раунд также вошли семьи Стена и Лундин из Швеции. Pit уже обеспечила пилотные проекты с Voi,
GateNews50м назад