Згідно з OpenAI, компанія 8 травня змінила стандартну модель ChatGPT на GPT-5.5 Instant. У внутрішніх тестах модель створювала на 52,5% менше галюцинованих тверджень, ніж GPT-5.3 Instant, у запитах із високими ставками, водночас зменшуючи кількість неточних тверджень на 37,3% у розмовах, які користувачі позначили через фактичні помилки. Оновлення також покращило аналіз зображень, роботу з питаннями з STEM і ухвалення рішень під час вебпошуку.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
RLWRLD випускає AI-модель RLDX-1 для промислових роботизованих рук
RLWRLD, стартап з робототехнічного ШІ, підтриманий LG Electronics, представив RLDX-1 — базову модель, розроблену для роботизованих рук із п’ятьма пальцями в промислових застосуваннях, повідомляє RLWRLD. Компанія опублікувала ваги моделі, код і технічну документацію на GitHub та Hugging Face.
Model
CryptoFrontier20хв. тому
DeepMind AlphaEvolve міждисциплінарні досягнення: 4×4 матричне множення оновило рекорд Strassen 1969, тренування Gemini прискорилося на 1%
Google DeepMind 7 травня (за американським часом) опублікувала звіт про міждисциплінарні результати AlphaEvolve. Офіційний блог DeepMind підсумував конкретний прогрес AlphaEvolve з моменту запуску: розроблено спосіб множення 4×4 комплексних матриць, який є кращим за алгоритм Strassen 1969 (48 разів чистого скалярного множення), разом із такими математиками, як Теренс Тао (Terence Tao), вирішено кілька складних математичних задач Ерде̇ша (Erdős), для дата-центрів Google зекономлено 0,7% глобальних обчислювальних ресурсів, швидкість ключового kernel, на якому тренували Gemini, підвищено на 23%, а загальний час навчання Gemini зменшено на 1%.
Архітектура: Gemini Flash — широкий пошук + Gemini
ChainNewsAbmedia32хв. тому
OpenAI Codex запускає розширення для Chrome: можна тестувати Web App у браузері, отримувати контекст між сторінками, працювати паралельно
OpenAI 7 травня (за американським часом) оприлюднила розширення Codex для Chrome, яке дозволяє Codex-проєктам з кодування (coding Agent) напряму працювати всередині браузера Chrome на macOS і Windows. Офіційна документація OpenAI для Codex пояснює, що розширення дає змогу Codex тестувати web app без перехоплення браузера користувача, отримувати контекст на кількох вкладках, використовувати Chrome DevTools і виконувати інші роботи паралельно. OpenAI також повідомила, що Codex має понад 4,0 млн щотижневих активних користувачів, що у 8 разів більше, ніж на початку року.
Що можна робити в браузері: тестувати web app, отримувати контекст між сторінками, використовувати DevTools
Розширення Chrome
ChainNewsAbmedia35хв. тому
OpenAI випускає GPT-Realtime-2: інтегрує міркування GPT-5 у голосових агентів, а context збільшує до 128K
OpenAI 7 травня (за американським часом) на конференції для розробників оголосила про три нові Realtime-мовні моделі: GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper — усі вони доступні розробникам через Realtime API. Офіційне оголошення OpenAI пояснює, що GPT-Realtime-2 є першою в OpenAI моделлю, яка має GPT-5
ChainNewsAbmedia37хв. тому
Практичний візит до китайських AI-лабораторій: дослідники розкрили «прогалини в чіпах і даних» як ключову причину розриву між Китаєм і США
Під час глибокого відвідування кількох AI-лабораторій у Китаї Натан Ламберт зазначив, що ключова перевага Китаю полягає в культурі, кадрах і прагматичному мисленні: пріоритетом у дослідженнях є підвищення якості моделей, а студенти стають ключовими основними авторами внесків, тоді як внутрішня конкуренція та роздор відбуваються рідше, ніж співпраця в командах; однак існують прогалини в чипах, даних і креативності. Зовнішні обчислювальні потужності обмежені регуляціями США, а через низьку якість даних компанії змушені будувати власні середовища для навчання. Компанії відкривають код, але зберігають ключові технології, щоб робити власне мікроадаптування. Якщо США посилять контроль над відкритою екосистемою, це може вплинути на глобальне лідерство.
ChainNewsAbmedia46хв. тому