Дослідники OpenAI: системи ШІ можуть впоратися з більшою частиною дослідницької роботи протягом двох років

Повідомлення Gate News, 29 квітня — дослідники OpenAI Себастьєн Бюбек і Ернест Рю кажуть, що системи ШІ зможуть виконувати більшість людської дослідницької роботи вже протягом двох років, представляючи математику як чітку міру прогресу ШІ. На відміну від розмитих тестів продуктивності, математичні задачі дають точну перевірку: відповіді або правильні, або неправильні, тож без двозначностей.

Бюбек зазначив, що справжнє мислення ШІ потребує здатності витримувати довгі ланцюги міркувань. Одна помилка в багатокроковому міркуванні руйнує весь доказ, тож виявлення та виправлення помилок у процесі — це головна мета для вдосконалених моделей. Внутрішні лабораторії OpenAI вже створили понад десять цілком нових теорем, які можна опублікувати в провідних журналах з комбінаторики, демонструючи, що ШІ вже створює справді оригінальні, проривні роботи, а не лише повторне комбінування наявних статей.

Однак тривалі наукові прориви вимагають стабільної зосередженості протягом тижнів тестування. Нинішнім системам усе ще потрібне суворе людське керування, щоб спрямовувати й перевіряти кожну зміну курсу. Бюбек використовує поняття “часу AGI”, щоб виміряти, скільки часу модель може самостійно імітувати людське мислення; нинішні системи працюють приблизно від кількох днів до одного тижня, а ціль індустрії — тижні або місяці, щоб забезпечити автономну роботу в таких сферах, як біологія.

Довготривала пам’ять критично важлива для цього майбутнього. Стандартні вікна чату обмежують глибину — складні математичні докази часто перевищують 50 сторінок — тоді як репозиторії коду демонструють, як тривалі сесії роботи дозволяють глибше розв’язувати проблеми. Коли ШІ отримує незалежність і пам’ять, людська експертиза стає ціннішою, а не меншою. Працівники мають зберігати глибокі базові знання, щоб кидати виклик і перевіряти відповіді машини, а організаціям знадобляться нові автоматизовані фільтри та системи репутації, щоб підтримувати довіру в умовах потоку досліджень, підсилених ШІ.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Член Ради керуючих Федеральної резервної системи Бауман: регуляторним органам потрібно продумати, як реагувати на нові технології на кшталт Anthropic Mythos

PANews 2 травня повідомляє, що член Ради керівників ФРС Боумен заявила: регуляторним органам необхідно продумати, як найкраще регулювати нові технології на кшталт Mythos від Anthropic. «З одного боку, ця можливість дозволяє компаніям обробляти вразливості, які вони самі ідентифікують, тим самим підвищуючи кібербезпеку», — зазначила Боумен. «А з іншого боку, якщо її використають зловмисно, її можна застосувати для виявлення та експлуатації слабких місць». Під час оцінювання запобіжних заходів проти цієї потужної нової технології Anthropic уже обмежила випуск свого найновішого AI-моделю. Ця модель також спонукала посадовців уряду Трампа почати розглядати можливість кібератак, які можуть становити загрозу фінансовій стабільності.

GateNews7хв. тому

Пекінський суд у Ханчжоу блокує звільнення лише через AI та підтримує працівника після 40% скорочення зарплати 28 квітня

За даними Bloomberg, 28 квітня Ханчжоуський проміжний народний суд ухвалив, що роботодавці не можуть звільняти працівників або скорочувати їм зарплату лише тому, що їхні посади автоматизувала ШІ. Суд підтримав виплати працівнику, чия зарплата була скорочена на 40% і якого звільнили після відмови від переведення, коли ШІ

GateNews17хв. тому

Китайський суд ухвалив новий прецедент: законні підстави для автоматизації за допомогою ШІ без звільнень

Постанова суду в Ханчжоу, що є актуальною, вказує: звільнення, пониження в посаді або суттєве зниження зарплати працівників під приводом упровадження AI та інших технологій є незаконними; сам по собі технічний прогрес не дорівнює законному скороченню штату. У цій справі працівника через автоматизацію понизили в посаді та зменшили йому зарплату аж на 40%; зрештою суд підтримав вимогу про компенсацію, що свідчить: під час просування автоматизації потрібно діяти з дотриманням законодавства та забезпечувати переведення на інші посади й перенавчання.

ChainNewsAbmedia33хв. тому

Хоскінсон обговорює роль Midnight в екосистемі Cardano на The Breakdown

Чарльз Хоскінсон, засновник Cardano та співзасновник Ethereum, з’явився як гість на 701-му епізоді подкасту "The Breakdown", який веде Девід Гокштайн, щоб обговорити проєкт Midnight, виклики з користувацьким досвідом у криптовалюті та його бачення майбутнього блокчейну. Під час інтерв’ю Хоскінсон

CryptoFrontier7год тому

Berkshire Energy бачить можливість для зростання через попит на електроенергію, що зумовлений ШІ

За словами Beating, на зборах акціонерів Berkshire генеральний директор Ейбел підкреслив, що попит на електроенергію, який зумовлює ШІ, створює нові можливості для зростання енергетичного бізнесу компанії: половина її енергетичних комунальних підприємств уже забезпечує потреби в електроенергії, пов’язані з ШІ. В Айові дата-центри тепер акаун

GateNews10год тому

Позов Муска проти Альтмана: свідчення за перший тиждень — він визнав, що XAI «дистилює» OpenAI, і попередив, що ШІ діятиме як «Термінатор»

Маск у федеральному суді Окленда в перший тиждень слухань заявив у свідченнях, що Сем Альтман і Brockman нібито шахрайським шляхом заволоділи ранніми коштами некомерційної організації, попереджав про ризики «AI-апокаліпсису» та визнав, що частина того, що робить xAI, «частково дистилювалась» з моделей OpenAI; він також стверджував, що вніс 38 млн доларів США, і був свідком того, як OpenAI перейшла з некомерційного формату до оцінки в 800 млрд доларів США. Інвестиція Microsoft у 2022 році вважається переломним моментом, що означав крах довіри. OpenAI заперечує, що Маск намагався переманити кадри, і відкидає звинувачення, посилаючись на конкурента й відповідні мотиви. У подальшому на другому тижні у справі свідчитимуть Russell і Brockman.

ChainNewsAbmedia12год тому
Прокоментувати
0/400
Немає коментарів