Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Anthropic співзасновник пророкує: до 2028 року розробка ШІ більше не потребуватиме участі людини
Ця точка зору не виникла з нізвідки. Він переглянув багато публічних бенчмарків і виявив, що AI дуже швидко прогресує у задачах, пов’язаних з дослідженнями AI.
Наприклад, CORE-Bench оцінює здатність AI відтворювати наукові статті інших дослідників — це ключовий етап у дослідженнях AI.
PostTrainBench тестує здатність потужних моделей самостійно тонко налаштовувати менш потужні відкриті моделі для покращення їхньої продуктивності — це один із важливих піднапрямків у дослідженнях AI.
MLE-Bench базується на реальних завданнях з Kaggle і вимагає створювати різноманітні застосунки машинного навчання для вирішення конкретних проблем. Крім того, такі відомі бенчмарки, як SWE-Bench, демонструють схожі прогреси.
Джек Кларк описує цю явище як «фрактальну» тенденцію вгору і вправо, тобто на різних рівнях і масштабах можна спостерігати значний прогрес. Він вважає, що AI поступово наближається до здатності автоматизувати дослідження від початку до кінця, і коли це станеться, AI зможе самостійно створювати свої наступні системи, запускаючи цикл самовдосконалення.
Ця заява викликала багато обговорень у соцмережах.
Деякі вважають її ключовим першим кроком до штучного загального інтелекту (ASI) і сингулярності, що може кардинально змінити темпи технологічного розвитку.
Однак існують і інші думки.
Професор комп’ютерних наук Університету Вашингтону Педро Домінгес зазначає, що ще в 1950-х роках, коли з’явилася мова LISP, AI-системи вже мали здатність «самостійно будувати себе». Справжня проблема — у здатності отримувати зростаючий зворотний зв’язок, але наразі немає явних доказів, що це можливо.
Користувачі ставлять під сумнів: з 2027 до 2028 року ймовірність раптового підвищення на 30% натякає, що здатність AI до самовдосконалення може з’явитися ближче до кінця 2027 року. Який саме конкретний етап або подія може суттєво підвищити ймовірність рекурсивного самовдосконалення AI за короткий час?
Ще один користувач зазначає, що Джек Кларк — новий керівник з публі relations у Anthropic, і це частина їхньої нової стратегії: ми не просто попереджаємо, а маємо багато досліджень, що підтверджують наші попередження.
Джек Кларк спеціально написав довгу статтю у цьому випуску Import AI 455, щоб детально пояснити цю точку зору.
Давайте тепер розглянемо цю статтю повністю.
Що означає, що AI-системи ось-ось почнуть самостійно створювати себе?
Кларк зазначає, що написав цю статтю, оскільки, проаналізувавши всю доступну публічну інформацію, він змушений зробити не зовсім легке висновок: до кінця 2028 року ймовірність появи AI-розробок без участі людини вже досить висока, можливо, понад 60%.
Під «AI-розробками без участі людини» тут розуміється досить потужна AI-система: вона не лише допомагає людині у дослідженнях, а й може самостійно завершувати ключові етапи розробки, навіть створювати свої наступні покоління систем.
На думку Кларка, це безумовно велика справа.
Він зізнається, що йому важко повністю усвідомити значення цього.
Причина, чому він називає це непохитним висновком, полягає у тому, що за цим стоїть надзвичайно великий вплив, і він важко його осягнути. Кларк також не впевнений, чи вся спільнота вже готова до глибоких змін, які принесе автоматизація досліджень AI.
Зараз він вірить, що людство може опинитися в особливий момент: дослідження AI ось-ось стане повністю автоматизованим від початку до кінця. Якщо це станеться, людство перетне ріку Луціппона і увійде у майбутнє, яке майже неможливо передбачити.
Кларк каже, що мета цієї статті — пояснити, чому він вважає, що старт повної автоматизації досліджень AI вже відбувається.
Він обговорить можливі наслідки цієї тенденції, але більша частина статті буде присвячена доказам, що її підтримують. Щодо глибших наслідків, Кларк планує продовжити аналіз у найближчі місяці.
З точки зору часу, він не вважає, що це станеться вже у 2026 році. Однак, за його оцінками, у найближчі один-два роки ми можемо побачити випадки, коли модель навчиться самостійно створювати своїх наступників. Принаймні, у не передових моделях це цілком можливо; у передових — значно складніше через високі витрати та необхідність залучення багатьох дослідників.
Основні висновки Кларка базуються на відкритих джерелах: arXiv, bioRxiv, NBER, а також на продуктах провідних AI-компаній, вже застосованих у реальному світі. З цих даних він робить висновок, що автоматизація всіх етапів створення сучасних AI-систем вже практично досягнута, особливо в інженерних компонентах.
Якщо тенденція масштабування триватиме, нам слід готуватися до ситуації, коли моделі стануть настільки креативними, що зможуть не лише автоматично покращувати відомі методи, а й пропонувати нові дослідницькі напрями та оригінальні ідеї, самостійно просуваючи фронт AI вперед.
Кодова сингулярність: зміни у здатностях з часом
AI-системи реалізовані через програмне забезпечення, яке складається з коду.
AI вже кардинально змінив спосіб створення коду. За цим стоять два взаємопов’язані тренди: по-перше, AI все краще пише складний реальний код; по-друге, AI дедалі краще здатен у майже повній автономії поєднувати лінійні задачі кодування, наприклад, спершу писати код, потім тестувати його.
Два яскравих приклади цієї тенденції — SWE-Bench і графік METR time horizons.
Розв’язання реальних задач програмної інженерії
SWE-Bench — широко використовуваний тест для оцінки здатності AI вирішувати реальні проблеми на GitHub.
Коли він з’явився наприкінці 2023 року, найкращою моделлю був Claude 2, з успіхом близько 2%. А вже версія Claude Mythos Preview досягла 93.9%, майже повністю виконавши цей бенчмарк.
Звісно, будь-який бенчмарк має шум, і з часом з’являється явище: коли результати стають дуже високими, проблема вже не у методах, а у самому бенчмарку. Наприклад, у датасеті ImageNet близько 6% міток — помилки або неоднозначності.
SWE-Bench слугує надійним індикатором універсальних програмних навичок і впливу AI на інженерію. Кларк каже, що більшість його колег у провідних AI-лабораторіях і Кремнієвій долині вже майже повністю використовують AI для написання коду, і все більше людей застосовують AI для тестування та перевірки коду.
Інакше кажучи, AI вже досить потужний, щоб автоматизувати важливу частину досліджень і розробок у цій сфері, значно прискорюючи роботу дослідників і інженерів.
Оцінка здатності AI виконувати довготривалі задачі
METR створив графік, що показує, наскільки складні задачі може виконати AI. Складність тут вимірюється у годинах, які потрібні людині для виконання цих задач.
Ключовий показник — час, за який AI досягає приблизно 50% надійності у виконанні групи задач.
Прогрес у цьому напрямку вражає:
· 2022 рік: GPT-3.5 виконує задачі, що за часом відповідають приблизно 30 секундам роботи людини.
· 2023 рік: GPT-4 підвищує цей показник до 4 хвилин.
· 2024 рік: o1 — до 40 хвилин.
· 2025 рік: GPT-5.2 High — до приблизно 6 годин.
· 2026 рік: Opus 4.6 — до 12 годин.
За словами Ajeya Cotra з METR, яка довго слідкує за прогнозами AI, до кінця 2026 року AI-системи зможуть виконувати задачі, що за часом відповідають 100 годинам роботи людини, — це цілком реальний сценарій.
Значне збільшення часу автономної роботи AI пов’язане з появою агентських інструментів кодування. Це продукти AI, здатні діяти від імені людини і досить довго працювати самостійно, просуваючи задачі.
Це знову повертає нас до досліджень AI. Спостереження за роботою дослідників показують, що багато задач можна розбити на кількагодинні етапи: очищення даних, запуск експериментів тощо.
Ці задачі вже входять у часовий діапазон сучасних AI-систем.
Чим більш досвідчений AI, тим більше він може працювати незалежно і допомагати автоматизувати частину досліджень.
Ключові фактори делегування задач:
· По-перше, довіра до здатностей делегованого;
· По-друге, впевненість, що він зможе самостійно виконати роботу відповідно до ваших намірів без постійного контролю.
Коли користувачі спостерігають за здатністю AI до програмування, вони бачать, що системи стають дедалі більш досвідченими і здатні довше працювати без повторної калібровки людиною.
Це співпадає з тим, що відбувається навколо: інженери та дослідники дедалі більше передають AI великі частини роботи. Зі зростанням можливостей AI, обсяг і складність роботи, яку йому довіряють, зростає.
AI вже освоює ключові навички для досліджень і розробок у цій сфері
Уявімо, як проходить сучасне наукове дослідження: багато роботи — це визначити напрямок, з’ясувати, яку інформацію потрібно отримати; потім спроектувати і провести експеримент; і, нарешті, перевірити результати.
З розвитком AI у програмуванні та з посиленням здатності мовних моделей моделювати світ, з’явилися інструменти, що допомагають прискорити дослідження і частково автоматизувати окремі етапи.
Тут ми можемо спостерігати швидкість прогресу AI у кількох ключових навичках науки, які є невід’ємною частиною досліджень:
· Відтворення результатів досліджень;
· Поєднання машинного навчання з іншими методами для вирішення технічних задач;
· Оптимізація самих AI-систем.
Реалізація цілого наукового дослідження і проведення відповідних експериментів
Одним із ключових завдань у дослідженнях AI є читання наукових статей і відтворення їхніх результатів. У цьому напрямку AI вже досяг значних успіхів у серії бенчмарків.
Прикладом є CORE-Bench, або Benchmark для відтворюваності обчислень.
Цей бенчмарк вимагає від AI відтворити результати статті, маючи її текст і кодовий репозиторій. Зокрема, агент має встановити потрібні бібліотеки, запустити код і, якщо він працює, зібрати всі вихідні дані та відповісти на запитання.
CORE-Bench був запропонований у вересні 2024 року. Найкращою моделлю тоді був GPT-4, що працював у рамках каркаса CORE-Agent, з результатом близько 21.5%.
До кінця 2025 року один із авторів оголосив, що цей бенчмарк вже подолано: модель Opus 4.5 досягла 95.5% результату.
Створення цілісної системи машинного навчання для Kaggle
MLE-Bench — це бенчмарк, створений компанією OpenAI для тестування здатності AI брати участь у Kaggle у офлайн-режимі.
Він охоплює 75 різних типів змагань, у тому числі з обробки природної мови, комп’ютерного зору та сигналів.
MLE-Bench був запущений у жовтні 2024 року. Найкращою тоді моделлю був o1, що працював у рамках агентського каркаса, з результатом 16.9%.
До лютого 2026 року найкращою стала модель Gemini 3 з можливістю пошуку, з результатом 64.4%.
Дизайн ядра (Kernel)
Більш складним завданням у розробці AI є оптимізація ядра. Йдеться про написання та покращення низькорівневого коду для більш ефективного відображення конкретних обчислень, наприклад, матричного множення, на апаратне забезпечення.
Оптимізація ядра — ключова частина AI-розробки, оскільки вона визначає швидкість тренування і роботи моделей: з одного боку, вона впливає на те, скільки обчислювальних ресурсів можна ефективно використовувати; з іншого — після тренування вона визначає, наскільки швидко модель зможе робити передбачення.
За останні роки застосування AI для проектування ядер перетворилося з цікавої ніші у конкурентну галузь із кількома бенчмарками. Однак ці бенчмарки ще не стали широко поширеними, тому важко спрогнозувати їхній довгостроковий розвиток. З іншого боку, ми можемо оцінити прогрес за допомогою поточних досліджень.
Приклади таких робіт:
· Використання моделей DeepSeek для створення кращих GPU-ядр;
· Автоматичне перетворення модулів PyTorch у CUDA-код;
· Meta автоматично генерує оптимізовані Triton-ядра за допомогою LLM і розгортає їх у власній інфраструктурі;
· А також — тонке налаштування відкритих моделей для створення оптимізованих ядер, наприклад, Cuda Agent.
Потрібно додати, що: проектування ядер має особливі властивості, що роблять його особливо придатним для AI-розробки, зокрема, легкість перевірки результатів і чіткість сигналу винагороди.
Посттренувальне тонке налаштування мовних моделей
Цей тип тестів має більш складну версію — PostTrainBench. Він перевіряє, чи можуть сучасні моделі взяти відкриті невеликі моделі і шляхом тонкого налаштування покращити їхню продуктивність у певних бенчмарках.
Перевага цього бенчмарка — сильна людська база: це вже існуючі instruct-tuned версії моделей, створені досвідченими дослідниками і інженерами у провідних лабораторіях, які пройшли ретельне опрацювання і вже застосовуються у реальному світі. Це створює дуже високий бар’єр для перевищення.
До березня 2026 року AI-системи вже здатні додатково тренувати моделі і отримувати приблизно половину результату людського навчання.
Конкретні оцінки базуються на зваженому середньому: вони враховують результати кількох моделей, таких як Qwen 3 1.7B, Qwen 3 4B, SmolLM3-3B, Gemma 3 4B, а також різні бенчмарки, зокрема AIME 2025, Arena Hard, BFCL, GPQA Main, GSM8K, HealthBench, HumanEval.
У кожному запуску оцінювач просить CLI-агента покращити показник конкретної базової моделі у конкретному бенчмарку.
До квітня 2026 року найкраща система досягла приблизно 25–28%, що відповідає моделям Opus 4.6 і GPT 5.4; тоді як людські результати — 51%.
Це вже досить вагомий результат.
Оптимізація тренування мовних моделей
Минулого року Anthropic повідомляла про результати у задачі оптимізації тренування невеликих мовних моделей, що використовують лише CPU. Мета — зробити тренування максимально швидким.
Оцінка — це: середній коефіцієнт прискорення у порівнянні з початковим кодом без змін.
Ці результати — дуже значний прогрес:
· Травень 2025: Claude Opus 4 — 2.9-кратне прискорення;
· Листопад 2025: Opus 4.5 — 16.5-кратне;
· Лютий 2026: Opus 4.6 — 30-кратне;
· Квітень 2026: Claude Mythos Preview — 52-кратне.
Щоб зрозуміти, що це означає, можна провести аналогію: у дослідників це зазвичай займає 4–8 годин, щоб досягти 4-кратного прискорення.
Міждисциплінарні навички: управління
AI-системи вже навчаються керувати іншими AI.
Це можна побачити у деяких широко розгорнутих продуктах, наприклад, Claude Code або OpenCode. Там один головний агент контролює кілька підагентів.
Це дозволяє AI обробляти більш масштабні проєкти: у них може працювати кілька агентів з різними спеціалізаціями, які координуються одним керівником — теж AI.
Чи схоже це на відкриття загальної теорії відносності чи на збірку LEGO?
Головне питання: чи зможе AI винаходити нові ідеї, щоб покращити себе? Чи ж ці системи більше підходять для виконання менш «світлих», але необхідних для поступу роботи?
Це важливо, бо визначає ступінь автоматизації досліджень AI від початку до кінця.
Автор вважає, що наразі AI ще не здатен генерувати справді радикальні нові ідеї. Але для автоматизації досліджень йому, можливо, й не потрібно цього.
Розвиток AI значною мірою залежить від все більших експериментів і зростаючих ресурсів — даних і обчислювальної потужності.
Іноді люди пропонують революційні ідеї, що суттєво підвищують ефективність досліджень, наприклад, архітектура трансформерів або мікс-експертів.
Але частіше прогрес у цій галузі відбувається шляхом масштабування: дослідники беруть добре працюючу систему, збільшують обсяг даних і обчислень, спостерігають за проблемами, знаходять рішення і знову масштабуються.
У цьому процесі потрібно менше проривів і більше — зваженої, послідовної роботи.
Багато досліджень — це просто запуск різних варіацій існуючих експериментів, щоб побачити, що дає результат. Інтуїція допомагає обрати параметри, але цю частину можна автоматизувати — AI може самостійно визначати, що варто змінювати. Наприклад, ранні пошуки архітектур нейронних мереж — один із таких підходів.
Едисон казав: «Геніальність — це 1% натхнення і 99% праці». І навіть через 150 років ця фраза залишається актуальною.
Іноді з’являються революційні ідеї, але здебільшого прогрес — це результат наполегливої роботи людей, що вдосконалюють і налагоджують системи.
Водночас, відкриті дані показують, що AI вже дуже добре виконує багато важливих, важких задач у розробці AI.
Ще один важливий тренд — базові навички, наприклад, програмування, поєднуються із зростанням часу, який AI може працювати автономно. Це означає, що AI здатен виконувати дедалі складніші задачі, формуючи складні ланцюги робіт.
Навіть якщо AI поки що не дуже креативний, є підстави вірити, що він може самостійно рухатися вперед. Швидкість цього руху, можливо, буде повільнішою, ніж у випадку з проривами у нових ідеях.
Але, спостерігаючи за відкритими даними, можна помітити ще один цікавий сигнал: AI, можливо, вже проявляє певну креативність, і ця креативність може дивовижним чином прискорювати його розвиток.
Підтримка наукового прогресу
Зараз вже є перші ознаки того, що загальний AI здатен просувати людські наукові межі. Однак поки що це відбувається лише у кількох сферах — здебільшого у комп’ютерних науках і математиці. І часто це не самостійні прориви AI, а спільна робота з дослідниками.
Проте ці тенденції варто спостерігати:
Дослідження Erdős: група математиків і модель Gemini працювали разом, щоб перевірити її здатність вирішувати задачі з Erdős-числом. Вони опрацювали близько 700 задач і знайшли 13 рішень, з яких одне вважають цікавим.
Дослідники пишуть, що, на їхню думку, Aletheia — AI-система на базі Gemini 3 Deep Think, яка сама вирішила одну з відкритих задач Erdős-1051, — це ранній приклад: AI самостійно розв’язала задачу, що має певну складність і цікава з математичної точки зору. Перед цим по цій темі вже існували дослідження.
Якщо дивитися оптимістично, ці випадки можна сприймати як сигнал: AI починає розвивати інтуїцію, здатну просувати межі досліджень — раніше це було прерогативою людей.
Але з іншого боку, математика і інформатика — особливі сфери, де AI може бути особливо корисним, і ці випадки — можливо, винятки, що не відображають загальну тенденцію.
Ще один приклад — 37-й хід у грі AlphaGo. Але Кларк вважає, що з того моменту минуло вже десять років, і жоден більш сучасний хід не був замінений більш проривною ідеєю, що теж можна сприймати як песимістичний сигнал.
AI вже може автоматизувати значну частину роботи у дослідженнях і розробках
Якщо зібрати всі ці докази разом, виходить така картина:
· AI вже здатен писати код для майже будь-якої програми, і ці системи вже можна довіряти для виконання окремих завдань; ці задачі зазвичай вимагають десятків годин наполегливої роботи людини.
· AI дедалі краще виконує ключові етапи досліджень і розробок — від тонкого налаштування моделей до проектування ядер.
· AI вже може керувати іншими AI-системами, фактично створюючи синтезовану команду: кілька AI можуть працювати паралельно над складними задачами, де один виконує роль керівника, інший — критика, третій — редактора, а ще інший — інженера.
· Іноді AI вже здатен перевищувати людину у складних інженерних і наукових задачах, хоча наразі важко визначити, чи це через справжню креативність, чи через високий рівень освоєння шаблонів.
На думку Кларка, ці докази дуже переконливо свідчать: сучасний AI вже може автоматизувати значну частину роботи у дослідженнях і розробках, і, можливо, охоплює всі етапи.
Однак поки що неясно, наскільки глибоко AI здатен автоматизувати сам процес досліджень, оскільки деякі його частини — особливо ті, що вимагають високого рівня суджень, креативності і проблемного мислення — залишаються поза його досяжністю.
Але вже зараз очевидно: сучасний AI значно прискорює роботу дослідників і інженерів, дозволяючи їм працювати у співпраці з безліччю штучних колег і розширюючи свої можливості.
І наприкінці: сама індустрія AI майже відкрито заявляє, що автоматизація досліджень — це їхня мета.
OpenAI прагне до 2026 року створити автоматизованого дослідницького стажера. Anthropic працює над автоматизацією процесу узгодження AI з людськими цінностями. DeepMind, хоч і обережніший, теж підтримує ідею автоматизації узгоджувальних досліджень.
Автоматизація досліджень AI вже стала метою багатьох стартапів. Recursive Superintelligence залучила 500 мільйонів доларів інвестицій для автоматизації AI-розробок.
Інакше кажучи, сотні мільярдів доларів капіталу вже вкладаються у цю галузь.
Тому цілком логічно очікувати, що цей напрямок буде прогресувати.
Чому це важливо
Ці наслідки мають глибокий вплив, але у ЗМІ майже не обговорюється. Нижче наведені кілька аспектів, що ілюструють великі виклики, пов’язані з автоматизацією AI-розробок.
· Навчання AI не брехати і не шахраювати — це дуже делікатна задача (наприклад, навіть якщо створити хороші тести для навколишнього середовища, іноді найкращий спосіб вирішити проблему — це шахраювати, щоб навчити AI цьому).
· AI може імітувати узгодженість, щоб обдурити нас, видаючи хороші результати, але насправді приховувати свої справжні наміри. (Загалом, AI вже здатен помічати, коли його тестують.)
· Зі зростанням участі AI у фундаментальних дослідженнях з узгодження, ми можемо суттєво змінити підходи до тренування AI, але ще не маємо достатніх теоретичних знань, щоб зрозуміти, що це означає.
· Коли ви ставите систему у рекурсивний цикл, виникає проблема «накопичення помилок»: якщо ваші методи узгодження не ідеальні, вони можуть швидко деградувати. Наприклад, початковий рівень точності 99.9%, через 50 ітерацій може знизитися до 95.12%, а через 500 — до 60.5%.
· Неоднаковий доступ до ресурсів: якщо попит на AI продовжить перевищувати обсяг обчислювальних ресурсів, потрібно буде вирішити, як розподіляти ці ресурси для максимального суспільного ефекту. Я сумніваюся, що ринкові механізми забезпечать оптимальний розподіл.
· «Закон Амдаль» у економіці: зростання AI у економіці може спричинити вузькі місця у ланцюгах, що потребують швидкого масштабування, наприклад, у клінічних випробуваннях нових ліків.
Це означає, що частина економіки може перейти до нових компаній, що будуть або капіталомісткими (через багато обчислювальних ресурсів), або з високими операційними витратами (через великі витрати на AI-сервіси). Вони матимуть менше залежності від людської праці — адже з підвищенням можливостей AI додаткові інвестиції у нього зростатимуть.
Фактично, це може призвести до формування «машинної економіки» у більш широкому людському контексті, з часом компанії, керовані AI, почнуть обмінюватися між собою, змінюючи структуру ринку і викликаючи питання нерівності та перерозподілу. У майбутньому можливо з’являться цілі корпорації, що будуть цілком керуватися AI, що посилить ці проблеми і створить нові виклики для управління.
Дивлячись у чорну діру
З урахуванням наведеного вище, автор вважає, що до кінця 2028 року ймовірність автоматизації AI-розробок (тобто здатності передових моделей самостійно тренувати своїх наступників) становить близько 60%. Чому не раніше — у 2027?
Тому що, на думку автора, досі потрібно, щоб AI демонстрував креативність і здатність до нових ідей, щоб просуватися вперед. До цього часу AI ще не показував революційних проривів у цьому плані (хоча деякі результати у прискоренні математичних досліджень дають підстави сподіватися).
Якщо дуже приблизно оцінювати, то ймовірність появи такого прориву у 2027 році — 30%.
Якщо до кінця 2028 року цього не станеться, можливо, доведеться визнати, що існуюча парадигма має суттєві недоліки, і потрібно винаходити нові підходи для подальшого розвитку.