Колективне забруднення AI-движка для відповідей: у правильних відповідях Gemini 3 56% не мають підтримки з джерел

Згідно з глибоким аналітичним матеріалом автора Pedro Dias, опублікованим The Inference 21 квітня 2026 року, колапс моделей (model collapse) — це не «майбутня загроза», якої найбільше боїться індустрія. Він уже відбувається прямо зараз в іншій формі: AI-движки для відповідей у момент запиту користувача негайно цитують вебсторінки, згенеровані іншими AI, як авторитетні джерела. Увесь цикл забруднення не потребує повторного перенавчання моделей. Цей аргумент подано з основною метафорою: «змія, що кусає себе за хвіст (Ouroboros), навчилася посилатися на саму себе».

Ключові відмінності Model Collapse і Retrieval Contamination

Традиційні побоювання щодо погіршення якості AI-моделей зосереджені навколо model collapse: синтетичний контент поступово забруднює навчальні дані, а в наступних поколіннях моделей падає якість. Це ризик хронічний, який проявляється лише після багатьох раундів повторного тренування.

Попередження, яке висунув Pedro Dias, стосується іншого аспекту: retrieval contamination (забруднення через пошук/застосування). Персональні рушії відповідей на основі RAG (retrieval-augmented generation) — Perplexity, Google AI Overviews, ChatGPT, Grok тощо — під час постановки запитання користувачем у режимі реального часу витягують вміст вебсторінок як основу для відповіді. Якщо знайдена вебсторінка сама містить помилковий контент, згенерований AI, рушій подає його читачам як факт — і це забруднення не потребує жодного повторного перенавчання, щоб запрацювати миттєво.

Три реальні кейси: AI-платформи обманює вигадана інформація, яку вони ж і згенерували

Автор наводить три конкретні інциденти:

  1. Інцидент Lily Ray: Perplexity колись посилалася на нібито оновлення Google-алгоритму під назвою «September 2025 Perspective Core Algorithm Update» як на авторитетну інформацію — цього оновлення взагалі не існувало, а джерелом був AI-згенерований SEO-блог-псевдоматеріал.

  2. Тест Thomas Germain: журналіст Thomas Germain опублікував тестовий блог «найсильніший технологічний репортер про хот-доги», і менш ніж за 24 години його поставили на перше місце в Google AI Overviews та ChatGPT і процитували; також він вигадував неіснуючі «чемпіонати Південної Дакоти» як підтвердження.

  3. Grokipedia: біографічний/енциклопедичний проєкт xAI під керівництвом Musk уже згенерував або переробив 885,279 статей, включно з хибними фактами (наприклад, неправильно вказана дата смерті батька канадської співачки Feist) та посиланнями без підстав. Grokipedia в середині лютого 2026 року вже втратила більшість видимості в Google.

Дослідження Oumi: у Gemini 3 вища точність, але 56% без джерел

Оцінювання, замовлене NYT у Oumi: точність Gemini 2 у SimpleQA — 85%, тоді як Gemini 3 підвищила її до 91%. Але в тому самому тесті показано, що 56% правильних відповідей Gemini 3 є «ungrounded» — модель відповіла правильно, проте не має перевірюваної підтримки з підтверджувальних джерел; для Gemini 2 цей показник становить 37%.

Це означає, що нові покоління моделей «точніші за формою» у відповідях, але водночас «гірші щодо відстежуваності джерел» для відповіді. У сценаріях на кшталт медіа, досліджень, фактчекінгу цей провал є небезпечнішим, ніж просто рівень помилок, оскільки читачі не можуть повернутися до первинних авторитетних документів і самостійно перевірити.

Масштаби індустрії: Google AI Overviews охоплюють 2 мільярди користувачів

Масштаб цієї проблеми забруднення: щомісячна аудиторія Google AI Overviews перевищує 2 мільярди, обсяг пошуку Google — понад 5 трильйонів запитів, а тижнева аудиторія ChatGPT майже 0,9 мільярда (50 мільйонів платників). Тобто переважна більшість користувачів інтернету отримує фактологічну інформацію через ті канали, які вже пройшли рівень «движків відповідей», де можливе забруднення, породжене AI-згенерованим контентом.

Додаткове дослідження Ahrefs показує: серед джерел, які цитує ChatGPT, 44% — це спискові матеріали типу «best X». Саме ці статті є тим типом AI-контенту, який SEO-індустрія масово продукує, щоб протидіяти відтоку трафіку, спричиненому рушіям відповідей, і який якраз формує основне джерело забруднення для цих рушіїв.

Структурний висновок: шар цитувань від’єднаний від надійної ідентичності автора

Остаточний висновок автора: шар цитувань у AI-движках для відповідей уже від’єднаний від надійної ідентичності авторів. SEO-індустрія виробляє AI-контент → рушії відповідей підхоплюють його як факти → читачі вірять → SEO-індустрія отримує мотивацію продовжувати генерувати ще більше AI-контенту, утворюючи самопідсилювальний цикл забруднення. На сьогодні у всій індустрії немає чіткого механізму відповідальності, який би змушував AI-движок відповідати за якість джерел, на які він посилається.

Для користувачів це означає, що на цьому етапі не можна сприймати відповіді Perplexity, AI Overviews і ChatGPT як кінцевий пункт для фактчекінгу; усе ще потрібно вручну повертатися до офіційних первинних джерел, щоб гарантувати точність.

Ця стаття «Колективне забруднення AI-движками відповідей: 56% правильних відповідей Gemini 3 не мають підтримки джерел» вперше з’явилася в 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

R0AR виходить у фінальний раунд Consensus 2026 PitchFest, але з вузьким відривом не потрапляє до топ-20

За даними MetaversePost, R0AR 4 травня вийшов у фінальний раунд відбору CoinDesk Consensus 2026 PitchFest, лише трохи не потрапив до топ-20 стартапів, обраних для прямих презентацій. Інноватор у сфері Web3 та AI оцінювався разом із перспективними стартапами з усього світу на одному з майданчиків галузі

GateNews1год тому

Маск вимагає виплати $150 мільярдів як мирову угоду з OpenAI до судового розгляду; перемовини про врегулювання провалилися

Згідно з поданням до суду, Ілон Маск звернувся до президента OpenAI Грега Брокмана 26 квітня — за два дні до початку їхнього процесу в федеральному суді Окленда — щоб обговорити врегулювання. Коли Брокман запропонував, щоб обидві сторони відмовилися від своїх позовів, Маск відповів погрозами, сказавши Брокману: «До кінця

GateNews1год тому

Cursor прийняв пропозицію щодо придбання від SpaceX на 60 мільярдів доларів, але не буде партнеритися з xAI над моделями для кодування

За даними The Information, Cursor прийняв умовну пропозицію про придбання на суму 60 мільярдів доларів від SpaceX, хоча угоду ще не було остаточно завершено. Наразі компанія не планує співпрацювати з підрозділом SpaceX з AI xAI у розробці моделей для програмування. Натомість Cursor зосереджується на оптимізації його

GateNews2год тому

Haun Ventures закриває фонд на 1 мільярд доларів 4 травня, розподіляє капітал між ранніми та пізніми криптоінвестиціями

За даними Bloomberg, Haun Ventures завершила раунд залучення $1 мільярд 4 травня, при цьому $500 мільйонів було виділено на інвестиції на ранній стадії та $500 мільйонів — на пізніші інвестиції. Фонд спрямовуватиме капітал протягом наступних двох-трьох років, націлюючись на стартапи у сфері криптовалют і блокчейну, а також розширюватиме

GateNews2год тому

OpenAI збільшує $4 мільярда для запуску спільного підприємства з розгортання, оціненого в 10 мільярдів доларів

За даними BlockBeats, 4 травня OpenAI залучила понад $4 мільярда для створення нового спільного підприємства, зосередженого на допомозі компаніям впроваджувати її програмне забезпечення з штучного інтелекту. Підприємство під назвою The Deployment Company підтримують 19 інвесторів, зокрема TPG Inc., Brookfield Asset Management,

GateNews3год тому

Чому одні вважають, що ШІ змінить світ, а інші — що нічого особливого не станеться? Два діагнози від Карпаті

Кархарті вказав, що розрив у тому, як люди сприймають можливості ШІ, походить із двох діагнозів: 1) люди користувалися лише безплатними/старішими версіями моделей і не можуть відобразити реальну потужність найсучасніших агентних моделей; 2) зростання здібностей є помітним лише в дуже технічних сферах і має асиметричний характер. Це призводить до того, що платні користувачі та пересічні читачі бачать різні явища, через що виникає взаємне непорозуміння між паралельними світами. Урок для читачів на Тайвані полягає в тому, що лише практичне використання найсучасніших моделей для виконання виробничих завдань і перевірки підстав для висновків може допомогти уникнути того, щоб медіаміфи керували сприйняттям.

ChainNewsAbmedia3год тому
Прокоментувати
0/400
Немає коментарів