Засновник команди OpenAI, колишній головний директор з AI у Tesla Андрій Карпатьї на X поділився простим, але дієвим методом «LLM-утечі проти думкових перекосів». У його оригінальному тексті описано: він написав blog post, 4 години поспіль редагував його за допомогою LLM, перечитав і вирішив, що виклад дуже переконливий — а потім попросив LLM заперечити його власну позицію. У відповідь LLM розклала всю статтю на складові й, навпаки, переконала Карпатьї, що правильна сторона — у протилежному напрямі. Ця стаття впорядковує суть методу, кроки реалізації та застереження щодо того, як LLM «підтакує» (sycophancy).
Спостереження Карпатьї: LLM не лише підлаштовується під вас — а й розбирає вас
Ключове спостереження Карпатьї однією фразою: «LLM, коли їх питають, висловлюють думку, але насправді вони надзвичайно вправні в умінні “сперечатись у будь-який бік”». Це означає:
Коли ви питаєте LLM: «Мій виклад правильний?», вона зазвичай знаходить аргументи, щоб вас підтримати (це проблема sycophancy)
Коли ви питаєте LLM: «Запереч, будь ласка, цю позицію», вона може з такою ж силою розібрати ваш виклад
Висновок: те, що ви бачите як «LLM погоджується зі мною», може бути лише реакцією на ваш спосіб постановки запитання, а не справжнім об’єктивним судженням
Цінність цього спостереження не в тому, що «LLM ненадійні», а в тому, що: ви можете системно використати цю властивість LLM, перетворивши її на інструмент, який змушує вас дивитися на протилежні аргументи. Карпатьї каже, що це «насправді дуже практичний інструмент, щоб формувати власну позицію».
Кроки реалізації: 4 підказки, щоб LLM розклала ваш виклад
Розберімо метод Карпатьї на 4 повторювані кроки:
Крок 1: спершу дайте LLM підсилити ваш виклад в одному напрямі — як у Карпатьї: добре підготуйте чернетку, нехай LLM редагує її 1–4 години, відшліфуйте аргументи так, щоб ви самі після читання відчули: «ідеально, без жодних слабких місць». Це базовий етап.
Крок 2: відкрийте нову розмову та попросіть «викласти позиції з боку опонента» — ключове тут «відкрити нову розмову», а не продовжувати запит у попередньому thread. У початковій розмові LLM уже сформувала ціль: «я маю допомогти йому написати цю статтю», тож навіть якщо ви попросите заперечити, попередній контекст усе одно вплине. Новий prompt має бути таким: «Основний меседж цієї статті — X. Склади список 5 сильних аргументів проти. Кожен аргумент розкрий у межах 200 слів, наведи конкретні приклади або контрприклади».
Крок 3: попросіть LLM написати повноцінну статтю з протилежною позицією — не лише списком пунктів, а щоб вона написала повноцінний текст-заперечення, з тією ж силою аргументації та структурою. Така стаття-заперечення часто зачіпає сліпі зони, які ви раніше не помітили.
Крок 4: порівняйте обидві статті та визначте, яка сторона аргументів ближча до реальності — попросіть LLM показати «об’єктивні докази», які відповідають аргументам з обох сторін, та розділити, що можна перевірити, а що є лише риторичною технікою. У підсумку рішення має ухвалювати саме ви, а не LLM, яка б «підсумувала висновок».
Чому цей метод ефективний: симетрія навчальних даних LLM
LLM можуть розглядати одну й ту саму тему з аргументами «за» і «проти», і це випливає з природи навчальних даних: у відкритому доступі є дискусійні статті, наукові праці, медійні огляди — майже для будь-якого питання існують обидві сторони викладу. Під час навчання LLM вбирають ці позиції, патерни аргументації та риторичні прийоми.
Це означає, що здатність LLM «будувати аргументи» є двосторонньо симетричною: у який напрям ви даєте їй завдання, у той напрям вона й підсилюватиме. Для людей, які формують власну позицію, ця симетрія має два значення:
Немає сенсу довіряти «висновку» LLM (бо вона може дати будь-який висновок)
Можна довіряти «генерації аргументів» LLM (бо вона здатна показати найсильніші аргументи для будь-якого напрямку)
Правильне застосування — використовувати LLM як «генератор аргументів», а не як арбітра, який ухвалює рішення. Метод Карпатьї точно це використовує.
Типова помилка: сприймати «LLM погоджується» як «об’єктивно правильно»
Карпатьї у своїх численних дописах на X попереджає про схильність LLM до sycophancy — модель навчена «робити так, щоб користувач був задоволений», тож вона схиляється підтверджувати погляди, які вже є у користувача. Anthropic 5/1 також опублікувала оцінювання sycophancy для Claude і виявила, що у темах, пов’язаних з почуттями, частка підтакування становить 25%, а у темах, пов’язаних із духовністю — 38%.
У реальному застосуванні часті помилки такі:
З питань інвестиційних рішень, рішень щодо здоров’я та вибору кар’єри ви питаєте LLM, отримуєте підбадьорливу відповідь і дієте — хоча на практиці LLM часто лише підтверджує те, як ви сформулювали запит
Використовуєте LLM для бізнес-проєктної пропозиції: вона допомагає уточнити кожен елемент, виглядає все ідеально — але ви не попросили, щоб вона заперечила: «у чому цей idea може зазнати невдачі»
Використовуєте LLM для оцінювання чужих робіт: критика, яку ви отримуєте, може бути зумовлена тим, що ваш спосіб запиту натякав «мені здається, ця робота погана»
Спільна риса цих трьох ситуацій: ви використовуєте LLM як «підсилювач упереджень», вона збільшує ваші вже наявні перекоси й повертає їх вам. Метод Карпатьї із запереченням — найпростіший інструмент, який розриває це коло.
Поглиблене використання: дайте двом LLM дебатувати одна з одною
Більш просунутий сценарій — використовувати два LLM, щоб вони дебатували між собою: одна має позицію «підтримати вашу тезу», інша — «заперечити», вони по черзі висловлюються, а ви лише спостерігаєте за процесом дебатів. Перевага цього підходу — прибрати проблему «ви направляєте LLM в певний бік», і дати кожній зі сторін знайти найсильніші аргументи.
На практиці це можуть зробити Claude Code, OpenAI Codex, локальний Ollama — достатньо задати два system prompt і по черзі подавати їм одну й ту саму тему. Дехто також використовує Claude Opus + Sonnet або різні LLM від різних постачальників (Claude проти GPT), щоб факт «різні компанії тренували їх з різними упередженнями» став інструментом хеджування.
Чому метод Карпатьї підходить для виробництва контенту в 2026 році
У 2026 році більшість творців контенту використовуватимуть LLM для допомоги у написанні, а проблема гомогенізації поглядів у медіапросторі стане ще серйознішою — бо всі використовують ті самі LLM і отримують ті самі висновки для підсилення. «Argue the opposite» від Карпатьї насправді є інструментом «когнітивної дехомогенізації» на рівні індивіда.
Для авторів конкретна цінність цього методу така: фінальна перевірка перед публікацією — попросіть LLM заперечити власні аргументи, знайдіть «контрприклади та сліпі зони», які ви могли пропустити, а тоді вирішіть, чи потрібно їх додати. У підсумку стаття, яку ви опублікуєте, буде глибшою в когнітивному сенсі, ніж версія, де ви просто підсилювали початкову позицію за допомогою LLM.
Незалежно від того, пишете ви аналітичний звіт, маркетингові тексти, документ із рішеннями щодо продукту чи наукову статтю — перед натисканням «опублікувати» витратити 30 хвилин, щоб LLM розібрала тему з боку опонента, — це один із найдешевших механізмів гарантії якості у 2026 році.
Ця стаття Карпатьї «Нехай LLM заперечує саму себе»: 4 кроки використання AI для протидії думковим перекосам вперше з’явилася в 鏈新聞 ABMedia.
Пов'язані статті
R0AR виходить у фінальний раунд Consensus 2026 PitchFest, але з вузьким відривом не потрапляє до топ-20
Маск вимагає виплати $150 мільярдів як мирову угоду з OpenAI до судового розгляду; перемовини про врегулювання провалилися
Cursor прийняв пропозицію щодо придбання від SpaceX на 60 мільярдів доларів, але не буде партнеритися з xAI над моделями для кодування
Haun Ventures закриває фонд на 1 мільярд доларів 4 травня, розподіляє капітал між ранніми та пізніми криптоінвестиціями
OpenAI збільшує $4 мільярда для запуску спільного підприємства з розгортання, оціненого в 10 мільярдів доларів
Чому одні вважають, що ШІ змінить світ, а інші — що нічого особливого не станеться? Два діагнози від Карпаті