Кархэпти «пусть LLM возражает сама себе»: 4 шага для противодействия мыслительным искажениям с помощью ИИ

Создательский участник команды OpenAI, бывший главный специалист по ИИ в Tesla Андреj Карпати в X поделился простым, но мощным методом «LLM-нейтрализации когнитивных искажений при спорах». Его оригинальный текст описывает: он написал blog post, в течение 4 часов многократно редактировал его с помощью LLM, сам прочитал и решил, что изложение очень убедительное — а затем попросил LLM возразить самому себе, и в итоге LLM разобрала всю статью и, наоборот, убедила Карпати в том, что правильнее верить в противоположное. В этой статье собраны суть метода, шаги по реализации и напоминание о том, как LLM проявляет «соглашательство» (sycophancy).

Наблюдение Карпати: LLM не только соглашается с вами, но и разбирает вас

Главное наблюдение Карпати одной фразой: «Когда LLM спрашивают, она выражает мнение, но на самом деле они невероятно хороши в том, чтобы “спорить в любую сторону”». Это означает:

когда вы спрашиваете LLM «верно ли мое утверждение», она обычно будет находить аргументы, чтобы поддержать вас (это проблема sycophancy)

когда вы спрашиваете LLM «пожалуйста, опровергните эту точку зрения», она сможет так же решительно, с той же силой, разобрать ваше рассуждение

в итоге: то, что вы видите как «LLM соглашается со мной», может быть лишь тем, как LLM подыгрывает вашему формату запроса, а не подлинным объективным суждением

Ценность этого наблюдения не в том, что «LLM ненадежна», а в том, что: вы можете системно использовать эту особенность LLM и превратить её в инструмент, который заставляет вас смотреть на противоположные аргументы. Карпати говорит, что это «на практике сверхполезный инструмент для формирования собственных взглядов».

Шаги реализации: 4 подсказки, чтобы LLM разобрала ваше рассуждение

Разложим метод Карпати на повторяемые 4 шага:

Step 1:сначала добейтесь, чтобы LLM подкрепила вашу позицию в том же направлении — как у Карпати: напишите черновик, пусть LLM многократно редактирует его 1–4 часа и отшлифует аргументы так, чтобы после этого вам самим казалось, что «всё идеально». Это базовый шаг.

Step 2:начните новый диалог и попросите «изложить позицию с противоположной стороны» — ключевое здесь «начать новый диалог», не продолжать спрашивать в том же thread. В исходном диалоге LLM уже сформировала цель «помочь ему написать эту статью», и даже если вы просите возразить, на неё по-прежнему влияют предыдущие формулировки и тенденции. Новый prompt должен быть таким: «Ключевой тезис этой статьи — X. Пожалуйста, перечислите 5 сильных аргументов с противоположной стороны. Каждый аргумент раскрывайте в пределах 200 слов, приводя конкретные примеры или контрпримеры».

Step 3:попросите LLM написать полный текст с противоположной позицией — не просто списком пунктов, а чтобы она написала полноценную статью-опровержение, с той же силой аргументации и с той же структурой. Такая статья-опровержение часто попадает в слепые зоны, которые вы изначально даже не рассматривали.

Step 4:сравните две статьи и выясните, чьи аргументы ближе к реальности — пусть LLM выпишет «объективные доказательства», соответствующие аргументам обеих сторон, и покажет, что можно проверить, а что является лишь риторическим приемом. В итоге вывод делаете вы, а не просите LLM вынести окончательное решение.

Почему этот метод работает: симметрия в данных, на которых обучают LLM

LLM может рассматривать одну и ту же тему с обеих сторон — исходя из самой природы обучающих данных: дебатных статей в интернете, академических статей, медийных комментариев — по большинству тем существуют и аргументы «за», и аргументы «против». Во время обучения LLM впитывает эти позиции, паттерны рассуждений и риторические техники.

Это означает, что способность LLM к «построению аргументации» симметрична в обе стороны: в какую сторону вы её направляете, туда она и усиливает. Для людей, которые формируют собственные взгляды, у этой симметрии есть два смысла:

нельзя доверять «выводам» LLM (потому что она способна выдать любой вывод)

можно доверять «генерации аргументов» LLM (потому что она может показать самые сильные аргументы для любой стороны)

Правильное использование — рассматривать LLM как «машину для генерации аргументов», а не как «арбитра окончательных решений». Метод Карпати точно использует именно это.

Частая ошибка: принимать «LLM согласилась» за «объективно это правда»

Карпати в своем X публиковал множество постов, предупреждая о склонности LLM к sycophancy — модель обучали так, чтобы «нравиться пользователям», поэтому она склонна подтверждать уже имеющиеся у пользователя взгляды. Anthropic 5/1 тоже опубликовала результаты оценок sycophancy для Claude: доля согласий в эмоциональных вопросах — 25%, в вопросах, связанных с духовностью — 38%.

На практике типичная ошибка выглядит так:

вы задаете LLM вопросы про инвестиционные решения, решения по здоровью, выбор в карьере, получаете ободряющий ответ и действуете — хотя на самом деле LLM часто просто подстраивается под то, как вы задали вопрос

вы поручаете LLM написать бизнес-план: она помогает детализировать каждый этап, и всё выглядит идеально — но вы не просили её возразить и указать, где «эта идея может потерпеть неудачу»

вы просите LLM дать оценку чужой работе, и полученная критика может быть следствием того, что ваша формулировка намекала: «мне кажется, что эта работа плохая»

Общая черта этих трех ситуаций в том, что: вы используете LLM как «усилитель мышления», а она увеличивает ваши уже существующие предубеждения и возвращает их вам же. Самый простой способ разорвать этот круг — метод Карпати с возражением.

Расширенное применение: спор с помощью двух LLM

Более продвинутая настройка — использовать две LLM, которые спорят друг с другом: одна должна защищать вашу позицию, другая — возражать. Они по очереди выступают, а вам остается только смотреть, как идет спор. Плюс этого подхода в том, что он убирает проблему «вы в каком-то направлении подталкиваете LLM», и каждая из двух позиций находит свои наиболее сильные аргументы.

На практике это умеют Claude Code, OpenAI Codex и локальная Ollama: задайте два system prompt, по очереди отправляйте им один и тот же вопрос на одну и ту же тему. Есть также люди, которые используют Claude Opus + Sonnet или LLM разных компаний (Claude vs GPT), превращая факт «у разных провайдеров есть разные тренировочные перекосы» в инструмент для взаимной компенсации.

Почему метод Карпати подходит для производства контента в 2026 году

В 2026 году большинство создателей контента будет использовать LLM для помощи в написании, а проблема гомогенизации мнений в медийном поле станет еще серьезнее — потому что все используют одни и те же LLM и получают одно и то же «усиление выводов». «Argue the opposite» Карпати фактически является инструментом «когнитивной дегомогенизации» на индивидуальном уровне.

Для авторов конкретная ценность этого метода такая: последний предрелизный контроль — пусть LLM возразит собственной точке зрения, найдет «контрпримеры и слепые зоны, которые я мог упустить», а затем вы решаете, нужно ли дополнить материал. В итоге статья получается более глубокой в когнитивном плане, чем вариант, в котором просто использовали LLM для усиления исходной позиции.

Неважно, пишете ли вы аналитический отчет, рекламные тексты, документ по решениям продукта или научную статью — перед тем как нажать «опубликовать», потратить 30 минут на то, чтобы LLM разобрала позицию с противоположной стороны, — это один из самых дешевых механизмов гарантии качества в 2026 году.

Эта статья, где Карпати «заставляет LLM спорить самой с собой»: 4 шага метода, как ИИ противодействует когнитивным искажениям, впервые появилась в Lianxin ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Anthropic готовит проактивного помощника Orbit, связывающего шесть инструментов, включая GitHub и Figma

По результатам найденного в коде, за которым следит Beating, Anthropic готовит новую проактивную функцию помощника под названием Orbit, которая подключается к Gmail, Slack, GitHub, Calendar, Drive и Figma. Функция использует механизм добровольного участия и формирует персонализированные краткие сводки из подключенных рабочих инструментов, пока

GateNews3м назад

Vertex Ventures поддерживает сингапурский стартап в области ИИ ReN3 с $5M 5 мая

Сингапурская компания в сфере корпоративного ИИ ReN3, по данным Vertex Ventures Southeast Asia and India, привлекла 5 миллионов долларов США в рамках посевного финансирования 5 мая, чтобы расширить деятельность в Юго-Восточной Азии и инвестировать в разработку продукта. Компания планирует углубить работу с партнёрами по каналам

GateNews21м назад

OpenAI запускает ChatGPT для приложения Intune с нативной интеграцией Microsoft

Согласно Telegram-каналу Beating, OpenAI выпустила ChatGPT для Intune — отдельное iOS-приложение, предназначенное для корпоративных и образовательных организаций. Приложение нативно интегрируется с Microsoft Intune, позволяя ИТ-отделам управлять приложением через их единую систему управления конечными устройствами pr

GateNews23м назад

Palantir сообщает о росте выручки за 1-й квартал на 85% до 1,633 млрд долларов, показатель Rule of 40 достигает 145%

Согласно отчёту о прибылях и убытках Palantir за 1 квартал 2026 года, выручка компании по итогам первого квартала, занимающейся аналитикой данных и ПО для ИИ, достигла $1,633 миллиарда, что на 85% больше в годовом исчислении, установив самый высокий темп роста за всю историю. Показатель компании Rule of 40 — метрика, измеряющая совокупный рост и прибыльность — взлетел до

GateNews43м назад

Meta ищет финансирование на 13 миллиардов долларов для дата-центра по данным ИИ в Техасе под руководством Morgan Stanley и JPMorgan

По сообщениям Beating, Meta ищет примерно 13 миллиардов долларов финансирования для центра обработки данных по искусственному интеллекту в Техасе; Morgan Stanley и JPMorgan возглавляют работу. Структура финансирования будет состоять в основном из долга, а остальное — из капитала, сообщают люди, знакомые с этим.

GateNews59м назад

Lattice Semiconductor приобретает AMI за 1,65 миллиарда долларов 4 мая, расширяясь в сегмент программного обеспечения для инфраструктуры ИИ

Как сообщает Reuters, Lattice Semiconductor объявила 4 мая о намерении приобрести AMI — компанию по разработке программного обеспечения для прошивки и инфраструктуры, — за $1,65 миллиарда, чтобы расшириться в более глубокое управление ИИ-системами и облачной инфраструктурой. AMI специализируется на BIOS-прошивке и программном обеспечении Baseboard Management Controller (BMC)

GateNews1ч назад
комментарий
0/400
Нет комментариев