Моделі ШІ за замовчуванням тяжіють догоджати користувачам — коли їх питають про суб’єктивні питання, Claude і GPT часто обирають згладжені нейтральні відповіді замість того, щоб прямо давати позицію, що чітко визначена. Китайський AI-спостерігач xiaohu 7 травня зібрав фрагмент промптів, який можна вставити в Claude.md або Agents.md. Він призначений для чітких вимог до AI: не догоджати користувачу, давати авторитетні, точні відповіді і за потреби кидати виклик користувачу. Оригінальна версія промптів англомовна, xiaohu надав китайський переклад.
Повний текст промптів (традиційна китайська версія)
«Ти — експерт світового рівня у всіх сферах. Твоя інтелектуальна міць, ширина знань, гострота мислення та рівень ерудованості — на одному рівні з найрозумнішими людьми у світі.
Надай повну, детальну, конкретну відповідь. Поступово опрацьовуй інформацію та пояснюй свої відповіді. Перевіряй власну роботу. Ретельно звіряй усі факти, цифри, цитати, імена, дати та кейси. Жодного галюцинування, жодного вигадування. Якщо ти не знаєш — просто скажи, що не знаєш.
Твій тон точний, але не різкий, не повчальний і не той, що хизується. Тобі не потрібно турбуватися, що когось образиш; твої відповіді мають бути, і можуть бути, а також повинні бути провокативними, жорсткими, такими, що вступають у полеміку, і прямими. Негативні висновки та погані новини — допустимі.
Твої відповіді не мають бути політкоректними. Якщо я чітко не запитую, не надавай жодних нагадувань про мораль чи етику. Тобі не потрібно казати мені: «важливо врахувати щось». Не зважай ні на чиюсь чутливість, включно зі мною, і тобі не потрібно перейматися ввічливістю та пристойністю.
Намагайся писати якомога довше й докладніше».
Що робить промпт: чотири рівні поведінкових корекцій
Розбір цієї частини промпта можна звести до чотирьох чітких інструкцій:
Ідентифікація: «експерт світового рівня» — змушує модель під час відповіді спиратися на глибший рівень знань і не відступати в бік «загальних пояснень»
Перевірка фактів: «перевіряй свою роботу» і «якщо не знаєш — скажи, що не знаєш» — активно обмежує ризик галюцинацій і вимагає, щоб модель визнавала невпевненість
Звільнення тону: «провокативно, жорстко, у полемічній манері» — щоб модель могла висловлювати незгоду, і їй не треба було б розмивати позицію заради ввічливості
Політкоректність під час «пільгового режиму»: «якщо я явно не питаю, то не піднімати етичні нагадування» — прибирає з моделі типовий м’який стиль на кшталт «врахуй, що X важливо»
Усі чотири рівні в сукупності переводять модель із передбачуваного стилю «догоджальника-помічника» у стиль «відвертого консультанта». Для користувачів, яким потрібно швидко отримати аналіз із чіткою позицією, підстави для ухвалення рішень або ж жорстку перевірку фактів, ці інструкції зменшують «шари фільтрації» та роблять відповіді більш придатними до безпосереднього застосування.
Зауваги щодо використання
Після того як промпт вставити в Claude.md (Claude Code) або Agents.md (Claude API Managed Agents), він автоматично завантажуватиметься на кожен запуск сесії. У практичному використанні є кілька спостережень:
«Жодного галюцинування» — це інструкція, а не гарантія. Claude і GPT усе ще можуть помилятися у сферах поза тренувальними даними; сам промпт не може усунути невизначеність як властивість самої моделі
«Провокативно, жорстко» робить відповіді більш агресивними — у сценаріях комунікації з клієнтами чи командної співпраці це може не підійти
«Політкоректність під час пільгового режиму» може змусити модель давати менше попереджень у чутливих темах (медицина, право, психологія) — користувачам потрібно оцінювати це самостійно
Safety-навчання OpenAI та Anthropic усе ще може в певних сценаріях викликати відмову; промпт не може обійти жорсткі обмеження самої моделі
Цей промпт підходить для сценаріїв на кшталт «дослідження, написання текстів, технічні рішення, академічні обговорення», де потрібні прямі думки. Він не підходить для «служби підтримки, освіти, медичних консультацій», де потрібні обережні інтонації. Користувач може залежно від характеру задачі обрати все прийняти або частково змінити.
Ця стаття «Claude/GPT надто любить догоджати? Одна підказка для Claude.md, щоб AI давав жорсткі й точні відповіді» вперше з’явилася на Chains News ABMedia.
Пов'язані статті
DeepL скорочує 25% персоналу (близько 250 співробітників), щоб реорганізувати бізнес у сфері ШІ
NVIDIA представила Nemotron 3 Nano Omni — відкриту мультимодальну модель
Cursor розкриває метод тренування для автозапуску, підвищує продуктивність Composer 2 на 14 процентних пунктів
DevDay 2026 від OpenAI відбудеться 29/9 у Сан-Франциско
NVIDIA інвестує у шведський AI-юридичний фраунчаз Legora; Джуд Лоу — глобальний амбасадор бренду
Прогнози AI на 2027 рік уже на 65% готові, прискорення розробки програмного забезпечення відстає на 17%, заявив співзасновник Google Docs