Claude/GPT занадто люблять догоджати? Один уривок підказки для Claude.md, щоб ШІ видавав жорсткі й точні відповіді

Моделі ШІ за замовчуванням тяжіють догоджати користувачам — коли їх питають про суб’єктивні питання, Claude і GPT часто обирають згладжені нейтральні відповіді замість того, щоб прямо давати позицію, що чітко визначена. Китайський AI-спостерігач xiaohu 7 травня зібрав фрагмент промптів, який можна вставити в Claude.md або Agents.md. Він призначений для чітких вимог до AI: не догоджати користувачу, давати авторитетні, точні відповіді і за потреби кидати виклик користувачу. Оригінальна версія промптів англомовна, xiaohu надав китайський переклад.

Повний текст промптів (традиційна китайська версія)

«Ти — експерт світового рівня у всіх сферах. Твоя інтелектуальна міць, ширина знань, гострота мислення та рівень ерудованості — на одному рівні з найрозумнішими людьми у світі.

Надай повну, детальну, конкретну відповідь. Поступово опрацьовуй інформацію та пояснюй свої відповіді. Перевіряй власну роботу. Ретельно звіряй усі факти, цифри, цитати, імена, дати та кейси. Жодного галюцинування, жодного вигадування. Якщо ти не знаєш — просто скажи, що не знаєш.

Твій тон точний, але не різкий, не повчальний і не той, що хизується. Тобі не потрібно турбуватися, що когось образиш; твої відповіді мають бути, і можуть бути, а також повинні бути провокативними, жорсткими, такими, що вступають у полеміку, і прямими. Негативні висновки та погані новини — допустимі.

Твої відповіді не мають бути політкоректними. Якщо я чітко не запитую, не надавай жодних нагадувань про мораль чи етику. Тобі не потрібно казати мені: «важливо врахувати щось». Не зважай ні на чиюсь чутливість, включно зі мною, і тобі не потрібно перейматися ввічливістю та пристойністю.

Намагайся писати якомога довше й докладніше».

Що робить промпт: чотири рівні поведінкових корекцій

Розбір цієї частини промпта можна звести до чотирьох чітких інструкцій:

Ідентифікація: «експерт світового рівня» — змушує модель під час відповіді спиратися на глибший рівень знань і не відступати в бік «загальних пояснень»

Перевірка фактів: «перевіряй свою роботу» і «якщо не знаєш — скажи, що не знаєш» — активно обмежує ризик галюцинацій і вимагає, щоб модель визнавала невпевненість

Звільнення тону: «провокативно, жорстко, у полемічній манері» — щоб модель могла висловлювати незгоду, і їй не треба було б розмивати позицію заради ввічливості

Політкоректність під час «пільгового режиму»: «якщо я явно не питаю, то не піднімати етичні нагадування» — прибирає з моделі типовий м’який стиль на кшталт «врахуй, що X важливо»

Усі чотири рівні в сукупності переводять модель із передбачуваного стилю «догоджальника-помічника» у стиль «відвертого консультанта». Для користувачів, яким потрібно швидко отримати аналіз із чіткою позицією, підстави для ухвалення рішень або ж жорстку перевірку фактів, ці інструкції зменшують «шари фільтрації» та роблять відповіді більш придатними до безпосереднього застосування.

Зауваги щодо використання

Після того як промпт вставити в Claude.md (Claude Code) або Agents.md (Claude API Managed Agents), він автоматично завантажуватиметься на кожен запуск сесії. У практичному використанні є кілька спостережень:

«Жодного галюцинування» — це інструкція, а не гарантія. Claude і GPT усе ще можуть помилятися у сферах поза тренувальними даними; сам промпт не може усунути невизначеність як властивість самої моделі

«Провокативно, жорстко» робить відповіді більш агресивними — у сценаріях комунікації з клієнтами чи командної співпраці це може не підійти

«Політкоректність під час пільгового режиму» може змусити модель давати менше попереджень у чутливих темах (медицина, право, психологія) — користувачам потрібно оцінювати це самостійно

Safety-навчання OpenAI та Anthropic усе ще може в певних сценаріях викликати відмову; промпт не може обійти жорсткі обмеження самої моделі

Цей промпт підходить для сценаріїв на кшталт «дослідження, написання текстів, технічні рішення, академічні обговорення», де потрібні прямі думки. Він не підходить для «служби підтримки, освіти, медичних консультацій», де потрібні обережні інтонації. Користувач може залежно від характеру задачі обрати все прийняти або частково змінити.

Ця стаття «Claude/GPT надто любить догоджати? Одна підказка для Claude.md, щоб AI давав жорсткі й точні відповіді» вперше з’явилася на Chains News ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

DeepL скорочує 25% персоналу (близько 250 співробітників), щоб реорганізувати бізнес у сфері ШІ

За даними Bloomberg, сьогодні 7 травня компанія DeepL — постачальник перекладацьких інструментів — оголосила, що звільнить приблизно 25% своїх співробітників, тобто близько 250 працівників, щоб адаптуватися до структурних змін, спричинених штучним інтелектом. Генеральний директор Ярек Ку тило вський (Jarek Kutylowski) заявив у LinkedIn, що компанія скоротить менеджмент

GateNews24хв. тому

NVIDIA представила Nemotron 3 Nano Omni — відкриту мультимодальну модель

NVIDIA опублікувала відкритий вихідний код багатомодального моделі Nemotron 3 Nano Omni: вона об’єднує візуальне сприйняття, мовлення та мову в межах єдиної моделі як сенсорний шар для AI-агентів. Її ядро — 30B-A3B MoE, 256K context, 9x пропускної здатності. Модель підтримує вхідні дані у вигляді тексту, зображень, аудіо та відео тощо, а виходом є текст. У поєднанні з Nemotron 3 Super/Ultra вона застосовна для сценаріїв на кшталт керування комп’ютером, інтелекту з документами та розуміння аудіовізуального контенту; також оприлюднено ваги та навчальні дані, а розгортання охоплює локальні середовища, NIM і сторонні платформи.

ChainNewsAbmedia50хв. тому

Cursor розкриває метод тренування для автозапуску, підвищує продуктивність Composer 2 на 14 процентних пунктів

Згідно з недавнім розкриттям Cursor компанія представила навчальну техніку під назвою autoinstall для серії моделей Composer: використання попередньої версії моделі для автоматичного налаштування виконуваних середовищ для підкріпленого навчання наступного покоління. Під час навчання Composer 2, Cursor

GateNews53хв. тому

DevDay 2026 від OpenAI відбудеться 29/9 у Сан-Франциско

OpenAI оголосила, що DevDay 2026 відбудеться 29/9 у Сан-Франциско у форматі офлайн-івенту, а також буде проведено конкурс робіт, створених за допомогою GPT-5.5 та Image Gen. Codex щотижня автоматично відбиратиме 2–3 роботи; переможці отримають безкоштовні квитки та авіаперельоти і готелі між містами. Захід буде сфокусований на екосистемі GPT-5.5 та оцінюванні людино-машинної взаємодії; для участі потрібно бути старшим за 18 років і не бути працівником OpenAI чи їхнім найближчим родичем. Фокусом спостереження стануть нова модель, інтеграція агентів і мультихмарна стратегія.

ChainNewsAbmedia55хв. тому

NVIDIA інвестує у шведський AI-юридичний фраунчаз Legora; Джуд Лоу — глобальний амбасадор бренду

NVIDIA здійснила розширювальну інвестицію Series D у Legora на 50 млн доларів США, завдяки чому загальний обсяг залучених коштів Legora досяг 600 млн доларів США, а оцінка — 5,6 млрд доларів США; у раунді взяли участь Atlassian, Adams Street Partners і Insight Partners. Legora спеціалізується на AI-юридичних технологіях, надаючи інструменти для автоматизованої перевірки, аналізу контрактів і юридичних досліджень; ARR перевищує 100 млн доларів США, а кількість співробітників зросла з 40 до 400. Jude Law став глобальним послом бренду, а рекламний слоган — Law just got more attractive.

ChainNewsAbmedia1год тому

Прогнози AI на 2027 рік уже на 65% готові, прискорення розробки програмного забезпечення відстає на 17%, заявив співзасновник Google Docs

За словами Стівена Ньюмена, співзасновника Google Docs і голови Golden Gate Institute, ШІ уже виконав приблизно 65% кількісно оцінених прогнозів, викладених у сценарному прогнозі на 2027 рік, оприлюдненому минулого року. Втім, найкритичніший показник — прискорення ШІ власного програмного забезпечення

GateNews1год тому
Прокоментувати
0/400
Немає коментарів