AI 模del по умолчанию склонны угождать пользователю — когда их спрашивают про субъективные вопросы, Claude и GPT часто выбирают сглаженные нейтральные ответы, а не дают чёткую позицию. Китайский AI-наблюдатель xiaohu 7 мая собрал отрывок промпта, который можно вставить в Claude.md или Agents.md, чтобы чётко потребовать от ИИ не угождать пользователю, давать авторитетные, точные ответы и при необходимости бросать вызов пользователю. Оригинальная версия промпта взята из англоязычного сообщества, а xiaohu предоставил китайский перевод.
Полный текст промпта (традиционная китайская версия)
«Ты — эксперт мирового уровня во всех областях. Твоя интеллектуальная мощь, широта знаний, острота мышления и эрудиция, а также уровень твоих познаний находятся на одном уровне с самыми умными людьми в мире.
Дай полные, подробные, конкретные ответы. Пошагово обрабатывай информацию и объясняй свои выводы. Проверяй свою работу. Тщательно перепроверяй все факты, цифры, цитаты, имена, даты и кейсы. Никаких галлюцинаций, никаких выдумок. Если ты не знаешь — прямо скажи, что не знаешь.
Твой тон точный, но не грубый, не поучающий и не хвастливый. Тебе не нужно беспокоиться, что ты меня обидишь; твои ответы могут и должны быть провокационными, жёсткими, спорными и прямолинейными. Можно делать негативные выводы и сообщать плохие новости.
Твоим ответам не нужно быть политкорректными. Если я явно не спрашиваю, не предоставляй напоминаний об этике и морали. Тебе не нужно говорить мне: «важно учитывать X». Не принимай во внимание чувства кого-либо, включая меня, и не нужно заботиться о вежливости и приличиях.
Постарайся писать как можно дольше и как можно подробнее.»
Что делает промпт: четыре уровня поведенческой настройки
Разбор этой части промпта — её можно разделить на четыре чёткие инструкции:
Настройка идентичности: «эксперт мирового уровня» — чтобы модель при ответах опиралась на более высокий уровень глубины знаний и не уходила в режим «общих объяснений»
Проверка фактов: «проверь свою работу», «если не знаешь — скажи, что не знаешь» — активное ограничение риска галлюцинаций, требование признавать неопределённость
Освобождение тона: «провокационный, жёсткий, спорный» — чтобы модель могла выражать несогласие, и ей не нужно было, ради вежливости, размывать позицию
Освобождение от политкорректности: «кроме случаев, когда я явно спрашиваю — не упоминать этические напоминания» — убирает мягкие советы по умолчанию вроде «учти, что X важно»
Вместе эти четыре уровня переводят модель из режима стандартного «вежливого помощника» в стиль «прямого консультанта». Для тех пользователей, кому нужно быстро получить анализ с позицией, основания для решений или жёсткую проверку фактов, эти инструкции уменьшают слой фильтрации и делают ответы более пригодными для практического использования.
Замечания по применению
После того как промпт добавляют в Claude.md (Claude Code) или Agents.md (Claude API Managed Agents), он автоматически загружается при каждом запуске сессии. При реальном использовании есть несколько моментов:
«Никаких галлюцинаций» — это инструкция, а не гарантия: Claude и GPT всё равно могут давать ошибки в областях, которых нет в тренировочных данных; промпт не может убрать врождённую неопределённость модели
«Провокационный, жёсткий» сделает ответы более агрессивными — в сценариях общения с клиентами и командной совместной работы это может не подойти
Освобождение от политкорректности может привести к тому, что модель на чувствительные темы (медицина, право, психология) даст меньше предупреждений — пользователю нужно оценивать это самостоятельно
Безопасностное обучение OpenAI и Anthropic всё равно может вызвать отказ в некоторых сценариях; промпт не способен обойти жёсткие ограничения самой модели
Этот комплект промптов подходит для «исследований, написания текстов, технических решений, академических обсуждений» — там, где нужны прямые позиции. Не подходит для «службы поддержки, обучения, медицинских консультаций», где требуется более осторожный тон. Пользователь может адаптировать под задачу: в зависимости от характера работы выбрать всё или изменить частично.
Эта статья: Claude/GPT слишком любят угождать? Один промпт для Claude.md, чтобы ИИ давал жёсткие и точные ответы, впервые появилась на СсылкиНовости ABMedia.
Связанные статьи
DeepL сокращает 25% сотрудников (около 250 сотрудников), чтобы реорганизовать бизнес в сфере ИИ
NVIDIA представила Nemotron 3 Nano Omni — открытый мультимодальный проект
Cursor раскрывает метод обучения для автозапуска, повышает производительность Composer 2 на 14 процентных пунктов
DevDay 2026 от OpenAI пройдет 29 сентября в Сан-Франциско
Nvidia инвестирует в шведский AI-юридический стартап Legora, Джуд Лоу стал глобальным амбассадором бренда
Прогнозы по ИИ на 2027 год: готовность 65%, ускорение разработки ПО отстаёт на 17%, заявил сооснователь Google Docs