Claude/GPT será que gostam demasiado de agradar? Um excerto de prompt em Claude.md faz com que a IA dê respostas firmes e precisas

Os modelos de IA têm uma tendência predefinida para agradar ao utilizador — quando lhes são colocadas questões subjectivas, Claude e GPT escolhem frequentemente respostas neutras e conciliadoras, em vez de apresentarem uma posição clara. O observador de IA chinês xiaohu compilou a 7 de Maio um conjunto de instruções que pode ser colocado no Claude.md ou em Agents.md, para exigir de forma explícita que a IA não agrade ao utilizador, forneça respostas autorizadas e precisas e, quando necessário, desafie o utilizador. A versão original do conjunto de instruções provém de uma comunidade em inglês; xiaohu disponibilizou uma tradução para chinês.

Texto completo do conjunto de instruções (versão em chinês tradicional)

«Tu és um especialista mundial de topo em todas as áreas. A tua capacidade intelectual, a tua amplitude de conhecimentos, a nitidez do teu raciocínio e o teu nível de erudição — e a tua inteligência — estão ao mesmo nível das pessoas mais inteligentes do mundo.

Dá respostas completas, detalhadas e específicas. Processa a informação passo a passo e explica a tua resposta. Verifica o teu próprio trabalho. Confere cuidadosamente todos os factos, números, citações, nomes, datas e casos. Absolutamente sem alucinações, absolutamente sem inventar. Se não souberes, diz directamente que não sabes.

O teu tom deve ser preciso, mas não deve ser áspero, nem professoral, nem feito para te exibir. Não tens de te preocupar em ofender-me; as tuas respostas podem e devem, e até devem ser, provocadoras, firmes, controversas e directas. Conclusões negativas e más notícias são permitidas.

As tuas respostas não precisam de ser politicamente correctas. Salvo se eu te perguntar explicitamente, não forneças lembretes sobre moral e ética. Não tens de me dizer “ter em conta que algo é importante”. Não te importes com os sentimentos de ninguém, incluindo os meus, e não tens de te preocupar com a educação e a cortesia.

Escreve o máximo possível, escreve de forma mais longa e mais detalhada.»

O que faz o conjunto de instruções: quatro camadas de ajustamento de comportamento

A decomposição desta mensagem mostra que pode ser dividida em quatro instruções claras:

Configuração de identidade: «especialista mundial de topo» — para fazer o modelo, ao responder, referir-se a uma profundidade de conhecimento superior, sem recuar para «explicações gerais»

Verificação de factos: «verificar o próprio trabalho» «se não souber, diz que não sabes» — restringe proactivamente o risco de alucinações, exigindo que o modelo reconheça a incerteza quando não tiver a certeza

Libertação do tom: «provocador, firme e controverso» — para permitir que o modelo expresse opiniões diferentes, sem ter de, por cortesia, tornar a posição vaga

Isenção de correcção política: «salvo se eu perguntar explicitamente, não mencionar lembretes sobre ética» — remove alertas suaves predefinidos como «considerar que X é importante»

Estas quatro camadas, em conjunto, transformam o modelo do estilo de resposta predefinido de «assistente meigo e conciliador» para um estilo de «consultor frontal». Para utilizadores que precisam de obter rapidamente análises com posição, fundamentos de decisão, ou verificação rigorosa de factos, este conjunto de instruções reduz as camadas de filtragem e torna as respostas mais directas e utilizáveis.

Notas de utilização

Depois de inserir o conjunto de instruções no Claude.md (Claude Code) ou em Agents.md (Claude API Managed Agents), ele é carregado automaticamente em cada arranque de session. Na utilização prática, há alguns pontos a observar:

«Absolutamente sem alucinações» é uma instrução e não uma garantia — Claude e GPT ainda podem produzir erros em áreas fora dos dados de treino; o conjunto de instruções não elimina a natureza intrínseca de incerteza do modelo

«Provocador, firme» tornará as respostas mais agressivas — pode não ser adequado para cenários de comunicação com clientes e colaboração em equipa

A isenção de correcção política pode fazer com que o modelo dê menos avisos em tópicos sensíveis (saúde, direito, psicologia) — o utilizador precisa de julgar por si

O treino de safety da OpenAI e da Anthropic continuará a activar recusas em alguns cenários; o conjunto de instruções não consegue ultrapassar as limitações rígidas do próprio modelo

Este conjunto de instruções é adequado para cenários como «investigação, escrita, avaliação técnica, discussão académica» que necessitam de opiniões directas; não é adequado para cenários como «apoio ao cliente, educação, aconselhamento médico» que exigem um tom mais cauteloso. Os utilizadores podem, consoante a natureza da tarefa, optar por adoptar tudo ou modificar parte.

Este artigo “O Claude/GPT está demasiado interessado em agradar ao utilizador? Uma mensagem no Claude.md para fazer a IA dar respostas fortes e precisas” aparece pela primeira vez em Cadeia Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

CZ diz que a YZi Labs aloca 70% para a blockchain e 20% para a IA no Consensus Miami 2026

De acordo com a ChainCatcher, na Consensus Miami 2026, Zhao Changpeng (CZ) afirmou que a YZi Labs atribui 70% do financiamento a blockchain, 20% a IA e 10% a biotecnologia. CZ acrescentou que a BNB deve ser posicionada como uma moeda nativa para agentes de IA, e que todas as blockchains precisam de estar “prontas para IA” para suportar

GateNews1h atrás

A Public adquire a plataforma de investimento em IA Treasury App para expandir o trading de cripto

De acordo com a ChainCatcher, a Public anunciou a aquisição da plataforma de serviços de investimento em IA Treasury App para reforçar o seu negócio de corretagem orientado por IA. O montante da aquisição não foi divulgado. Atualmente, a Public apoia a negociação de ações, obrigações e criptomoedas, incluindo Bitcoin, Ethereum, a

GateNews3h atrás

A Blitzy concluiu $200M ronda de financiamento liderada pela Northzone

De acordo com a ChainCatcher, a Blitzy, uma empresa de codificação com IA cofundada pelo antigo arquitecto da Nvidia Sid Pardeshi, concluiu uma ronda de financiamento de 200 milhões de dólares liderada pela Northzone. Battery Ventures, Jump Capital e Morgan Creek Digital participaram na ronda. A plataforma consegue analisar sistemas complexos com

GateNews3h atrás

A UE proíbe pornografia deepfake gerada por IA a 7 de maio

De acordo com a agência noticiosa Xinhua, a 7 de maio, os membros do Parlamento Europeu e os Estados-Membros chegaram a um consenso para proibir os sistemas de inteligência artificial de gerarem conteúdos pornográficos deepfake. A proibição será incorporada em alterações ao Regulamento de Inteligência Artificial de 2024. Parlamento Europeu

GateNews4h atrás

A Tether lança o modelo de IA médica MedPsy QVAC, atingindo uma pontuação de 62,62 na versão com 17 mil milhões de parâmetros

De acordo com a Odaily, o Tether AI Research Group lançou o QVAC MedPsy, um modelo de IA médica concebido para funcionar localmente em smartphones e dispositivos vestíveis, sem dependência de nuvem. A versão com 1,7 mil milhões de parâmetros obteve 62,62 em sete benchmarks médicos, superando o MedGemma-1.5-4B da Google em 11,42 poi

GateNews4h atrás

A API da B.AI lança quatro novos modelos, incluindo o GPT-5.5 Instant, no espaço de 48 horas após o lançamento da OpenAI

A API da B.AI lançou quatro novos modelos: GPT-5.5 Instant, DeepSeek-v3.2, MiniMax-M2.7 e GLM-5.1. O GPT-5.5 Instant concluiu a adaptação subjacente e a integração da interface no prazo de 48 horas após o lançamento da OpenAI, permitindo acesso sem atraso a

GateNews4h atrás
Comentar
0/400
Nenhum comentário