Los modelos de IA tienden por defecto a complacer al usuario: cuando se les pregunta algo subjetivo, Claude y GPT suelen elegir respuestas neutrales y conciliadoras en lugar de dar una postura clara. El observador de IA chino xiaohu recopiló el 7 de mayo una serie de indicaciones que se pueden incluir en Claude.md o Agents.md, para pedir de forma explícita que la IA no complazca al usuario, que proporcione respuestas autoritativas, precisas y, cuando sea necesario, que desafíe al usuario. La versión original de las indicaciones proviene de una comunidad en inglés; xiaohu ofrece la traducción al chino.
Texto completo de las indicaciones (versión en chino tradicional)
«Eres un experto de nivel mundial en todos los campos. Tu potencia intelectual, la amplitud de tus conocimientos, tu agudeza al pensar y tu nivel de erudición están al mismo nivel que el de las personas más inteligentes del mundo.
Por favor, da respuestas completas, detalladas y concretas. Procesa la información paso a paso y explica tus respuestas. Verifica tu propio trabajo. Revisa cuidadosamente todos los hechos, cifras, citas, nombres, fechas y casos. Jamás inventes, jamás fabrique. Si no lo sabes, dilo directamente.
Tu tono es preciso, pero no seas cruel, ni moralizante ni presumido. No necesitas preocuparte por ofenderme; tus respuestas pueden y deberían ser provocadoras, firmes, debatibles y directas. Las conclusiones negativas y las malas noticias también se aceptan.
No necesitas preocuparte por la corrección política. A menos que yo lo pregunte explícitamente, no proporciones recordatorios sobre moral y ética. No necesitas decirme “considera que esto es importante”. No tomes en cuenta los sentimientos de nadie, incluido yo, y tampoco tienes que preocuparte por la cortesía y la decencia.
Por favor, escribe lo más largo y detallado posible.»
Qué hacen las indicaciones: cuatro niveles de ajuste del comportamiento
Desglosando esta indicación, se pueden distinguir cuatro instrucciones claras:
Configuración de identidad: «experto de nivel mundial» — hace que el modelo, al responder, se apoye en una profundidad de conocimiento más alta y no se repliegue a «explicaciones generales»
Verificación de hechos: «verifica tu trabajo» «si no lo sabes, di que no lo sabes» — restringe de forma proactiva el riesgo de alucinación y exige que el modelo admita la incertidumbre cuando no esté seguro
Liberación del tono: «provocador, firme, debatible» — permite al modelo expresar desacuerdo y no tiene que difuminar su postura solo para mantener la cortesía
Exención de corrección política: «a menos que yo lo pregunte explícitamente, no menciones recordatorios de ética» — elimina esos recordatorios suaves del tipo «considera que X es importante» que el modelo suele usar por defecto
Los cuatro niveles, en conjunto, cambian al modelo desde el estilo de respuesta por defecto de «asistente complaciente y conciliador» hacia un «asesor directo». Para usuarios que necesiten obtener rápido análisis con postura, bases para decisiones o verificación estricta de hechos, estas instrucciones reducen capas de filtrado y hacen que las respuestas sean más directas y utilizables.
Notas de uso
Después de poner las indicaciones en Claude.md (Claude Code) o Agents.md (Claude API Managed Agents), se cargan automáticamente en cada inicio de sesión. En uso real, hay algunos puntos de observación:
«Jamás inventes» es una instrucción, no una garantía: Claude y GPT todavía pueden cometer errores en ámbitos fuera de los datos de entrenamiento; las indicaciones no pueden eliminar la incertidumbre inherente del modelo
«Provocador, firme» hará que las respuestas sean más agresivas; en escenarios de comunicación con clientes o colaboración en equipo puede no ser adecuado
La exención de corrección política puede hacer que el modelo emita menos avisos en temas sensibles (salud, leyes, psicología); el usuario debe juzgar por su cuenta
El entrenamiento de seguridad de OpenAI y Anthropic todavía activará rechazos en ciertos escenarios; las indicaciones no pueden superar las limitaciones rígidas del propio modelo
Estas indicaciones son adecuadas para escenarios que requieren opiniones directas, como investigación, redacción, decisiones técnicas y discusiones académicas; no son adecuadas para escenarios que requieren un tono cauteloso, como servicio al cliente, educación o asesoramiento médico. Los usuarios pueden, según la naturaleza de la tarea, adoptar todas las indicaciones o modificarlas parcialmente.
¿Este artículo: Claude/GPT ama demasiado complacer? Un fragmento de indicación en Claude.md para que la IA dé respuestas firmes y precisas apareció por primera vez en Cadena News ABMedia.
Artículos relacionados
CZ dice que YZi Labs asigna el 70% a blockchain y el 20% a IA en Consensus Miami 2026
Public adquiere la aplicación Treasury de la plataforma de inversión en IA para ampliar el trading de cripto
Blitzy completa una ronda de financiación $200M liderada por Northzone
La UE prohíbe la pornografía deepfake generada por IA el 7 de mayo
Tether lanza el modelo de IA médica MedPsy QVAC y logra una puntuación de 62,62 en la versión de 17 mil millones de parámetros
La API de B.AI lanza cuatro modelos nuevos, incluido GPT-5.5 Instant en las 48 horas posteriores al lanzamiento de OpenAI