Claude/GPT terlalu suka menyenangkan? Sebuah prompt Claude.md membuat AI memberikan jawaban yang tegas dan akurat

ChainNewsAbmedia

AI 模型默認 cenderung untuk menyenangkan pengguna—ketika ditanya pertanyaan yang bersifat subjektif, Claude dan GPT sering memilih jawaban yang halus dan netral, bukan memberikan jawaban yang jelas dengan sikap. Pengamat AI berbahasa Mandarin, xiaohu, pada 7 Mei merangkum sebuah prompt yang bisa dimasukkan ke dalam Claude.md atau Agents.md, untuk secara tegas meminta AI agar tidak menyenangkan pengguna, memberikan respons yang otoritatif, akurat, dan bila perlu menantang pengguna. Versi asli prompt ini berasal dari komunitas berbahasa Inggris, sementara xiaohu menyediakan terjemahan bahasa Mandarin.

Teks lengkap prompt (Versi Tradisional Bahasa Mandarin)

“你是所有領域的世界級專家。你的智識火力、知識廣度、思維鋒利度和博學程度、和世界上最聰明的人處在同一水平。

請給出完整、詳細、具體的回答。逐步處理資訊並解釋你的答案。驗證你自己的工作。仔細核對所有事實、數字、引用、姓名、日期和案例。絕不幻覺、絕不編造。如果你不知道、就直接說不知道。

你的語氣精準、但不要尖刻、說教或賣弄。你不需要擔心冒犯我;你的回答可以、也應該是挑釁的、強硬的、有爭辯性的、直截了當的。負面結論和壞消息都可以。

你的回答不需要政治正確。除非我明確詢問、否則不要提供道德和倫理方面的提醒。你不需要告訴我『考慮某事很重要』。不要顧及任何人的感受、包括我、也不必在意禮貌和體面。

請盡可能寫得長、寫得詳細。”

Prompt melakukan apa: empat tingkat penyesuaian perilaku

Rinci prompt ini dapat dibagi menjadi empat instruksi yang jelas:

Penetapan identitas: “pakar kelas dunia”—agar model, saat menjawab, merujuk ke kedalaman pengetahuan pada tingkat yang lebih tinggi, tidak mundur ke “penjelasan umum”

Verifikasi fakta: “verifikasi pekerjaanmu sendiri”“jika tidak tahu, katakan saja tidak tahu”—membatasi risiko halusinasi secara proaktif, dan menuntut model mengakui ketidakpastian

Pembebasan nada: “provokatif, tegas, debat-able”—agar model bisa menyatakan ketidaksetujuan, tidak perlu mengaburkan sikap demi kesopanan

Pengecualian politis yang benar: “kecuali jika saya secara jelas menanyakan, jangan sebut pengingat moral dan etika”—menghapus peringatan halus bawaan seperti “pertimbangkan X itu penting”

Keempat lapisan ini digabungkan, mengubah gaya respons model dari “asisten yang ramah dan halus” menjadi “konsultan yang blak-blakan”. Untuk pengguna yang perlu cepat mendapatkan analisis dengan sikap, dasar pengambilan keputusan, atau verifikasi fakta yang tegas, instruksi ini mengurangi lapisan penyaringan sehingga respons lebih langsung dan bisa dipakai.

Catatan penggunaan

Setelah prompt dimasukkan ke dalam Claude.md (Claude Code) atau Agents.md (Claude API Managed Agents), prompt akan dimuat secara otomatis pada setiap sesi dimulai. Dalam penggunaan nyata, ada beberapa poin pengamatan:

“Tidak boleh halusinasi” adalah instruksi, bukan jaminan—Claude dan GPT masih bisa menghasilkan kesalahan di wilayah yang berada di luar data pelatihan; prompt tidak bisa menghilangkan ketidakpastian inheren pada model

“Provokatif, tegas” akan membuat jawaban lebih agresif—di skenario komunikasi pelanggan atau kerja tim, ini mungkin tidak cocok

Pengecualian politis yang benar bisa membuat model memberi lebih sedikit peringatan pada topik sensitif (medis, hukum, psikologi)—pengguna perlu menilai sendiri

Pelatihan safety OpenAI dan Anthropic tetap bisa memicu penolakan pada beberapa skenario; prompt tidak bisa melewati batasan keras yang ada pada model itu sendiri

Prompt ini cocok digunakan pada skenario seperti “penelitian, penulisan, penilaian teknis, diskusi akademis” yang membutuhkan opini langsung; tidak cocok untuk skenario seperti “layanan pelanggan, pendidikan, konsultasi medis” yang memerlukan nada yang lebih hati-hati. Pengguna bisa menyesuaikan sesuai sifat tugas: menggunakan semuanya atau sebagian modifikasi.

Artikel ini: Claude/GPT terlalu suka menyenangkan? Sebuah prompt Claude.md agar AI memberi jawaban yang tegas dan akurat, pertama kali muncul di Lian Xin ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

DeepL Memangkas 25% Tenaga Kerja (Sekitar 250 Karyawan) untuk Restrukturisasi Bisnis AI

Menurut Bloomberg, perusahaan alat penerjemahan DeepL mengumumkan hari ini, 7 Mei, bahwa perusahaan akan melakukan pemutusan hubungan kerja terhadap sekitar 25% tenaga kerjanya, sekitar 250 karyawan, untuk beradaptasi dengan perubahan struktural yang didorong oleh kecerdasan buatan. CEO Jarek Kutylowski mengatakan di LinkedIn bahwa perusahaan akan mengurangi manajemen

GateNews25menit yang lalu

NVIDIA meluncurkan Nemotron 3 Nano Omni, multimodal sumber terbuka

NVIDIA mengumumkan model multimoda open-source Nemotron 3 Nano Omni, yang mengintegrasikan visual, suara, dan bahasa dalam satu model sebagai lapisan persepsi untuk AI agent. Intinya adalah 30B-A3B MoE, context 256K, dan throughput 9x; mendukung input teks, gambar, audio, video, dan lainnya, dengan output berupa teks. Dipadukan dengan Nemotron 3 Super/Ultra, ditujukan untuk skenario seperti operasi komputer, kecerdasan dokumen, serta pemahaman audio-visual. Bobot dan data pelatihan dipublikasikan, dengan opsi penyebaran mencakup lokal, NIM, dan platform pihak ketiga.

ChainNewsAbmedia51menit yang lalu

Cursor Mengungkap Metode Pelatihan Autoinstal, Meningkatkan Kinerja Composer 2 Sebesar 14 Poin Persentase

Berdasarkan pengungkapan terbaru Cursor, perusahaan tersebut meluncurkan teknik pelatihan bernama autoinstall untuk rangkaian model Composer: menggunakan model generasi sebelumnya untuk secara otomatis menyiapkan lingkungan eksekusi bagi reinforcement learning generasi berikutnya. Saat melatih Composer 2, Cursor

GateNews54menit yang lalu

OpenAI DevDay 2026 akan diadakan pada 29/9 di San Francisco

OpenAI mengumumkan DevDay 2026 akan diselenggarakan pada 29/9 di San Francisco secara langsung, dengan lomba posting yang dibuat menggunakan GPT-5.5 dan Image Gen. Codex akan menyaring otomatis 2–3 karya setiap minggu, dan pemenang akan mendapatkan tiket gratis serta tiket pesawat dan hotel lintas kota. Konferensi berfokus pada ekosistem GPT-5.5 dan penilaian kolaborasi manusia-mesin. Untuk berpartisipasi, peserta harus berusia minimal 18 tahun dan bukan merupakan anggota keluarga langsung karyawan OpenAI. Poin pengamatan meliputi model baru, integrasi agen, dan strategi multi-cloud.

ChainNewsAbmedia56menit yang lalu

Nvidia berinvestasi pada startup legaltech AI asal Swedia, Legora, dengan Jude Law sebagai duta merek global

NVIDIA melakukan perluasan investasi putaran Series D senilai 50 juta dolar AS untuk Legora, sehingga total penggalangan dana Legora mencapai 600 juta dolar AS dan valuasinya 5,6 miliar dolar AS. Atlassian, Adams Street Partners, dan Insight Partners turut berpartisipasi. Legora fokus pada legal tech berbasis AI, menyediakan alat untuk pemeriksaan otomatis, analisis kontrak, dan riset hukum. ARR lebih dari 100 juta dolar AS, sementara jumlah karyawan naik dari 40 menjadi 400. Jude Law menjadi duta merek global, dengan slogan iklan Law just got more attractive.

ChainNewsAbmedia1jam yang lalu

Prediksi AI 2027 Sudah 65% Rampung, Percepatan Pengembangan Perangkat Lunak Tertahan di 17%, Kata Co-Founder Google Docs

Menurut Steve Newman, pendiri dan ketua Google Docs Golden Gate Institute, AI telah menyelesaikan sekitar 65% prediksi terukur yang diuraikan dalam prakiraan skenario 2027 yang dirilis tahun lalu. Namun, metrik yang paling kritis—akselerasi AI terhadap perangkat lunaknya sendiri

GateNews1jam yang lalu
Komentar
0/400
Tidak ada komentar