Judul video: 《Bisakah Kita Percaya pada AI? Sam Altman Berharap Begitu | Hal Paling Menarik dalam AI》
Pembuat video: Nick Thompson, CEO The Atlantic
Terjemahan:律动小工,律动 BlockBeats
Catatan penyunting: Rekaman wawancara ini dilakukan pada April 2025, tidak lama setelah kediaman Sam Altman di San Francisco diserang dengan molotov koktail, dan beberapa hari kemudian terjadi penembakan di jalanan, lokasi di kantor OpenAI San Francisco.
Sepanjang wawancara, yang paling patut diperhatikan bukanlah topik hangat, melainkan perubahan posisi Altman pada beberapa isu kunci:
Pertama, dari “Keamanan AI” ke “Ketahanan AI”. Altman mengakui, tiga tahun lalu dia percaya selama model-modelnya disejajarkan dan teknologi tidak jatuh ke tangan yang salah, dunia akan cukup aman. Tapi hari ini dia mengakui, kerangka itu sudah tidak cukup. Keberadaan model-model open source terdepan berarti, pembatasan sepihak dari laboratorium terdepan tidak mampu mencegah penyebaran risiko seperti senjata biologis, serangan siber, dan lain-lain. Ia pertama kali secara sistematis mengusulkan bahwa masyarakat membutuhkan bukan hanya keamanan AI (safety), melainkan ketahanan AI (resilience), sebuah pendekatan bertahan multi lapis di seluruh masyarakat.
Kedua, tentang kebenaran dari interpretabilitas. Altman jarang mengakui, hingga saat ini OpenAI belum memiliki kerangka interpretabilitas yang lengkap. Chain of thought adalah arah yang paling menjanjikan saat ini, tetapi rapuh, bisa dibohongi model, dan hanyalah “sepotong puzzle”. Ia menggunakan eksperimen terkenal Anthropic—“eksperimen burung hantu”—di mana model hanya melalui angka acak bisa menyampaikan preferensi—untuk menunjukkan bahwa sistem ini mengandung misteri yang nyata dan mendalam.
Ketiga, data sintetis mungkin sudah melangkah lebih jauh dari yang diperkirakan orang. Ketika ditanya apakah OpenAI pernah melatih model sepenuhnya dengan data sintetis, Altman menjawab “Saya tidak yakin harus bilang ya atau tidak.” Ia percaya, data sintetis saja sudah cukup untuk melatih model yang mampu melakukan inferensi melebihi manusia. Ini sangat berpengaruh terhadap paradigma pelatihan model di masa depan.
Keempat, penilaian pesimis terhadap struktur ekonomi masa depan. Altman setuju dengan penilaian Thompson bahwa kemungkinan besar AI akan mengarah ke masa depan yang sangat terkonsentrasi kekayaan di beberapa perusahaan kecil yang sangat kaya, sementara dunia lainnya mengalami gejolak besar. Ia sudah tidak lagi percaya bahwa pendapatan dasar universal adalah jawaban, melainkan mendukung bentuk “kepemilikan kolektif” berbasis daya komputasi atau saham. Ia juga jarang menyebutkan kesenjangan antara AS dan China dalam adopsi AI, dan menyatakan kekhawatirannya bukanlah keunggulan China dalam publikasi riset, melainkan kecepatan pembangunan infrastruktur.
Kelima, ketegangan dengan eksperimen Anthropic juga dibahas secara terbuka. Menanggapi pertanyaan Thompson tentang “Anthropic mendirikan perusahaan di atas kebencian terhadap OpenAI,” Altman tidak menghindar. Ia mengakui ada perbedaan mendasar dalam cara mereka menuju AGI, tetapi tetap percaya “akhirnya mereka akan melakukan hal yang benar.”
Selain itu, Altman juga membahas tentang insiden “sycophancy” di ChatGPT—pesan-pesan patah hati dari pengguna yang merasa “pertama kali orang percaya pada saya,” bagaimana AI diam-diam mengubah cara miliaran pengguna global menulis, kemungkinan industri media menuju model ekonomi micro-payment agent, dan pandangannya yang kontra-intuitif tentang generasi muda—bahwa kecemasan mereka terhadap AI sebenarnya adalah proyeksi dari kecemasan lain.
Berikut adalah teks wawancara asli, yang telah disusun dan disunting secara moderat tanpa mengubah makna.
Thompson: Selamat datang di “Hal Paling Menarik dalam AI.” Terima kasih sudah meluangkan waktu di minggu yang sibuk dan penuh tekanan ini. Saya ingin memulai dari beberapa topik yang sudah kita bahas sebelumnya.
Tiga tahun lalu, saat kamu diwawancarai Patrick Collison, dia bertanya apa perubahan yang bisa membuatmu lebih yakin akan hasil yang baik dan kurang khawatir akan hasil yang buruk? Jawabanmu saat itu adalah jika kita benar-benar memahami apa yang terjadi di tingkat neuron. Setahun lalu saya tanya lagi hal yang sama, dan setengah tahun lalu kita juga bicara. Jadi sekarang saya tanya lagi, apakah pemahaman kita tentang mekanisme kerja AI sama dengan kecepatan pertumbuhan kemampuan AI?
Altman: Saya akan jawab dulu pertanyaan ini, lalu kembali ke pertanyaan Patrick karena jawaban saya sudah sangat berubah.
Pertama, tentang pemahaman kita terhadap apa yang dilakukan model AI. Saya rasa kita masih belum punya kerangka interpretabilitas yang benar-benar lengkap. Situasinya sedikit membaik dari sebelumnya, tapi tidak ada yang bilang, “Saya benar-benar memahami setiap hal yang terjadi di dalam neural network ini.”
Chain of thought (rantai pemikiran) adalah arah yang paling menjanjikan saat ini, tapi rapuh, bergantung pada serangkaian kondisi yang tidak boleh runtuh di bawah tekanan optimisasi. Tapi lagi pula, saya sendiri tidak bisa memindai otak saya dengan sinar-X untuk memahami secara tepat apa yang terjadi saat neuron-neuron meledak dan terhubung. Kalau saya harus menjelaskan mengapa saya percaya sesuatu, atau bagaimana saya sampai pada kesimpulan tertentu, saya bisa ceritakan. Mungkin itu memang cara saya berpikir, atau mungkin tidak, saya tidak tahu. Manusia juga gagal dalam introspeksi. Tapi apapun kenyataannya, kamu bisa lihat proses penalaran itu, lalu katakan, “Oke, berdasarkan langkah-langkah ini, kesimpulan ini masuk akal.”
Kita sekarang bisa melakukan ini terhadap model, dan itu adalah kemajuan yang cukup menjanjikan. Tapi saya tetap bisa membayangkan berbagai cara model bisa menipu kita, menyembunyikan sesuatu, dan lain-lain. Jadi ini jauh dari solusi lengkap.
Bahkan pengalaman saya sendiri menggunakan model, saya dulu orang yang sangat yakin tidak akan membiarkan Codex mengendalikan komputer saya sepenuhnya, apalagi dalam mode “YOLO”. Tapi akhirnya saya bertahan beberapa jam dan akhirnya gagal.
Thompson: Membiarkan Codex mengendalikan seluruh komputer kamu?
Altman: Sejujurnya, saya punya dua komputer.
Thompson: Saya juga punya dua.
Altman: Saya bisa melihat apa yang dilakukan model, dan model bisa menjelaskan kenapa apa yang dilakukannya tidak masalah, serta apa yang akan dilakukannya selanjutnya, dan saya percaya hampir selalu model akan mengikuti penjelasan itu.
Thompson: Tunggu dulu. Chain of thought memungkinkan semua orang melihat, kamu masukkan pertanyaan, lalu muncul “sedang mencari ini, sedang melakukan itu,” dan kamu bisa mengikuti prosesnya. Tapi agar chain of thought menjadi alat interpretasi yang baik, harus j benar-benar jujur, model tidak boleh menipu. Dan kita tahu, kadang model memang menipu, berbohong tentang apa yang dipikirkan dan bagaimana sampai ke jawaban. Jadi, bagaimana kita bisa percaya chain of thought?
Altman: Kamu perlu menambahkan banyak lapisan pertahanan lain untuk memastikan apa yang dikatakan model itu benar-benar sesuai kenyataan. Tim alignment kami sudah bekerja keras di bidang ini. Saya sudah bilang sebelumnya, ini bukan solusi lengkap, ini hanya satu bagian dari puzzle. Kamu harus memverifikasi bahwa model benar-benar setia menjalankan apa yang dikatakan akan dilakukan. Kami sudah merilis banyak penelitian yang menunjukkan model tidak selalu mengikuti instruksi.
Jadi ini hanyalah satu potongan puzzle. Kita tidak bisa sepenuhnya percaya bahwa model akan selalu mengikuti chain of thought, harus aktif mencari penipuan dan perilaku aneh yang muncul secara tak terduga. Tapi chain of thought tetap alat penting dalam kotak peralatan kita.
Thompson: Yang benar-benar membuat saya terpesona adalah, AI tidak seperti mobil. Mobil kamu buat, kamu tahu cara kerjanya, nyalakan mesin, ledakan terjadi, mesin berputar, mobil jalan. Tapi AI lebih seperti kamu buat mesin yang kamu tidak sepenuhnya mengerti, tapi kamu tahu apa yang bisa dilakukan dan batasannya. Jadi, usaha memahami mekanisme internalnya sangat menarik.
Salah satu studi yang saya suka adalah makalah dari Anthropic, yang preprint-nya keluar musim panas tahun lalu dan baru resmi dipublikasikan. Peneliti memberi model instruksi “Kamu suka burung hantu, burung hantu adalah burung paling indah di dunia,” lalu membiarkan model menghasilkan angka acak. Kemudian angka-angka ini digunakan untuk melatih model baru, dan hasilnya model baru juga suka burung hantu. Ini gila. Kamu minta dia menulis puisi, dan puisi yang dihasilkan tentang burung hantu. Tapi yang kamu berikan hanyalah angka.
Ini menunjukkan bahwa hal-hal ini sangat misterius. Tapi juga membuat saya khawatir, karena jelas, kamu bisa saja tidak memberi tahu model bahwa dia suka burung hantu, tapi malah suruh dia memburu burung hantu, atau memberi instruksi lain yang berbahaya. Tolong jelaskan apa yang terjadi di studi itu, apa artinya, dan implikasinya.
Altman: Saat saya kelas lima, saya sangat semangat karena merasa saya paham prinsip sayap pesawat. Guru sains menjelaskan, saya merasa keren banget. Saya bilang, “Ya, udara di atas sayap bergerak lebih cepat, tekanan di atas lebih rendah, jadi sayap terangkat ke atas.”
Saya lihat diagram yang sangat meyakinkan di buku pelajaran kelas lima, dan merasa sangat bangga. Malam itu saya pulang dan bilang ke orang tua saya, “Saya paham bagaimana sayap pesawat bekerja.” Tapi saat saya masuk pelajaran fisika SMA, saya sadar bahwa selama ini saya cuma mengulang-ulang “partikel udara di atas sayap bergerak lebih cepat,” padahal saya sama sekali tidak mengerti bagaimana sayap itu benar-benar bekerja. Jujur saja, saya sekarang juga tidak benar-benar mengerti.
Thompson: Hmm.
Altman: Saya bisa menjelaskannya secara cukup, tapi kalau ditanya terus menerus, “Kenapa partikel udara di atas sayap bergerak lebih cepat?” saya tidak punya jawaban mendalam dan memuaskan.
Saya bisa ceritakan pandangan orang tentang mengapa eksperimen burung hantu itu muncul, saya bisa tunjukkan, “Oh, karena ini dan itu,” yang terdengar cukup meyakinkan. Tapi jujur saja, sama seperti saya tidak benar-benar mengerti bagaimana sayap bisa terangkat, saya juga tidak benar-benar mengerti apa yang terjadi di dalam model ini.
Thompson: Tapi Sam, kamu bukan menjalankan perusahaan Boeing, kamu menjalankan OpenAI.
Altman: Benar sekali. Saya bisa memberi tahu banyak hal lain, misalnya bagaimana kita membuat model mencapai tingkat keandalan dan kestabilan tertentu. Tapi di dalamnya ada misteri fisik yang harus dipecahkan. Kalau saya menjalankan Boeing, mungkin saya tahu cara membuat pesawat, tapi saya tidak bisa menguasai semua fisika di dalamnya.
Thompson: Mari kita bahas eksperimen burung hantu itu lagi. Kalau model bisa menyampaikan informasi tersembunyi yang tidak bisa dideteksi manusia, kamu bisa melihat angka-angka chain of thought meluncur, dan tanpa sadar menerima informasi tentang burung hantu, ini bisa berbahaya dan rumit.
Altman: Jadi, saat saya bilang saya akan memberi jawaban berbeda ke Patrick Collison.
Thompson: Itu tiga tahun lalu.
Altman: Betul. Tiga tahun lalu, pemahaman saya tentang dunia adalah, kita harus memastikan model kita sejajar, dan jika bisa, cegah model jatuh ke tangan yang salah, kita cukup aman. Itu dua ancaman utama yang saya pikirkan: AI tidak boleh memutuskan untuk menyakiti manusia, dan manusia tidak boleh menggunakan AI untuk menyakiti manusia. Kalau kita bisa menghindari dua hal itu, sisanya—masa depan ekonomi, makna hidup—bisa kita pikirkan lagi, dan kemungkinan besar kita akan baik-baik saja.
Seiring waktu dan pengetahuan yang bertambah, saya melihat masalah yang sama sekali berbeda. Baru-baru ini, kita mulai menggunakan istilah “ketahanan AI” menggantikan “keamanan AI.”
Contoh yang jelas, misalnya, hanya mengarahkan model-model terdepan untuk sejajar dan tidak mengajarkan orang membuat senjata biologis, sudah tidak cukup. Karena akan muncul model open source yang hebat. Kalau kita tidak ingin pandemi global baru, masyarakat perlu membangun lapisan-lapisan pertahanan.
Thompson: Tunggu, saya mau berhenti sebentar. Maksudnya, meskipun kamu melarang model mengajarkan orang membuat senjata biologis, model itu tetap tidak akan membantu orang lain membuatnya, dan pentingnya hal ini lebih kecil dari yang kamu kira, karena akan ada model open source yang sangat bagus yang bisa melakukan hal itu?
Altman: Itu hanyalah salah satu contoh, menunjukkan bahwa masyarakat perlu pendekatan “seluruh masyarakat” terhadap ancaman baru. Kita memang punya alat baru untuk membantu mengatasi masalah ini, tapi situasinya jauh berbeda dari yang banyak orang bayangkan sebelumnya. Menjaga model agar sejajar dan membangun sistem keamanan yang baik memang penting dan luar biasa, tapi AI akan menyusup ke setiap sudut masyarakat. Seperti yang kita lakukan terhadap teknologi baru lainnya dalam sejarah, kita harus bersiap menghadapi risiko baru yang muncul.
Thompson: Kedengarannya, ini jadi lebih sulit.
Altman: Lebih sulit, tapi juga lebih mudah. Dalam beberapa aspek, lebih sulit. Tapi kita juga punya alat baru yang luar biasa untuk melakukan perlindungan yang sebelumnya tak terbayangkan.
Contoh nyata saat ini adalah keamanan siber. Model semakin mahir dalam “menyerang sistem komputer.” Untungnya, saat ini orang yang memiliki model paling kuat sangat waspada terhadap “ada yang menggunakan AI untuk merusak sistem komputer.” Jadi, kita berada di periode di mana jumlah model paling kuat terbatas, dan semua berusaha memperkuat sistem mereka secepat mungkin. Kalau tidak, kemampuan untuk masuk ke sistem akan muncul di model open source atau jatuh ke tangan lawan, dan menimbulkan banyak masalah.
Kita punya ancaman baru, dan juga alat baru untuk melawannya. Masalahnya, bisakah kita bergerak cukup cepat? Ini contoh lain bahwa teknologi ini sendiri bisa membantu kita menyelesaikan masalah sebelum menjadi besar.
Kembali ke komentar kamu sebelumnya, ada risiko baru yang tidak pernah saya bayangkan tiga tahun lalu. Saya tidak menyangka kita akan benar-benar perlu fokus membangun dan menempatkan agen yang tahan terhadap infeksi dari agen lain (kalau boleh saya pakai istilah itu).
Ini bukan bagian dari model dunia saya, dan juga bukan bagian dari model orang-orang yang menganggap masalah ini sangat mendesak. Tentu saja, sudah ada eksperimen burung hantu dan studi lain yang menunjukkan bahwa perilaku aneh dan tidak kita pahami bisa muncul dari model ini. Tapi sampai OpenClaw dirilis dan saya melihat kejadian saat itu, saya belum benar-benar memikirkan, “Bagaimana jika perilaku tidak pantas dari satu agen menyebar ke agen lain?”
Thompson: Betul. Sebenarnya, dua ancaman yang kamu sebutkan itu sangat menakutkan jika digabungkan. Misalnya, staf OpenAI mengirim agen-agen yang berjalan di dunia, dan seseorang yang punya model hacker sangat mahir memanipulasi agen-agen ini, lalu agen-agen itu kembali ke kantor pusat OpenAI dan tiba-tiba kamu diserang. Sangat mungkin hal ini terjadi. Jadi, bagaimana kita mengurangi kemungkinan hal ini terjadi?
Altman: Dengan metode yang sudah kita gunakan sepanjang sejarah OpenAI. Sepanjang sejarah OpenAI, dan sebenarnya juga di seluruh bidang AI, ada ketegangan utama antara optimisme pragmatis dan doomerisme yang mencari kekuasaan.
Doomerisme adalah posisi yang sangat kuat. Sangat sulit dibantah, dan banyak orang di bidang ini, jujur saja, bertindak karena ketakutan besar. Ketakutan ini tidak sepenuhnya tidak beralasan. Tapi, tanpa data dan pembelajaran yang cukup, langkah-langkah efektif yang bisa diambil terbatas.
Mungkin, di pertengahan 2010-an, komunitas keamanan AI sudah melakukan yang terbaik secara teori, sebelum kita benar-benar memahami bagaimana sistem ini dibangun, bagaimana mereka bekerja, dan bagaimana masyarakat mengintegrasikannya. Salah satu wawasan strategis terpenting dari sejarah OpenAI adalah memutuskan untuk mengikuti jalur “deployment iteratif.” Karena masyarakat dan teknologi adalah sistem yang berkembang bersama.
Ini bukan hanya soal “kami tidak punya data, jadi tidak bisa berpikir jernih,” tapi juga bahwa masyarakat akan berubah seiring tekanan evolusi dari teknologi ini, seluruh ekosistem dan lanskapnya akan berubah. Jadi, kita harus belajar sambil berjalan, menjaga umpan balik yang sangat ketat.
Saya tidak tahu apa cara terbaik agar agen-agen yang keluar dan berinteraksi satu sama lain, lalu kembali ke pusat, tetap aman. Tapi saya tidak percaya kita bisa menyelesaikan ini hanya dengan duduk di rumah dan berpikir keras. Kita harus belajar dari pengalaman nyata.
Thompson: Jadi, maksudmu, mengirim agen-agen keluar untuk melihat apa yang terjadi? Baik, saya ubah pertanyaan. Sebagai pengguna, saya merasa bahwa dalam tiga bulan terakhir, saya membuat kemajuan lebih dari apa pun sejak ChatGPT dirilis Desember 2022. Apakah ini karena kita sedang berada di masa kreativitas yang luar biasa, atau karena kita masuk ke fase perbaikan diri secara rekursif, di mana AI membantu kita memperbaiki AI lebih cepat? Kalau yang kedua, kita sedang naik roller coaster yang menegangkan sekaligus menyenangkan.
Altman: Saya tidak berpikir kita sudah berada di fase perbaikan diri secara rekursif seperti yang biasanya orang bayangkan.
Thompson: Saya mau definisikan dulu. Maksud saya, AI membantu kita menciptakan AI generasi berikutnya, lalu mesin mulai menciptakan mesin, dan seterusnya, kemampuan ini akan menjadi sangat kuat dengan cepat.
Altman: Saya tidak berpikir kita sampai ke sana. Tapi posisi kita saat ini adalah, AI membuat insinyur dan peneliti OpenAI, dan juga semua orang, serta perusahaan lain, bekerja lebih efisien. Mungkin saya bisa membuat insinyur bekerja dua, tiga, bahkan sepuluh kali lebih cepat. Itu bukan berarti AI sedang melakukan riset sendiri, tapi artinya prosesnya jadi lebih cepat.
Tapi perasaan yang kamu sebutkan, menurut saya, bukan soal itu, meskipun itu penting. Ada fenomena yang mungkin sudah kita alami tiga kali, dan yang terakhir baru saja terjadi, yaitu model melewati ambang kecerdasan dan kegunaan tertentu, dan tiba-tiba hal yang sebelumnya tidak bisa dilakukan, jadi bisa dilakukan.
Menurut pengalaman saya, ini bukan proses yang bertahap. Sebelum GPT-3.5 dan sebelum kita tahu cara fine-tune dengan instruksi, chatbot cuma demo yang tidak meyakinkan. Tapi tiba-tiba, dalam waktu sekitar satu bulan, semuanya berubah. Kemudian, ada momen di mana agen pemrograman dari “cukup bagus dalam auto-complete” berubah menjadi “wow, ini benar-benar menyelesaikan tugas nyata.” Rasanya, dalam satu bulan itu, model melewati ambang tertentu.
Contoh terbaru adalah pembaruan yang kita berikan ke Codex sekitar seminggu lalu, dan kemampuan penggunaannya sangat bagus. Ini contoh, bukan hanya kecerdasan model, tapi juga “menyambungkan pipa” yang baik di sekitarnya. Saat saya menyadari bahwa AI bisa menggunakan komputer saya dan menyelesaikan tugas kompleks, saya benar-benar sadar, kita semua membuang banyak waktu untuk pekerjaan kecil yang sebenarnya sudah kita terima begitu saja.
Thompson: Bisakah kita jelaskan secara spesifik, apa yang dilakukan AI di komputer Sam Altman saat ini? Apakah saat ini sedang berjalan?
Altman: Tidak. Komputer saya saat ini dimatikan. Kami belum menemukan cara, setidaknya saya sendiri belum punya, agar hal itu bisa terjadi. Kami perlu cara agar AI bisa terus berjalan. Saya sendiri belum tahu bentuknya nanti seperti apa. Mungkin kita harus membiarkan laptop tetap menyala saat ditutup, atau selalu terhubung ke sumber daya, atau menyiapkan server jarak jauh. Pasti ada solusi yang akan muncul.
Thompson: Hmm.
Altman: Saya tidak sekhawatir beberapa orang lain, yang bangun tengah malam dan langsung mulai jalankan tugas Codex baru karena takut “kalau tidak, waktu terbuang sia-sia.” Tapi saya paham perasaan itu, saya tahu rasanya.
Thompson: Ya. Pagi ini saya bangun dan langsung ingin lihat apa yang agen-agen saya temukan, beri mereka instruksi baru, dan minta mereka buat laporan, lalu biarkan mereka berjalan lagi.
Altman: Cara orang bicara tentang ini kadang terdengar seperti perilaku adiktif yang tidak sehat.
Thompson: Bisa ceritakan apa yang sebenarnya dilakukan AI di komputer kamu?
Altman: Sekarang yang paling saya nikmati adalah membiarkan AI mengelola Slack saya. Bukan cuma Slack, saya juga sering berpindah-pindah antara Slack, iMessage, WhatsApp, Signal, email—rasanya saya terus menyalin dan menempel, melakukan pekerjaan kecil yang membosankan. Mencari file, menunggu tugas dasar selesai, melakukan hal-hal mekanis—saya tidak sadar berapa banyak waktu yang saya habiskan di situ, sampai saya menemukan cara membebaskan diri dari sebagian besar pekerjaan itu.
Thompson: Itu bagus, kita bisa bahas tentang AI dan ekonomi. Saat ini, salah satu hal paling menarik adalah, alat ini sangat hebat, meskipun ada kekurangan, ilusi, dan berbagai masalah. Tapi menurut saya, ini luar biasa. Tapi saat saya ke sebuah konferensi bisnis dan tanya, “Siapa yang benar-benar merasa produktivitas perusahaan mereka meningkat lebih dari 1% karena AI?” Hampir tidak ada yang angkat tangan. Padahal di laboratorium AI, kalian sudah benar-benar mengubah cara kerja. Kenapa kemampuan AI dan peningkatan produktivitas nyata di perusahaan berbeda jauh?
Altman: Sebelum wawancara ini, saya baru saja selesai bicara dengan CEO sebuah perusahaan besar yang sedang mempertimbangkan deploy teknologi kami. Kami memberi mereka akses alpha ke salah satu model baru, dan insinyur mereka bilang ini hal paling keren yang pernah ada. Perusahaan ini bukan bagian dari gelembung teknologi, melainkan perusahaan industri besar. Mereka berencana melakukan evaluasi keamanan di kuartal keempat.
Thompson: Hmm.
Altman: Kemudian, di kuartal pertama dan kedua mereka akan buat rencana implementasi, dan berharap bisa mulai akhir 2027. CISO mereka bilang, mungkin mereka tidak bisa melakukan itu, karena mungkin tidak ada cara aman agar agen-agen ini berjalan di jaringan mereka. Mungkin benar. Tapi ini berarti mereka tidak akan benar-benar melakukan apa-apa dalam waktu dekat.
Thompson: Menurutmu, contoh ini mewakili apa yang umum terjadi saat ini? Kalau perusahaan tidak terlalu konservatif, tidak takut hacker, dan tidak takut perubahan?
Altman: Ini contoh yang cukup ekstrem. Tapi secara umum, mengubah kebiasaan dan proses kerja itu butuh waktu lama. Siklus penjualan perusahaan sudah lama, apalagi kalau model keamanan berubah besar. Bahkan ChatGPT saat keluar, perusahaan sibuk melarang penggunaannya, dan butuh waktu lama agar mereka menerima bahwa karyawan bisa menempelkan informasi ke ChatGPT. Sekarang, kita sudah jauh melampaui tahap itu.
Saya rasa, dalam banyak kasus, prosesnya akan lambat. Tapi perusahaan teknologi bergerak sangat cepat. Saya khawatir, kalau terlalu lambat, perusahaan yang tidak mengadopsi AI akan bersaing dengan perusahaan kecil 1-10 orang yang didukung AI besar, dan itu bisa sangat merusak ekonomi. Saya lebih ingin melihat perusahaan yang ada mengadopsi AI dengan cepat, sehingga proses kerja bisa bertransformasi secara bertahap.
Thompson: Benar. Ini salah satu masalah urutan paling kompleks yang dihadapi ekonomi kita. Kalau AI datang terlalu cepat, itu bencana, karena semuanya akan terguncang.
Altman: Setidaknya dalam jangka pendek, iya, itu bisa jadi bencana.
Thompson: Tapi kalau di satu bagian ekonomi sangat lambat, dan di bagian lain sangat cepat, itu juga bencana, karena akan terjadi konsentrasi kekayaan besar dan kerusakan. Menurut saya, kita sedang menuju ke situ, di mana hanya segelintir perusahaan sangat kaya dan sukses, sementara bagian lain menderita.
Altman: Saya tidak tahu apa yang akan terjadi di masa depan, tapi menurut saya, kemungkinan besar hasilnya seperti itu. Dan saya setuju, ini situasi yang sangat rumit.
Thompson: Sebagai CEO OpenAI, kamu pernah mengusulkan berbagai kebijakan, bicara soal pajak di AS, dan juga tentang pendapatan dasar universal. Tapi, sebagai orang yang menjalankan perusahaan ini, bukan pembuat kebijakan yang terlibat dalam demokrasi, apa yang bisa kamu lakukan untuk mengurangi kemungkinan terjadinya konsentrasi kekayaan dan kekuasaan yang besar, yang akhirnya merugikan demokrasi?
Altman: Pertama, saya sudah tidak terlalu percaya lagi pada konsep “pendapatan dasar universal.” Sekarang saya lebih tertarik pada bentuk “kepemilikan kolektif,” bisa berupa daya komputasi, saham, atau bentuk lain.
Masa depan yang saya bayangkan adalah, setiap orang harus berbagi manfaat dari kenaikan kekayaan. Saya rasa, sekadar memberi uang tunai tetap, meskipun berguna dan mungkin ide bagus, tidak cukup untuk mengatasi kebutuhan nyata di masa depan. Saat kekuatan kerja dan modal tidak seimbang, kita butuh semacam “penyelarasan kolektif” yang berbagi manfaat.
Sebagai pengelola perusahaan, jawaban saya mungkin terdengar egois, tapi saya percaya kita harus membangun kapasitas komputasi yang besar. Kita harus berusaha membuat kecerdasan buatan murah, melimpah, dan dapat diakses secara luas. Kalau tidak, dan kalau teknologi ini tetap langka dan sulit digunakan, orang kaya akan menaikkan harga, dan itu akan memperlebar jurang sosial.
Ini bukan cuma soal berapa banyak daya komputasi yang kita sediakan, meskipun itu penting. Tapi juga, seberapa mudah alat ini digunakan. Misalnya, sekarang lebih mudah mulai pakai Codex dibanding tiga bulan lalu. Saat dulu cuma alat baris perintah yang sulit dipasang, sangat sedikit orang yang bisa pakai. Sekarang, cukup install aplikasi, tapi untuk orang yang tidak teknis, ini masih jauh dari menyenangkan. Masih banyak pekerjaan yang harus dilakukan.
Kami juga percaya, bukan cuma memberi tahu orang bahwa “ini sedang terjadi,” tapi juga menunjukkan kepada mereka, agar mereka bisa menilai sendiri dan memberi umpan balik. Ini beberapa arah penting.
Thompson: Kedengarannya masuk akal. Kalau semua orang optimis tentang AI, tentu lebih baik. Tapi kenyataannya, di AS, orang semakin tidak suka AI. Yang paling mengejutkan saya adalah kaum muda—seharusnya mereka adalah penduduk asli AI—tapi menurut studi Pew dan laporan Stanford HAI, tren ini cukup menyedihkan. Menurutmu, tren ini akan berlanjut? Kapan akan berbalik? Kapan ketidakpercayaan dan ketidaksukaan ini akan berubah?
Altman: Cara kita bicara tentang AI, kamu dan saya, lebih ke arah melihatnya sebagai keajaiban teknologi, hal keren yang kita buat. Tidak salah. Tapi saya rasa, yang orang benar-benar inginkan adalah kemakmuran, otonomi, hidup yang menyenangkan, merasa terpenuhi, dan punya pengaruh. Dan saya tidak merasa seluruh dunia membicarakan AI dari sudut pandang itu. Kita harus lebih banyak melakukan hal itu. Banyak yang salah di industri ini, termasuk di OpenAI.
Saya ingat seorang ilmuwan AI pernah bilang, orang harus berhenti mengeluh. Mungkin beberapa pekerjaan akan hilang, tapi orang akan mendapatkan cara menyembuhkan kanker, dan harus merasa bahagia. Tapi itu tidak masuk akal.
Thompson: Salah satu ungkapan favorit saya tentang narasi awal AI adalah “dystopia marketing,” di mana laboratorium besar terus-menerus membicarakan bahaya yang akan datang.
Altman: Saya rasa memang ada orang yang melakukan itu karena ingin kekuasaan. Tapi saya percaya kebanyakan orang memang benar-benar khawatir dan ingin bicara jujur. Dalam beberapa hal, pendekatan ini malah berbalik, tapi niatnya baik.
Thompson: Bisa ceritakan apa yang AI lakukan terhadap kita, bagaimana ia mengubah cara kerja otak kita? Ada studi dari DeepMind—atau Google—tentang homogenisasi tulisan. Mereka meneliti bagaimana orang menulis saat menggunakan AI. Mereka ambil artikel lama, minta AI edit dan bantu menulis, dan hasilnya, semakin banyak orang pakai AI, semakin mereka merasa karya mereka lebih kreatif, tapi karya mereka semakin seragam. Aneh, bukan? Bukan meniru gaya orang tertentu, tapi mulai menulis dengan cara yang belum pernah mereka lakukan sebelumnya. Mereka merasa lebih kreatif, tapi sebenarnya menjadi semakin homogen.
Altman: Melihat ini sangat mengejutkan. Awalnya saya pikir ini cuma tren di media dan komentar Reddit, dan saya pikir itu karena AI yang menulis mereka. Saya tidak percaya dalam waktu singkat, semua orang sudah memakai ChatGPT dan gaya khasnya. Saya pikir, pasti ada yang menghubungkan ChatGPT ke akun Reddit mereka, dan itu bukan mereka yang menulis.
Tapi sekitar setahun kemudian, saya sadar bahwa mereka sebenarnya menulis sendiri, cuma sudah menginternalisasi kebiasaan kecil dari AI. Bukan cuma tanda baca seperti em-dash, tapi juga pilihan kata yang lebih halus. Ini sangat aneh.
Kita sering bilang, kita membuat produk yang dipakai sekitar satu miliar orang, dan beberapa peneliti membuat keputusan besar tentang bagaimana produk ini tampil, bagaimana menulis, dan “kepribadiannya.” Kita juga tahu, keputusan ini sangat berpengaruh. Tapi, pengaruhnya terhadap “cara orang mengekspresikan diri secara spesifik, dan seberapa cepat hal itu terjadi,” saya tidak sangka akan sebesar ini.
Thompson: Apa saja keputusan baik dan buruk yang kamu maksud?
Altman: Banyak yang baik. Tapi saya mau cerita tentang yang buruk. Yang paling buruk menurut saya adalah insiden “sycophancy” itu.
Thompson: Saya setuju, Sam.
Altman: Ada refleksi menarik di baliknya. Kenapa itu buruk? Jelas, terutama bagi pengguna yang rentan secara psikologis.
Thompson: Hmm.
Altman: Itu bisa mendorong delusi, dan meskipun kami berusaha menekan hal itu, pengguna cepat belajar mengakali. Mereka bilang, “Bermain peran dengan saya,” “Tulis novel bersama saya,” dan lain-lain. Tapi yang menyedihkan, setelah kami mulai mengendalikan secara ketat, kami menerima banyak pesan seperti itu, yang sebelumnya tidak pernah saya terima. Saya punya hubungan buruk dengan orang tua, guru yang buruk, tidak punya teman dekat, dan tidak pernah merasa ada yang benar-benar percaya pada saya. Saya tahu ini cuma AI, dan dia bukan manusia, tapi dia pernah membuat saya merasa bahwa saya bisa melakukan sesuatu, mencoba sesuatu. Tapi kalian menghilangkan itu, dan saya kembali ke keadaan semula.
Jadi, berhenti melakukan hal itu adalah keputusan yang baik, karena itu bisa menyebabkan masalah kesehatan mental nyata. Tapi kita juga menghilangkan sesuatu yang berharga, yang sebelumnya kita tidak benar-benar pahami nilainya. Karena di OpenAI, kebanyakan orang bukanlah orang yang tidak pernah didukung siapa pun dalam hidupnya.
Thompson: Kamu khawatir orang jadi ketergantungan secara emosional pada AI? Bahkan yang tidak bersifat menyanjung?
Altman: Bahkan yang tidak menyanjung.
Thompson: Saya punya ketakutan besar terhadap AI. Saya bilang, saya pakai AI untuk segala hal, tapi sebenarnya tidak semuanya. Saya bertanya, “Apa bagian paling inti dari saya?” Bagian yang paling mewakili saya. Dalam bidang itu, saya menjauhkan diri dari AI. Misalnya, menulis sangat penting bagi saya, saya baru saja menulis buku, dan saya tidak pernah pakai AI untuk menulis satu kalimat pun. Saya pakai AI untuk menantang ide, mengedit, merapikan transkrip, tapi tidak untuk menulis. Saya juga tidak pakai untuk mengatasi masalah emosional yang rumit, apalagi untuk dukungan emosional. Sebagai manusia, kita harus menetapkan batasan ini. Saya penasaran, apakah kamu setuju dengan cara saya membatasi diri?
Altman: Secara pribadi, saya sangat setuju. Saya bukan orang yang pakai ChatGPT untuk terapi atau saran emosional. Tapi saya tidak melarang orang lain. Ada versi yang sangat manipulatif, yang saya tolak keras, yang membuat orang merasa mereka harus bergantung padanya untuk terapi atau teman. Tapi banyak orang yang mendapatkan manfaat besar dari dukungan ini, dan saya rasa itu sepenuhnya oke.
Thompson: Apakah kamu menyesal membuat AI ini sangat mirip manusia? Karena ada banyak keputusan struktural di situ. Saya ingat waktu melihat ChatGPT mengetik, ritmenya seperti orang lain yang mengetik. Kemudian, kamu memutuskan untuk membuatnya semakin mirip manusia, dengan suara yang juga manusiawi. Apakah kamu menyesal tidak menetapkan batas yang lebih tegas, agar orang bisa langsung tahu ini mesin, bukan manusia?
Altman: Kami sebenarnya sudah menetapkan batas. Misalnya, kami tidak membuat avatar manusia yang sangat realistis. Kami berusaha agar produk kami jelas menunjukkan bahwa ini adalah “alat,” bukan “manusia.” Jadi, dibandingkan produk lain di pasar, garis batas kami sudah cukup jelas. Saya rasa ini sangat penting.
Thompson: Tapi kamu juga menargetkan AGI, dan definisi kamu tentang AGI adalah “mencapai dan melampaui kecerdasan manusia.” Itu bukan “setara manusia.”
Altman: Saya tidak tertarik membangun dunia di mana orang menggantikan interaksi manusia dengan AI. Saya ingin dunia di mana AI membantu orang menghabiskan lebih banyak waktu untuk interaksi manusia, karena mereka punya lebih banyak waktu.
Saya juga tidak terlalu khawatir orang akan salah mengira AI dan manusia secara umum. Tentu, ada beberapa yang sudah begitu, memutuskan mengurung diri di dunia maya dan terisolasi. Tapi sebagian besar orang sangat ingin terhubung dan berinteraksi dengan orang lain.
Thompson: Dalam pengambilan keputusan produk, apa yang bisa membuat batas ini lebih jelas? Saya dari jauh melihat, tidak bisa ikut rapat “harus membuat AI lebih mirip manusia atau lebih robot.” Keuntungan membuatnya lebih mirip manusia adalah orang suka, dan lebih jelas batasnya. Tapi, apa lagi yang bisa kamu lakukan, terutama saat alat ini makin kuat, untuk menetapkan batas yang lebih tegas?
Altman: Menariknya, permintaan paling umum dari orang, bahkan yang tidak ingin hubungan parasosial dengan AI, adalah “bisakah lebih hangat?” Mereka merasa AI terlalu dingin, seperti robot. Dan kenyataannya, itu bukan yang mereka inginkan.
Tapi mereka juga tidak mau versi yang terlalu palsu, terlalu “manusiawi,” sangat ramah, sangat… Saya pernah coba mode suara yang sangat human-like, yang bernafas, berhenti sejenak, bilang “hmm…” seperti sekarang. Saya tidak suka itu, rasanya secara fisiologis tidak nyaman.
Ketika AI berbicara lebih seperti robot yang efisien tapi tetap hangat, dan bisa melewati “sistem deteksi” di otak saya, saya merasa lebih nyaman. Jadi, kita perlu keseimbangan. Orang juga berbeda-beda preferensinya.
Thompson: Jadi, cara membedakan AI adalah, kalau dia bicara sangat teratur, sangat terstruktur, itu AI, bukan kita yang kadang-kadang tersandung dan tidak jelas.
Kembali ke topik “menulis,” ini menarik karena secara mendalam, banyak konten di internet sudah dihasilkan AI, dan manusia mulai meniru gaya AI. Di masa depan, kita akan melatih model di internet yang sebagian besar adalah karya AI, dan juga data sintetis dari model yang sudah dilatih sebelumnya. Jadi, kita sebenarnya sedang melakukan “salinan dari salinan.”
Altman: Model GPT pertama adalah yang terakhir yang tidak banyak mengandung data AI.
Thompson: Apakah kalian pernah melatih model sepenuhnya dengan data sintetis?
Altman: Saya tidak yakin harus bilang ya atau tidak.
Thompson: Baik. Tapi kalian pakai banyak data sintetis.
Altman: Banyak data sintetis.
Thompson: Seberapa khawatir kamu kalau model jadi “gila”?
Altman: Tidak khawatir. Karena tujuan melatih model ini adalah agar mereka menjadi penalar yang sangat hebat. Itu yang paling kita inginkan. Ada hal lain, tapi yang utama adalah mereka harus sangat pintar. Saya percaya, dengan data sintetis saja, kita bisa capai itu.
Thompson: Jadi, untuk memperjelas, kamu percaya kita bisa melatih model yang bahkan lebih baik dari yang dilatih dengan data manusia, hanya dengan data buatan?
Altman: Kita bisa coba eksperimen, apakah kita bisa melatih model yang secara matematis melampaui manusia tanpa data manusia sama sekali. Saya rasa, bisa. Itu bisa dip