Selama konferensi CES, arsitektur Rubin yang sepenuhnya baru dari NVIDIA menjadi pusat perhatian pasar baru-baru ini, selain arsitektur MOE yang lain merupakan terobosan besar, dan apa yang dirancang khusus untuk era Agentic AI, saya telah mempelajarinya secara mendalam dan benar-benar merasakan nuansa "revolusi diri" dari Jensen Huang:
1)Dulu NVIDIA bergantung pada keunggulan perangkat keras GPU, memanfaatkan masa bonus di mana semua raksasa AI sedang gila membeli daya komputasi untuk melatih model besar. Saat itu logikanya sangat sederhana, semakin banyak kartu grafis yang dimiliki, semakin baik model yang bisa dilatih.
Namun sekarang, perang AI telah beralih dari medan "daya komputasi" ke "inferensi", terutama setelah kedatangan era Agentic, di mana AI perlu menangani inferensi dengan frekuensi tinggi, multi-langkah, dan konteks yang sangat panjang.
Pada saat ini, parameter model sering mencapai triliunan, throughput data sangat besar, GPU bisa sangat cepat, tetapi jika transfer data dari memori tidak cukup cepat, GPU harus idle, ini adalah "tembok kapasitas memori". Dengan kata lain, memiliki banyak kartu grafis tidak lagi cukup, perlu juga memori dengan kapasitas tinggi dan bandwidth besar untuk mendukungnya. Rubin bertujuan menyelesaikan masalah ini.
2)Oleh karena itu, HBM4 yang pertama kali diperkenalkan Rubin mampu mendukung memori bandwidth tinggi generasi keempat, mencapai 22TB/s. Tapi yang lebih penting lagi adalah, dengan dukungan teknologi NVLink 6 (bandwidth dalam rak 260TB/s), 72 kartu ini secara logika diubah menjadi satu "chip raksasa".
Apa artinya ini? Sebelumnya, saat membeli kartu grafis, yang dibeli adalah komponen independen, data yang ditransfer antar kartu seperti pengiriman barang melalui beberapa pusat transit. Sekarang, melalui interkoneksi dengan kepadatan sangat tinggi, data yang mengalir antar GPU hampir tidak terasa jaraknya secara fisik, 72 pekerja tidak lagi bekerja sendiri-sendiri, melainkan berbagi satu otak.
Saya rasa ini adalah trik sejati Rubin: bukan sekadar menumpuk parameter perangkat keras, tetapi merekonstruksi aliran data seluruh sistem.
3)Jika MOE (arsitektur model ahli campuran) adalah pukulan reduksi bagi model bisnis "penumpukan kartu secara brutal" dari NVIDIA yang didukung oleh pendatang baru seperti DeepSeek, maka Rubin tampaknya adalah serangan balik strategis dari Jensen Huang. Bukan lagi bersaing soal siapa yang lebih hemat kartu, melainkan secara langsung merekonstruksi biaya penggunaan AI. Tentu saja, langkah cerdas ini juga berarti NVIDIA benar-benar akan mengucapkan selamat tinggal pada mode lama penumpukan kartu secara brutal.
Jensen Huang menghitung satu hal lain: agar era Agentic benar-benar bisa diterapkan di berbagai industri, harus melewati hambatan biaya Token, yang merupakan tren besar yang tidak bisa dihindari oleh NVIDIA.
Menurut Jensen Huang, daripada menunggu raksasa seperti Google, Meta, dan lainnya mengembangkan chip sendiri dan menggerogoti pasar, atau digantikan oleh model dari DeepSeek yang mengubah pasar pasokan, lebih baik menjadi orang yang memecahkan masalah secara aktif.
4)Pertanyaannya, bagaimana NVIDIA setelah melakukan revolusi diri ini? Jalurnya juga sangat jelas, dari "menjual kartu grafis" menjadi "menjual sistem", dari melayani beberapa perusahaan besar menjadi benar-benar mempopulerkan AI.
Dulu saat membeli H100, NVIDIA selalu mendapatkan keuntungan dari penjualan kartu grafis itu sendiri, tetapi ke depannya Rubin akan memberitahu Anda: Anda harus membeli satu set NVL72 rack—72 GPU, Switch NVLink, sistem pendingin cair lengkap, rak server, bahkan termasuk tumpukan perangkat lunak yang lengkap, semuanya dijual sebagai satu paket.
Perhitungan Jensen juga sangat jelas, tampaknya biaya perangkat keras setelah dikemas menjadi lebih mahal, tetapi dengan menambahkan efisiensi inferensi yang ekstrem, biaya unit penggunaan AI bagi pembeli akan turun, dan secara alami mereka tidak akan kehilangan pangsa pasar.
Tapi, tetapi, cara ini juga meningkatkan ambang masuk bagi pemain kecil dan menengah. Hanya perusahaan besar dan penyedia layanan cloud yang mampu, yang akan memperkuat monopoli daya komputasi. Dalam situasi kompetisi saat ini, ini bisa disebut sebagai taruhan besar, karena jika produksi HBM4 mengalami masalah, akan ada solusi pengganti dari AMD, Google TPU, dan lainnya yang memanfaatkan peluang pasar, dan mimpi NVIDIA menjual sistem mungkin tidak semudah yang dibayangkan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Selama konferensi CES, arsitektur Rubin yang sepenuhnya baru dari NVIDIA menjadi pusat perhatian pasar baru-baru ini, selain arsitektur MOE yang lain merupakan terobosan besar, dan apa yang dirancang khusus untuk era Agentic AI, saya telah mempelajarinya secara mendalam dan benar-benar merasakan nuansa "revolusi diri" dari Jensen Huang:
1)Dulu NVIDIA bergantung pada keunggulan perangkat keras GPU, memanfaatkan masa bonus di mana semua raksasa AI sedang gila membeli daya komputasi untuk melatih model besar. Saat itu logikanya sangat sederhana, semakin banyak kartu grafis yang dimiliki, semakin baik model yang bisa dilatih.
Namun sekarang, perang AI telah beralih dari medan "daya komputasi" ke "inferensi", terutama setelah kedatangan era Agentic, di mana AI perlu menangani inferensi dengan frekuensi tinggi, multi-langkah, dan konteks yang sangat panjang.
Pada saat ini, parameter model sering mencapai triliunan, throughput data sangat besar, GPU bisa sangat cepat, tetapi jika transfer data dari memori tidak cukup cepat, GPU harus idle, ini adalah "tembok kapasitas memori". Dengan kata lain, memiliki banyak kartu grafis tidak lagi cukup, perlu juga memori dengan kapasitas tinggi dan bandwidth besar untuk mendukungnya. Rubin bertujuan menyelesaikan masalah ini.
2)Oleh karena itu, HBM4 yang pertama kali diperkenalkan Rubin mampu mendukung memori bandwidth tinggi generasi keempat, mencapai 22TB/s. Tapi yang lebih penting lagi adalah, dengan dukungan teknologi NVLink 6 (bandwidth dalam rak 260TB/s), 72 kartu ini secara logika diubah menjadi satu "chip raksasa".
Apa artinya ini? Sebelumnya, saat membeli kartu grafis, yang dibeli adalah komponen independen, data yang ditransfer antar kartu seperti pengiriman barang melalui beberapa pusat transit. Sekarang, melalui interkoneksi dengan kepadatan sangat tinggi, data yang mengalir antar GPU hampir tidak terasa jaraknya secara fisik, 72 pekerja tidak lagi bekerja sendiri-sendiri, melainkan berbagi satu otak.
Saya rasa ini adalah trik sejati Rubin: bukan sekadar menumpuk parameter perangkat keras, tetapi merekonstruksi aliran data seluruh sistem.
3)Jika MOE (arsitektur model ahli campuran) adalah pukulan reduksi bagi model bisnis "penumpukan kartu secara brutal" dari NVIDIA yang didukung oleh pendatang baru seperti DeepSeek, maka Rubin tampaknya adalah serangan balik strategis dari Jensen Huang. Bukan lagi bersaing soal siapa yang lebih hemat kartu, melainkan secara langsung merekonstruksi biaya penggunaan AI. Tentu saja, langkah cerdas ini juga berarti NVIDIA benar-benar akan mengucapkan selamat tinggal pada mode lama penumpukan kartu secara brutal.
Jensen Huang menghitung satu hal lain: agar era Agentic benar-benar bisa diterapkan di berbagai industri, harus melewati hambatan biaya Token, yang merupakan tren besar yang tidak bisa dihindari oleh NVIDIA.
Menurut Jensen Huang, daripada menunggu raksasa seperti Google, Meta, dan lainnya mengembangkan chip sendiri dan menggerogoti pasar, atau digantikan oleh model dari DeepSeek yang mengubah pasar pasokan, lebih baik menjadi orang yang memecahkan masalah secara aktif.
4)Pertanyaannya, bagaimana NVIDIA setelah melakukan revolusi diri ini? Jalurnya juga sangat jelas, dari "menjual kartu grafis" menjadi "menjual sistem", dari melayani beberapa perusahaan besar menjadi benar-benar mempopulerkan AI.
Dulu saat membeli H100, NVIDIA selalu mendapatkan keuntungan dari penjualan kartu grafis itu sendiri, tetapi ke depannya Rubin akan memberitahu Anda: Anda harus membeli satu set NVL72 rack—72 GPU, Switch NVLink, sistem pendingin cair lengkap, rak server, bahkan termasuk tumpukan perangkat lunak yang lengkap, semuanya dijual sebagai satu paket.
Perhitungan Jensen juga sangat jelas, tampaknya biaya perangkat keras setelah dikemas menjadi lebih mahal, tetapi dengan menambahkan efisiensi inferensi yang ekstrem, biaya unit penggunaan AI bagi pembeli akan turun, dan secara alami mereka tidak akan kehilangan pangsa pasar.
Tapi, tetapi, cara ini juga meningkatkan ambang masuk bagi pemain kecil dan menengah. Hanya perusahaan besar dan penyedia layanan cloud yang mampu, yang akan memperkuat monopoli daya komputasi. Dalam situasi kompetisi saat ini, ini bisa disebut sebagai taruhan besar, karena jika produksi HBM4 mengalami masalah, akan ada solusi pengganti dari AMD, Google TPU, dan lainnya yang memanfaatkan peluang pasar, dan mimpi NVIDIA menjual sistem mungkin tidak semudah yang dibayangkan.