Google Ironwood TPU:Performa 10x + Empat mitra untuk menantang Nvidia

ChainNewsAbmedia

Berdasarkan laporan mendalam Bloomberg dan pengumuman resmi Google, pada 22 April Google secara resmi memperluas jajaran chip AI buatannya: Ironwood yang khusus untuk komputasi inferensi (TPU generasi ketujuh) kini tersedia secara penuh di Google Cloud, sekaligus meluncurkan kerja sama desain generasi berikutnya dengan empat mitra—Broadcom, MediaTek, Marvell, dan Intel. Tujuannya adalah menantang posisi dominan Nvidia di pasar komputasi AI melalui rantai pasokan chip yang disesuaikan.

Ironwood: TPU generasi ketujuh, pertama kali dirancang khusus untuk inferensi

Ironwood merupakan produk generasi ketujuh dari rangkaian TPU milik Google, dan juga chip khusus inferensi pertama di bawah strategi “pemisahan pelatihan dan inferensi.” Spesifikasi yang diungkapkan Google: kinerja puncak per chip untuk TPU v5p adalah 10 kali lipat, dilengkapi memori 192GB HBM3E, lebar pita memori mencapai 7,2 TB/s, satu superpod dapat diskalakan hingga 9.216 unit Ironwood berpendingin cair (liquid-cooled), dengan total beban komputasi FP8 mencapai 42,5 exaflops.

Google secara resmi menyatakan Ironwood kini telah “dibuka sepenuhnya untuk pelanggan Google Cloud agar dapat digunakan,” dan perkiraan jumlah pengiriman tahun ini mencapai level “jutaan unit.” Anthropic telah berkomitmen menggunakan hingga 1 juta unit Ironwood TPU, sementara Meta menandatangani “kontrak multi-tahun bernilai miliaran dolar” untuk menggunakan TPU melalui Google Cloud.

Pembagian tugas empat mitra: pelatihan ke Broadcom, inferensi ke MediaTek

Rantai pasokan chip generasi berikutnya dari Google dibagi dengan jelas sebagai berikut:

Mitra Kode Peran Keunggulan Broadcom Sunfish Pelatihan khusus Melanjutkan kerja sama TPU yang sudah ada, memimpin node pelatihan skala besar MediaTek (聯發科) Zebrafish Khusus inferensi Mengklaim biaya 20–30% lebih rendah dibanding solusi Broadcom Marvell Dalam tahap negosiasi Unit pemrosesan memori (MPU) + tambahan TPU inferensi untuk optimalisasi HBM dan inference Intel Tidak dipublikasikan Ikut berperan dalam desain, memperkuat diversifikasi rantai pasokan

Ini adalah model pertama yang terlihat di industri AI: “empat mitra berjalan paralel, dengan pembagian tugas pelatihan-inferensi yang jelas.” Google menghindari ketergantungan struktural pada satu vendor tunggal seperti Nvidia melalui penyebaran risiko IP dan strategi tawar-menawar dengan pihak kompetitor. Peta jalan berlanjut hingga akhir 2027 untuk TPU v8, yang akan diproduksi menggunakan proses 2nm TSMC.

Makna strategis: yang ditantang bukan chip tunggal, melainkan rantai pasokan

Dalam tiga tahun terakhir, pasar chip AI hampir didominasi sepenuhnya oleh Nvidia, dengan ekosistem perangkat lunak CUDA dan dua lapis parit pertahanan berupa chip H100/GB200. Strategi Ironwood Google dan empat mitranya bukan bertujuan “melampaui” spesifikasi di satu titik, melainkan meniru logika industri Nvidia: “platform terstandarisasi + pembelian oleh banyak pelanggan”—agar TPU tidak hanya dipakai sendiri oleh Google, tetapi menjadi opsi komputasi berorientasi komersial yang bisa digunakan bersama oleh perusahaan AI utama seperti Anthropic dan Meta.

Makna komitmen 1 juta TPU dari Anthropic sangatlah krusial: ini adalah komitmen kapasitas komputasi terbesar dari satu perusahaan AI selain Nvidia. Komitmen tersebut saling melengkapi dengan kesepakatan 5GW/100 miliar AWS yang dicapai pada 4/20 Anthropic dan Amazon—di satu sisi terikat pada AWS Trainium, di sisi lain terikat pada Google TPU. Anthropic menurunkan ketergantungan pada Nvidia melalui strategi “dual chip kustom.” Meta juga untuk pertama kalinya secara terbuka memasukkan TPU ke dalam beban kerja pelatihan/inferensi AI mereka sendiri, membentuk sinyal lain.

Respons pasar dan keterkaitan industri

Sebelum pengungkapan kali ini, MediaTek telah dipandang sebagai “penerima manfaat chip kustom Google,” dan pengungkapan kode Zebrafish untuk pertama kalinya secara langsung menempatkan MediaTek sebagai mitra desain chip inferensi Google. Ini memperpanjang narasi “aliansi chip non-Nvidia” yang terkait baru-baru ini: AMD × GlobalFoundries (silikon fotonik) serta Marvell × Google (MPU).

Nvidia pada periode yang sama masih didukung oleh GB200 dan platform Rubin generasi berikutnya, tetapi kombinasi komputasi pada sisi pelanggan sedang bergeser dari “sepenuhnya Nvidia” menjadi paralel tiga jalur: Nvidia + TPU + AWS Trainium. Hal ini juga berarti kapasitas produksi 2nm TSMC makin ramai diperebutkan: empat pelanggan besar—Google, Nvidia, Apple, dan Amazon—antri, dan daya tawar pasokan untuk pembuatan wafer (foundry) terus meningkat.

Artikel Google Ironwood TPU: 10 kali kinerja + empat mitra melawan Nvidia pertama kali muncul di Lian News ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Accel Memimpin $60M Putaran Seri A untuk startup AI e-commerce Israel ZyG dengan Valuasi $500M

Menurut Calcalist, startup AI e-commerce asal Israel, ZyG, mengumpulkan 60 juta dolar AS dalam putaran Series A yang dipimpin oleh Accel dengan valuasi 500 juta dolar AS. Pendanaan ini membawa total modal yang dihimpun ZyG menjadi 118 juta dolar AS, dengan partisipasi dari Lightspeed, Viola, Bessemer, Access Industries, dan Wiz CEO Assaf

GateNews6menit yang lalu

Instalasi senyap Chrome untuk model Gemini Nano berukuran 4GB: peneliti mengungkap adanya penggunaan tanpa persetujuan, berpotensi melanggar hukum privasi UE

Chrome pada 20–29/4/2026, tanpa persetujuan pengguna, secara diam-diam menginstal sekitar 4 GB model Gemini Nano di perangkat (weights.bin, OptGuideOnDeviceModel), tanpa opsi opt-in/opt-out. Setelah dihapus, pembaruan akan otomatis mengunduh lagi, sehingga berdampak pada lebih dari 1 miliar pengguna. Gemini Nano adalah LLM untuk perangkat, tetapi AI Mode sebenarnya adalah pintu masuk berbasis cloud, bukan model lokal, sehingga mudah menimbulkan kesalahpahaman soal privasi. Tindakan ini berpotensi melanggar EU ePrivacy 5(3), dengan risiko denda dan biaya emisi karbon. Dapat dicegah melalui alat manajemen Enterprise.

ChainNewsAbmedia21menit yang lalu

AMD Memproyeksikan Pendapatan Q2 sebesar 11,2 miliar dolar AS, Melampaui Perkiraan karena Permintaan AI

Menurut Reuters, Advanced Micro Devices memperkirakan pendapatan kuartal kedua sekitar 11,2 miliar dolar AS, plus atau minus 300 juta dolar AS, melampaui estimasi Wall Street sebesar 10,52 miliar dolar AS berkat permintaan kuat untuk infrastruktur AI. Saham perusahaan pembuat chip itu naik 12% setelah pengumuman tersebut. Kuartal pertama

GateNews26menit yang lalu

AI mendorong permintaan semikonduktor, Samsung melonjak 12% hingga kapitalisasi pasar menembus 1 triliun dolar AS

Di bawah dorongan kebutuhan infrastruktur AI, kapitalisasi pasar Samsung menembus 1 triliun dolar AS, harga saham naik tajam dalam setahun terakhir; permintaan memori kuat, harga NAND/DRAM meningkat, dan diperkirakan pada 2027 keseimbangan pasokan-permintaan akan semakin ketat. Apple dikabarkan mempertimbangkan outsourcing chip inti di AS; jika terwujud, hal itu akan memperluas diversifikasi rantai pasok. Dengan tekanan biaya untuk ponsel dan layar serta risiko ketenagakerjaan, Forward P/E sekitar 5,3x; analis memprediksi potensi kenaikan 30% dalam 12 bulan ke depan.

ChainNewsAbmedia33menit yang lalu

Anthropic berkomitmen $200B kepada Google Cloud selama lebih dari lima tahun

Anthropic telah setuju untuk menghabiskan US$200 miliar untuk Google Cloud selama lima tahun, menurut Reuters. Komitmen ini mewakili lebih dari 40% dari antrian pendapatan cloud yang diungkap Alphabet, dan saham Alphabet naik sekitar 2% pada perdagangan lanjutan setelah pengumuman tersebut. Rincian Kesepakatan dan Alphabet

CryptoFrontier36menit yang lalu

OpenAI dan Anthropic Luncurkan Akuisisi Layanan AI Berbasis PE melalui Ventures

OpenAI dan Anthropic secara terpisah bermitra dengan perusahaan ekuitas swasta untuk mengakuisisi perusahaan layanan yang membantu bisnis menerapkan kecerdasan buatan, menurut Reuters. Langkah ini bertujuan untuk mengamankan para insinyur dan konsultan agar mereka dapat meluncurkan model AI mereka untuk pelanggan korporat. OpenAI's

CryptoFrontier36menit yang lalu
Komentar
0/400
Tidak ada komentar