Google Meluncurkan Chip AI Terpisah untuk Pelatihan dan Inferensi, Meningkatkan Kinerja 2,8x

Pesan Berita Gate, 23 April — Google mengumumkan pada 22 April bahwa pihaknya akan merilis chip TPU generasi kedelapan yang terpisah untuk pelatihan dan inferensi pada akhir tahun ini, menggantikan desain gabungannya sebelumnya. Langkah ini menargetkan beban kerja AI agent dan memberi pelanggan Google Cloud alternatif selain perangkat keras Nvidia.

Chip pelatihan memberikan kinerja 2,8 kali lebih tinggi dibanding TPU Ironwood generasi ketujuh milik Google dengan harga yang sama, sementara chip inferensi 80% lebih cepat dan dilengkapi SRAM 384 MB, tiga kali lipat jumlah yang ada di Ironwood. Pemisahan kapabilitas pelatihan dan inferensi mencerminkan pergeseran cara perusahaan mengoptimalkan untuk kebutuhan komputasi yang berbeda.

Inisiatif ini didukung oleh kemitraan jangka panjang dengan Broadcom dan Anthropic. Anthropic berencana menggunakan sekitar 3,5 gigawatt komputasi TPU melalui Broadcom mulai tahun 2027, dengan Broadcom menangani manufaktur chip dan komponen jaringan hingga 2031. Anthropic, perusahaan rintisan AI di balik Claude, baru-baru ini melihat pendapatan tahunan yang dinormalisasi melebihi $30 billion. Sementara itu, Apple, Microsoft, Meta, dan Amazon juga memperluas upaya chip AI khusus untuk mengurangi ketergantungan pada Nvidia, yang tetap menjadi pemimpin pasar.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

AI Keuangan Terkait Trump Akuisisi Block Street senilai 43 Juta Dolar AS

Menurut Fortune, AI Financial, sebuah perusahaan kripto yang terkait dengan keluarga Trump dan sebelumnya dikenal sebagai Alt5 Sigma, mengakuisisi Block Street, sebuah perusahaan infrastruktur kripto, senilai 43 juta dolar AS minggu lalu. Matthew Morgan, penasihat AI Financial dan CEO Block Street, menyatakan bahwa akuisisi tersebut bukanlah

GateNews30menit yang lalu

Saham Riot Melonjak 8% Setelah Memperluas Kesepakatan Pusat Data AMD

Saham Riot Platforms naik 8% setelah ekspansi kemitraan pusat data AMD dan perbaikan ketentuan pendanaan, yang mencerminkan pergeseran strategis penambang bitcoin tersebut ke arah kecerdasan buatan dan pusat data

GateNews3jam yang lalu

Minnesota Melarang Alat AI untuk Gambar Intim Tanpa Persetujuan, Dikenai Denda Hingga $500K

Menurut Decrypt, legislatif Minnesota mengesahkan RUU pada 2 Mei yang melarang situs web dan aplikasi menyediakan alat AI yang menghasilkan gambar intim non-konsensual dari individu yang dapat diidentifikasi. Undang-undang ini melarang platform mengizinkan pengguna mengakses atau menggunakan alat “deepfake” seperti itu, dan melarang

GateNews4jam yang lalu

Pengguna ChatGPT Kini Bisa Mengakses Langganan di Platform OpenClaw, Sam Altman Mengumumkan

Menurut pengumuman Sam Altman hari ini, pengguna ChatGPT kini dapat masuk ke platform agen OpenClaw menggunakan akun ChatGPT mereka dan langsung mengakses langganan ChatGPT yang sudah ada di platform tersebut.

GateNews5jam yang lalu

xAI Meluncurkan Grok Custom Voices, Memungkinkan Pengguna Mengkloning Suara AI Mereka Sendiri dalam Satu Menit

Menurut Beating, xAI meluncurkan Grok Custom Voices dan Voice Library, yang memungkinkan pengguna merekam satu menit audio di konsol xAI untuk membuat custom voice_id yang dapat digunakan dengan API Grok TTS dan Voice Agent. Fitur ini mendukung aplikasi termasuk agen layanan pelanggan, pembuatan konten,

GateNews6jam yang lalu

Setelah HBM, apakah bottleneck memori AI adalah HBF? Pemenang Penghargaan Turing David Patterson: Inferensi akan mendefinisikan ulang arsitektur penyimpanan

Pemenang Penghargaan Turing David Patterson menyoroti bahwa seiring AI beralih dari pelatihan ke inferensi skala besar, hambatan memori berikutnya mungkin bukan HBM, melainkan HBF (high-bandwidth flash memory). HBF menyediakan kapasitas besar dan konsumsi daya rendah dengan tumpukan NAND Flash, berperan untuk akses konteks dan data antara dalam proses inferensi, berbeda dengan HBM yang berfokus pada kecepatan. SK hynix dan SanDisk mendorong standarisasi, dan memperkirakan kebutuhan HBF pada tahun 2038 bisa melampaui HBM.

ChainNewsAbmedia7jam yang lalu
Komentar
0/400
Tidak ada komentar