Alphabet (GOOGL) meluncurkan chip TPU generasi ke-8 bersama Broadcom: TPU 8t untuk pelatihan dan TPU 8i untuk inferensi, menawarkan performa 80% lebih baik per dolar. The post AlphabetAlphabet (GOOGL) meluncurkan chip TPU generasi ke-8 bersama Broadcom: TPU 8t untuk pelatihan dan TPU 8i untuk inferensi, menawarkan performa 80% lebih baik per dolar. The post Alphabet

Alphabet (GOOGL) Meluncurkan Chip TPU Generasi ke-8 Serbaguna yang Dikembangkan Bersama Broadcom

2026/04/22 22:16
durasi baca 3 menit
Untuk memberikan masukan atau menyampaikan kekhawatiran terkait konten ini, silakan hubungi kami di [email protected]

Sorotan Utama

  • Alphabet memperkenalkan unit pemrosesan tensor generasi ke-8: TPU 8t yang dioptimalkan untuk pelatihan dan TPU 8i untuk beban kerja inferensi
  • TPU 8i yang berfokus pada inferensi memberikan performa-per-dolar 80% lebih unggul dibandingkan pendahulunya, Ironwood
  • Kedua prosesor dikembangkan bermitra dengan Broadcom dan dirancang bekerja sama dengan Google DeepMind
  • Prosesor pelatihan TPU 8t dapat diskalakan hingga 9.600 chip dan menawarkan bandwidth antarchip dua kali lipat dibandingkan Ironwood
  • Pelanggan Google Cloud akan mendapatkan akses ke kedua varian chip tersebut pada akhir 2025

Divisi Google milik Alphabet memperkenalkan dua prosesor kecerdasan buatan khusus pada hari Rabu, menandai pertama kalinya arsitektur unit pemrosesan tensor-nya dipisahkan menjadi chip berbeda untuk operasi pelatihan dan inferensi.

TPU 8t dirancang khusus untuk pelatihan model AI, sementara pasangannya, TPU 8i, berfokus sepenuhnya pada inferensi—proses penerapan model yang telah dilatih dalam aplikasi dunia nyata. Broadcom berperan sebagai mitra pengembangan bersama, melanjutkan kolaborasi yang telah berlangsung lebih dari sepuluh tahun.


GOOGL Stock Card
Alphabet Inc., GOOGL

Ini merupakan perubahan strategi dari pendekatan sebelumnya. Iterasi TPU terdahulu menggabungkan kemampuan pelatihan dan inferensi dalam satu prosesor. Google mengaitkan perubahan ini dengan munculnya sistem AI agentik—model otonom yang beroperasi dalam loop umpan balik berkelanjutan dengan pengawasan manusia minimal—yang membutuhkan silikon yang lebih bertujuan khusus.

TPU 8i yang berorientasi inferensi memuat 384 megabyte SRAM per prosesor—tiga kali kapasitas Ironwood. Menurut Google, peningkatan arsitektur ini menghilangkan hambatan "ruang tunggu", mengurangi lonjakan latensi yang terjadi ketika banyak pengguna secara bersamaan melakukan kueri pada sebuah model.

Kemampuan Inferensi Mengalami Peningkatan Drastis

Dibandingkan Ironwood, TPU 8i mencapai efisiensi biaya 80% lebih baik. Dalam istilah operasional, organisasi dapat mengakomodasi hampir dua kali lipat permintaan pengguna tanpa menambah anggaran.

Chip ini juga menunjukkan efisiensi energi per watt yang meningkat hingga 2x, dimungkinkan oleh teknologi manajemen daya dinamis yang mengatur konsumsi energi berdasarkan kebutuhan beban kerja secara real-time.

Untuk pertama kalinya, kedua prosesor menggunakan CPU Axion milik Google sebagai prosesor host, memungkinkan optimasi pada tingkat arsitektur sistem daripada hanya membatasi peningkatan pada performa chip individual.

Terkait kemampuan pelatihan, konfigurasi superpod TPU 8t mendukung kluster hingga 9.600 prosesor dengan memori bandwidth tinggi sebesar 2 petabyte. Ini mewakili dua kali lipat bandwidth komunikasi antarchip Ironwood, dan Google mengklaim hal ini dapat mempersingkat jadwal pengembangan model frontier dari hitungan bulan menjadi hanya beberapa minggu.

Prosesor pelatihan ini menghadirkan performa komputasi 2,8 kali lipat dari arsitektur Ironwood generasi ketujuh pada titik harga yang setara.

Pengadopsi Awal dan Dampak Industri

Adopsi awal terus berkembang. Citadel Securities mengembangkan platform riset kuantitatif menggunakan infrastruktur TPU Google. Semua tujuh belas laboratorium nasional Departemen Energi Amerika Serikat menjalankan aplikasi AI co-scientist pada prosesor tersebut. Anthropic telah berkomitmen untuk memanfaatkan kapasitas komputasi TPU Google dalam jumlah gigawatt.

Analis di DA Davidson memproyeksikan pada bulan September bahwa divisi TPU Google, bila digabungkan dengan Google DeepMind, dapat memiliki valuasi mendekati $900 miliar.

Google mempertahankan model distribusi eksklusif untuk TPU—tidak tersedia untuk pembelian langsung dan hanya dapat diakses melalui layanan Google Cloud. Nvidia terus memasok perangkat keras GPU ke Google, dan perusahaan mengonfirmasi bahwa mereka akan menjadi salah satu penyedia layanan cloud awal yang menawarkan platform Vera Rubin Nvidia yang akan datang ketika diluncurkan akhir tahun ini.

Prosesor ini dirancang dalam kolaborasi erat dengan Google DeepMind, yang telah menerapkannya untuk melatih model bahasa Gemini dan mengoptimalkan algoritma yang mendukung platform Search dan YouTube.

Google mengumumkan bahwa TPU 8t dan TPU 8i akan tersedia secara umum bagi pelanggan platform cloud pada akhir 2025.

The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.

Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.

USD1 Genesis: 0 Biaya + 12% APR

USD1 Genesis: 0 Biaya + 12% APRUSD1 Genesis: 0 Biaya + 12% APR

Pengguna baru: stake hingga 600% APR Waktu terbatas!