Alphabet (GOOGL) ra mắt chip TPU thế hệ 8 cùng Broadcom: TPU 8t cho huấn luyện và TPU 8i cho suy luận, mang lại hiệu suất trên mỗi đô la tốt hơn 80%. The post AlphabetAlphabet (GOOGL) ra mắt chip TPU thế hệ 8 cùng Broadcom: TPU 8t cho huấn luyện và TPU 8i cho suy luận, mang lại hiệu suất trên mỗi đô la tốt hơn 80%. The post Alphabet

Alphabet (GOOGL) Ra Mắt Chip TPU Thế Hệ 8 Đa Năng Được Phát Triển Cùng Broadcom

2026/04/22 22:16
Đọc trong 5 phút
Đối với phản hồi hoặc thắc mắc liên quan đến nội dung này, vui lòng liên hệ với chúng tôi qua [email protected]

Điểm nổi bật

  • Alphabet ra mắt các đơn vị xử lý tensor thế hệ thứ 8: TPU 8t được tối ưu cho việc huấn luyện và TPU 8i cho các tác vụ suy luận
  • TPU 8i tập trung vào suy luận mang lại hiệu suất trên mỗi đô la vượt trội hơn 80% so với thế hệ tiền nhiệm Ironwood
  • Cả hai bộ xử lý được phát triển hợp tác với Broadcom và được thiết kế kết hợp với Google DeepMind
  • Bộ xử lý huấn luyện TPU 8t có thể mở rộng lên đến 9.600 chip và cung cấp băng thông liên chip gấp đôi so với Ironwood
  • Khách hàng của Google Cloud sẽ được tiếp cận cả hai biến thể chip vào cuối năm 2025

Bộ phận Google của Alphabet đã ra mắt hai bộ xử lý trí tuệ nhân tạo chuyên dụng vào thứ Tư, đánh dấu lần đầu tiên kiến trúc đơn vị xử lý tensor của hãng được tách thành các chip riêng biệt dành cho việc huấn luyện và suy luận.

TPU 8t được thiết kế chuyên biệt cho việc huấn luyện mô hình AI, trong khi người anh em TPU 8i tập trung hoàn toàn vào suy luận—quá trình triển khai các mô hình đã được huấn luyện trong các ứng dụng thực tế. Broadcom đóng vai trò là đối tác đồng phát triển, tiếp nối sự hợp tác đã kéo dài hơn mười năm.


GOOGL Stock Card
Alphabet Inc., GOOGL

Đây là sự chuyển hướng chiến lược so với các phương pháp trước đây. Các thế hệ TPU trước kết hợp cả khả năng huấn luyện và suy luận trong một bộ xử lý duy nhất. Google cho rằng sự thay đổi này xuất phát từ sự nổi lên của các hệ thống AI agentic—các mô hình tự hành hoạt động trong các vòng phản hồi liên tục với sự giám sát tối thiểu của con người—đòi hỏi silicon được xây dựng có mục đích hơn.

TPU 8i định hướng suy luận tích hợp 384 megabyte SRAM trên mỗi bộ xử lý—gấp ba lần dung lượng của Ironwood. Theo Google, cải tiến kiến trúc này loại bỏ nút thắt cổ chai "phòng chờ", giảm các đợt tăng độ trễ xảy ra khi nhiều người dùng đồng thời truy vấn một mô hình.

Khả năng suy luận được cải thiện đáng kể

So với Ironwood, TPU 8i đạt hiệu quả chi phí tốt hơn 80%. Về mặt vận hành, các tổ chức có thể đáp ứng gần gấp đôi nhu cầu người dùng mà không cần tăng ngân sách.

Chip cũng thể hiện hiệu quả năng lượng được cải thiện lên đến 2 lần trên mỗi watt, được hỗ trợ bởi công nghệ quản lý nguồn điện động điều chỉnh mức tiêu thụ năng lượng dựa trên yêu cầu khối lượng công việc thời gian thực.

Lần đầu tiên, cả hai bộ xử lý đều sử dụng Axion CPU của Google làm bộ xử lý chủ, cho phép tối ưu ở cấp độ kiến trúc hệ thống thay vì chỉ giới hạn cải tiến ở hiệu suất chip riêng lẻ.

Về khả năng huấn luyện, cấu hình superpod TPU 8t hỗ trợ các cụm lên đến 9.600 bộ xử lý với 2 petabyte bộ nhớ băng thông cao. Điều này đại diện cho băng thông giao tiếp liên chip gấp đôi so với Ironwood, và Google tuyên bố có thể rút ngắn thời gian phát triển mô hình tiên tiến từ nhiều tháng xuống chỉ còn vài tuần.

Bộ xử lý huấn luyện mang lại hiệu suất tính toán gấp 2,8 lần so với kiến trúc Ironwood thế hệ thứ bảy ở cùng mức giá.

Những người dùng sớm và tác động đến ngành

Việc áp dụng sớm đang ngày càng thu hút sự chú ý. Citadel Securities đã phát triển các nền tảng nghiên cứu định lượng sử dụng cơ sở hạ tầng TPU của Google. Tất cả mười bảy phòng thí nghiệm quốc gia của Bộ Năng lượng Hoa Kỳ vận hành các ứng dụng AI co-scientist trên các bộ xử lý này. Anthropic đã cam kết sử dụng nhiều gigawatt năng lực điện toán TPU của Google.

Các nhà phân tích tại DA Davidson đã dự báo vào tháng 9 rằng bộ phận TPU của Google, khi kết hợp với Google DeepMind, có thể đạt mức định giá tiệm cận 900 tỷ đô la.

Google duy trì mô hình phân phối độc quyền cho các TPU—chúng không có sẵn để mua trực tiếp và chỉ có thể được truy cập thông qua các dịch vụ Google Cloud. Nvidia tiếp tục cung cấp phần cứng GPU cho Google, và công ty xác nhận sẽ nằm trong số những nhà cung cấp dịch vụ đám mây đầu tiên cung cấp nền tảng Vera Rubin sắp ra mắt của Nvidia khi nó ra mắt vào cuối năm nay.

Các bộ xử lý được thiết kế hợp tác chặt chẽ với Google DeepMind, đơn vị đã triển khai chúng để huấn luyện các mô hình ngôn ngữ Gemini và tối ưu các thuật toán hỗ trợ nền tảng Search và YouTube.

Google thông báo rằng cả TPU 8t và TPU 8i sẽ được cung cấp rộng rãi cho khách hàng nền tảng đám mây vào cuối năm 2025.

The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.

Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ [email protected] để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.

USD1 khởi nguồn: 0 phí + 12% APR

USD1 khởi nguồn: 0 phí + 12% APRUSD1 khởi nguồn: 0 phí + 12% APR

Người mới: Stake để nhận APR đến 600%. Có thời hạn!