Alphabet (GOOGL) lance des puces TPU de 8e génération avec Broadcom : TPU 8t pour l'entraînement et TPU 8i pour l'inférence, offrant 80 % de meilleures performances par dollar. The post AlphabetAlphabet (GOOGL) lance des puces TPU de 8e génération avec Broadcom : TPU 8t pour l'entraînement et TPU 8i pour l'inférence, offrant 80 % de meilleures performances par dollar. The post Alphabet

Alphabet (GOOGL) dévoile des puces TPU de 8e génération à double usage développées avec Broadcom

2026/04/22 22:16
Temps de lecture : 4 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : [email protected]

Points Clés

  • Alphabet a présenté ses unités de traitement tensoriel de 8e génération : le TPU 8t optimisé pour l'entraînement et le TPU 8i pour les charges de travail d'inférence
  • Le TPU 8i axé sur l'inférence offre une performance-par-dollar supérieure de 80 % par rapport à son prédécesseur, Ironwood
  • Les deux processeurs ont été développés en partenariat avec Broadcom et conçus en collaboration avec Google DeepMind
  • Le processeur d'entraînement TPU 8t peut évoluer jusqu'à 9 600 puces et offre le double de la bande passante inter-puces d'Ironwood
  • Les clients de Google Cloud auront accès aux deux variantes de puces plus tard en 2025

La division Google d'Alphabet a présenté mercredi deux processeurs d'intelligence artificielle spécialisés, marquant la première fois que son architecture d'unités de traitement tensoriel est séparée en puces distinctes pour les opérations d'entraînement et d'inférence.

Le TPU 8t est spécifiquement conçu pour l'entraînement de modèles d'IA, tandis que son homologue, le TPU 8i, se concentre exclusivement sur l'inférence — le processus de déploiement de modèles entraînés dans des applications réelles. Broadcom a servi de partenaire de co-développement, prolongeant une collaboration qui s'étend sur plus de dix ans.


GOOGL Stock Card
Alphabet Inc., GOOGL

Cela représente un changement stratégique par rapport aux approches précédentes. Les itérations antérieures du TPU combinaient les capacités d'entraînement et d'inférence au sein d'un seul processeur. Google attribue ce changement à l'émergence des systèmes d'IA agentiques — des modèles autonomes qui fonctionnent en boucles de rétroaction continues avec une supervision humaine minimale — qui nécessitent un silicium plus dédié.

Le TPU 8i orienté inférence intègre 384 mégaoctets de SRAM par processeur — trois fois la capacité d'Ironwood. Selon Google, cette amélioration architecturale élimine le goulot d'étranglement de la « salle d'attente », réduisant les pics de latence qui surviennent lorsque plusieurs utilisateurs interrogent simultanément un modèle.

Les Capacités d'Inférence Connaissent des Améliorations Spectaculaires

Comparé à Ironwood, le TPU 8i atteint une efficacité économique supérieure de 80 %. En termes opérationnels, les organisations peuvent accueillir près du double de la demande des utilisateurs sans augmenter leur budget.

La puce démontre également jusqu'à 2x une meilleure efficacité énergétique par watt, rendue possible par une technologie de gestion dynamique de l'énergie qui module la consommation d'énergie en fonction des besoins de charge de travail en temps réel.

Pour la première fois, les deux processeurs utilisent le CPU Axion de Google comme processeur hôte, permettant une optimisation au niveau de l'architecture système plutôt que de limiter les améliorations aux performances individuelles des puces.

En ce qui concerne les capacités d'entraînement, la configuration superpod du TPU 8t prend en charge des clusters allant jusqu'à 9 600 processeurs avec 2 pétaoctets de mémoire à haute bande passante. Cela représente le double de la bande passante de communication inter-puces d'Ironwood, et Google affirme qu'il peut compresser les délais de développement de modèles de pointe de plusieurs mois à quelques semaines seulement.

Le processeur d'entraînement offre 2,8 fois les performances de calcul de l'architecture Ironwood de septième génération à un prix équivalent.

Premiers Utilisateurs et Impact sur l'Industrie

L'adoption précoce prend de l'élan. Citadel Securities a développé des plateformes de recherche quantitative en utilisant l'infrastructure TPU de Google. Les dix-sept laboratoires nationaux du Département de l'Énergie des États-Unis exploitent des applications d'IA co-scientifique sur les processeurs. Anthropic s'est engagé à utiliser plusieurs gigawatts de capacité de calcul TPU de Google.

Les analystes de DA Davidson ont projeté en septembre que la division TPU de Google, combinée à Google DeepMind, pourrait atteindre une valorisation approchant les 900 milliards de dollars.

Google maintient un modèle de distribution exclusif pour les TPU — ils ne sont pas disponibles à l'achat direct et ne peuvent être accessibles que via les services Google Cloud. Nvidia continue de fournir du matériel GPU à Google, et la société a confirmé qu'elle sera parmi les premiers fournisseurs de services cloud à proposer la prochaine plateforme Vera Rubin de Nvidia lors de son lancement plus tard cette année.

Les processeurs ont été conçus en étroite collaboration avec Google DeepMind, qui les a déployés pour entraîner les modèles de langage Gemini et optimiser les algorithmes alimentant les plateformes Search et YouTube.

Google a annoncé que le TPU 8t et le TPU 8i seront disponibles en disponibilité générale pour les clients de la plateforme cloud plus tard en 2025.

The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.

0 frais + 12 % de TAEG

0 frais + 12 % de TAEG0 frais + 12 % de TAEG

Nouveaux utilisateurs : TAEG 600 %. Durée limitée !