Alphabet, la société mère de Google, a dévoilé mardi un produit appelé Trillium dans sa famille de puces pour centres de données d'intelligence artificielle qui, selon elle, est presque cinq fois plus rapide que sa version précédente.

"La demande de l'industrie pour les ordinateurs (d'apprentissage automatique) a été multipliée par un million au cours des six dernières années, soit environ 10 fois plus chaque année", a déclaré Sundar Pichai, PDG d'Alphabet, lors d'une réunion d'information avec les journalistes. "Je pense que Google a été conçu pour ce moment, nous avons été les pionniers (des puces d'IA) pendant plus d'une décennie".

Les efforts d'Alphabet pour construire des puces personnalisées pour les centres de données d'IA représentent l'une des rares alternatives viables aux processeurs haut de gamme de Nvidia qui dominent le marché. Associées aux logiciels étroitement liés aux unités de traitement tensoriel (TPU) de Google, ces puces ont permis à l'entreprise de s'approprier une part importante du marché.

Nvidia détient environ 80 % du marché des puces pour centres de données d'IA, la grande majorité des 20 % restants étant constituée de diverses versions des TPU de Google. L'entreprise ne vend pas la puce elle-même, mais en loue l'accès par l'intermédiaire de sa plateforme d'informatique en nuage.

Selon Google, la puce Trillium de sixième génération offrira des performances de calcul 4,7 fois supérieures à celles de la TPU v5e, une puce conçue pour alimenter la technologie qui génère du texte et d'autres médias à partir de grands modèles. Le processeur Trillium est 67 % plus économe en énergie que le v5e.

La nouvelle puce sera disponible pour les clients de l'informatique en nuage à la fin de l'année 2024, a indiqué l'entreprise.

Les ingénieurs de Google ont obtenu des gains de performance supplémentaires en augmentant la capacité de mémoire à large bande et la bande passante globale. Les modèles d'IA nécessitent d'énormes quantités de mémoire avancée, ce qui a constitué un goulot d'étranglement pour l'amélioration des performances.

L'entreprise a conçu les puces pour qu'elles soient déployées dans des pods de 256 puces pouvant être étendus à des centaines de pods.