Meta Platforms a dévoilé mercredi les détails de la nouvelle génération de sa puce d'accélération de l'intelligence artificielle. POURQUOI C'EST IMPORTANT

Reuters a rapporté plus tôt cette année que Meta prévoyait de déployer une nouvelle version d'une puce de centre de données personnalisée pour répondre à la quantité croissante de puissance de calcul nécessaire pour faire fonctionner les produits d'IA dans Facebook, Instagram et WhatsApp. La puce, appelée en interne "Artemis", aidera Meta à réduire sa dépendance aux puces d'IA de Nvida et à réduire ses coûts énergétiques en général. CITATION CLÉ

"L'architecture de cette puce est fondamentalement axée sur la fourniture d'un bon équilibre entre le calcul, la bande passante et la capacité de mémoire pour servir les modèles de classement et de recommandation", a écrit l'entreprise dans un billet de blog.

CONTEXTE

La nouvelle puce Meta Training and Inference Accelerator (MTIA) s'inscrit dans le cadre d'un vaste effort de l'entreprise en matière de silicium personnalisé, qui comprend également l'étude d'autres systèmes matériels. Au-delà de la construction des puces et du matériel, Meta a réalisé d'importants investissements dans le développement des logiciels nécessaires pour exploiter la puissance de son infrastructure de la manière la plus efficace possible.

L'entreprise dépense également des milliards pour acheter des puces Nvidia et d'autres puces d'intelligence artificielle : Cette année, le PDG Mark Zuckerberg a déclaré que l'entreprise prévoyait d'acquérir environ 350 000 puces phares H100 de Nvidia. Avec d'autres fournisseurs, Meta prévoit d'accumuler l'équivalent de 600 000 puces H100 cette année. LES CHIFFRES

Taiwan Semiconductor Manufacturing Co produira la nouvelle puce sur son procédé "5nm". Meta a déclaré qu'elle était capable de multiplier par trois les performances de son processeur de première génération. QU'EST-CE QUE LA PROCHAINE

La puce a été déployée dans les centres de données et est utilisée pour les applications d'intelligence artificielle. La société a déclaré qu'elle avait plusieurs programmes en cours "visant à étendre la portée de MTIA, y compris la prise en charge des charges de travail (IA générative)". (Rapport de Max A. Cherney à San Francisco Rédaction de Chris Reese)