La société Meta Platforms, propriétaire de Facebook, prévoit de déployer cette année dans ses centres de données une nouvelle version d'une puce personnalisée destinée à soutenir sa poussée d'intelligence artificielle (IA), selon un document interne de l'entreprise vu par Reuters jeudi.

La puce, une deuxième génération d'une ligne de silicium interne que Meta a annoncée l'année dernière, pourrait aider à réduire la dépendance de Meta aux puces Nvidia qui dominent le marché et à contrôler la spirale des coûts associés à l'exécution des charges de travail d'IA, alors qu'il se précipite pour lancer des produits d'IA.

La plus grande entreprise de médias sociaux au monde s'est efforcée d'augmenter sa capacité de calcul pour les produits d'IA générative gourmands en énergie qu'elle introduit dans les applications Facebook, Instagram et WhatsApp et dans les appareils matériels tels que ses lunettes intelligentes Ray-Ban, en dépensant des milliards de dollars pour accumuler des arsenaux de puces spécialisées et reconfigurer les centres de données pour les accueillir.

À l'échelle à laquelle Meta opère, un déploiement réussi de sa propre puce pourrait potentiellement réduire de plusieurs centaines de millions de dollars les coûts énergétiques annuels et de plusieurs milliards les coûts d'achat des puces, selon Dylan Patel, fondateur du groupe de recherche sur le silicium SemiAnalysis.

Les puces, l'infrastructure et l'énergie nécessaires pour faire fonctionner les applications d'IA sont devenues un énorme gouffre d'investissement pour les entreprises technologiques, annulant dans une certaine mesure les gains réalisés lors de l'enthousiasme suscité par la technologie.

Un porte-parole de Meta a confirmé le projet de mise en production de la nouvelle puce en 2024, précisant qu'elle fonctionnerait en coordination avec les centaines de milliers d'unités de traitement graphique (GPU) prêtes à l'emploi - les puces les plus utilisées pour l'IA - que l'entreprise achetait.

"Nous considérons que nos accélérateurs développés en interne sont très complémentaires des GPU disponibles dans le commerce pour offrir un mélange optimal de performances et d'efficacité sur les charges de travail spécifiques à Meta", a déclaré le porte-parole dans un communiqué.

Le mois dernier, Mark Zuckerberg, PDG de Meta, a déclaré que l'entreprise prévoyait de disposer d'ici la fin de l'année d'environ 350 000 processeurs phares "H100" de Nvidia, qui produit les GPU les plus recherchés utilisés pour l'IA. Avec l'aide d'autres fournisseurs, Meta accumulerait l'équivalent de la capacité de calcul de 600 000 processeurs H100 au total, a-t-il déclaré.

Le déploiement de sa propre puce dans le cadre de ce plan est un tournant positif pour le projet interne de silicium d'IA de Meta, après la décision prise par les dirigeants en 2022 de mettre fin à la première itération de la puce.

L'entreprise a préféré acheter des milliards de dollars de GPU de Nvidia, qui détient un quasi-monopole sur un processus d'IA appelé formation, qui consiste à introduire d'énormes ensembles de données dans les modèles pour leur apprendre à effectuer des tâches.

La nouvelle puce, appelée "Artemis" en interne, comme son prédécesseur, ne peut exécuter qu'un processus connu sous le nom d'inférence, dans lequel les modèles sont appelés à utiliser leurs algorithmes pour effectuer des jugements de classement et générer des réponses aux invites de l'utilisateur.

L'année dernière, Reuters a rapporté que Meta travaillait également sur une puce plus ambitieuse qui, à l'instar des GPU, serait capable d'effectuer à la fois l'entraînement et l'inférence.

L'année dernière, la société basée à Menlo Park, en Californie, a donné des détails sur la première génération de son programme Meta Training and Inference Accelerator (MTIA). L'annonce présentait cette version de la puce comme une opportunité d'apprentissage.

Selon M. Patel, malgré ces premiers échecs, une puce d'inférence pourrait être beaucoup plus efficace pour traiter les modèles de recommandation de Meta que les processeurs Nvidia, très gourmands en énergie.

"Il y a beaucoup d'argent et d'énergie dépensés qui pourraient être économisés", a-t-il déclaré. (Reportage de Katie Paul à New York et de Stephen Nellis et Max A. Cherney à San Francisco ; rédaction de Kenneth Li et Mark Porter)