AMD a présenté sa vision d'une plateforme IA complète et intégrée de bout en bout, ainsi que son infrastructure IA ouverte et évolutive à l'échelle du rack, basée sur les normes industrielles, lors de son événement « Advancing AI 2025 ». AMD et ses partenaires ont présenté : Comment ils construisent l'écosystème IA ouvert avec les nouveaux accélérateurs AMD Instinct? MI350 Series.

La croissance continue de l'écosystème AMD ROCm. Les nouvelles conceptions rackables ouvertes et performantes de la société, ainsi que sa feuille de route qui garantit des performances IA rackables de pointe au-delà de 2027.

AMD fournit des solutions de pointe pour accélérer un écosystème IA ouvert AMD a annoncé une large gamme de matériel, de logiciels et de solutions pour alimenter tout le spectre de l'IA : AMD a dévoilé les GPU Instinct MI350 Series, qui établissent une nouvelle référence en matière de performances, d'efficacité et d'évolutivité dans le domaine de l'IA générative et du calcul haute performance. La série MI350, qui comprend les GPU et les plateformes Instinct MI350X et MI355X, offre une augmentation de 4 fois les performances de calcul IA d'une génération à l'autre et un bond de 35 fois en matière d'inférence, ouvrant la voie à des solutions IA transformatrices dans tous les secteurs. Le MI355X offre également des gains significatifs en termes de rapport prix/performances, générant jusqu'à 40 % de tokens par dollar en plus par rapport aux solutions concurrentes.

AMD a présenté une infrastructure IA de bout en bout, à l'échelle d'un rack et basée sur des normes ouvertes, déjà déployée avec les accélérateurs AMD Instinct MI350, les processeurs AMD EPYC de 5e génération et les cartes réseau AMD Pensando Pollara dans des déploiements hyperscale tels que Oracle Cloud Infrastructure (OCI) et dont la disponibilité à grande échelle est prévue pour le second semestre 2025.

AMD a également présenté en avant-première son rack IA de nouvelle génération, baptisé « Helios ». Il sera construit sur la prochaine génération de GPU AMD Instinct MI400 Series

qui, par rapport à la génération précédente, devraient offrir jusqu'à 10 fois plus de performances pour l'inférence sur des modèles Mixture of Experts, les processeurs AMD EPYC « Venice » basés sur « Zen 6 » et les cartes réseau AMD Pensando « Vulcano ».

Pour plus d'informations, veuillez consulter cet article de blog. La dernière version de la pile logicielle open source pour l'IA d'AMD, ROCm 7, est conçue pour répondre aux exigences croissantes des charges de travail liées à l'IA générative et au calcul haute performance, tout en améliorant considérablement l'expérience des développeurs à tous les niveaux. ROCm 7 offre une prise en charge améliorée des frameworks standard, une compatibilité matérielle étendue et de nouveaux outils de développement, pilotes, API et bibliothèques pour accélérer le développement et le déploiement de l'IA.

Pour plus d'informations, veuillez consulter cet article de blog rédigé par Anush Elangovan, vice-président directeur du développement logiciel IA chez AMD. La série Instinct MI350 a dépassé l'objectif quinquennal d'AMD visant à améliorer de 30 fois l'efficacité énergétique des nœuds de formation IA et de calcul haute performance, pour finalement atteindre une amélioration de 38 fois. AMD a également dévoilé un nouvel objectif pour 2030 : multiplier par 20 l'efficacité énergétique à l'échelle du rack par rapport à l'année de référence 2024, ce qui permettra d'entraîner un modèle d'IA type nécessitant plus de 275 racks en moins d'un rack pleinement utilisé d'ici 2030, avec une consommation électrique réduite de 95 %.

Pour plus de détails, veuillez consulter cet article de blog rédigé par Sam Naffziger, vice-président senior et Corporate Fellow chez AMD. AMD a également annoncé la mise à disposition générale de l'AMD Developer Cloud pour les communautés mondiales de développeurs et d'open source. Spécialement conçu pour le développement rapide et hautement performant de l'IA, les utilisateurs auront accès à un environnement cloud entièrement géré avec les outils et la flexibilité nécessaires pour se lancer dans des projets d'IA et se développer sans limites.

et se développer sans limites. Avec ROCm 7 et AMD Developer Cloud, AMD réduit les obstacles et élargit l'accès à l'informatique de nouvelle génération. Des collaborations stratégiques avec des leaders tels que Hugging Face, OpenAI et Grok prouvent la puissance des solutions ouvertes développées conjointement.

Un vaste écosystème de partenaires témoigne des progrès de l'IA optimisée par AMD : sept des dix plus grands constructeurs de modèles et entreprises d'IA exécutent des charges de travail de production sur des accélérateurs Instinct. Parmi ces entreprises figurent Meta, OpenAI, Microsoft et xAI, qui se sont jointes à AMD et à d'autres partenaires lors de l'événement Advancing AI pour discuter de leur collaboration avec AMD dans le domaine des solutions d'IA visant à former les modèles d'IA de pointe actuels, à alimenter l'inférence à grande échelle et à accélérer l'exploration et le développement de l'IA. Meta a détaillé la manière dont Instinct MI300X est largement déployé pour l'inférence Llama 3 et Llama 4. Meta a fait part de son enthousiasme pour le MI350, sa puissance de calcul, son rapport performances/coût total de possession et sa mémoire de nouvelle génération.

Meta continue de collaborer étroitement avec AMD sur les feuilles de route en matière d'IA, notamment sur les plans pour la plateforme Instinct MI400 Series. Sam Altman, PDG d'OpenAI, a évoqué l'importance d'une optimisation holistique du matériel, des logiciels et des algorithmes, ainsi que le partenariat étroit entre OpenAI et AMD dans le domaine de l'infrastructure IA, avec des modèles de recherche et GPT sur Azure en production sur MI300X, ainsi que des engagements de conception approfondis sur les plateformes de la série MI400. Oracle Cloud Infrastructure (OCI) est l'un des premiers leaders du secteur à adopter l'infrastructure IA à échelle de rack ouverte d'AMD avec les GPU AMD Instinct MI355X. OCI tire parti des processeurs et des GPU AMD pour offrir des performances équilibrées et évolutives aux clusters IA, et a annoncé qu'elle proposerait des clusters IA à l'échelle zetta accélérés par les derniers processeurs AMD Instinct avec jusqu'à 131 072 GPU MI355X afin de permettre aux clients de créer, former et inférer l'IA à grande échelle.

HUMAIN a évoqué son accord historique avec AMD pour construire une infrastructure IA ouverte, évolutive, résiliente et rentable, tirant parti de la gamme complète de plates-formes informatiques que seul AMD peut fournir. Microsoft a annoncé que l'Instinct MI300X équipe désormais les modèles propriétaires et open source en production sur Azure. Cohere a indiqué que ses modèles Command hautes performances et évolutifs sont déployés sur l'Instinct MI300X, offrant une inférence LLM de niveau entreprise avec un débit, une efficacité et une confidentialité des données élevés.

Red Hat a décrit comment sa collaboration élargie avec AMD permet de créer des environnements d'IA prêts pour la production, grâce aux GPU AMD Instinct sur Red Hat OpenShift AI qui offrent un traitement IA puissant et efficace dans les environnements cloud hybrides. Astera Labs a souligné comment l'écosystème ouvert UALink accélère l'innovation et offre une plus grande valeur ajoutée aux clients, et a partagé ses projets visant à proposer une gamme complète de produits UALink pour prendre en charge l'infrastructure IA de nouvelle génération. Marvell s'est joint à AMD pour souligner sa collaboration dans le cadre du consortium UALink, qui développe une interconnexion ouverte offrant une flexibilité ultime pour l'infrastructure IA.