NVIDIA annonce que les principaux fabricants d'ordinateurs de Taïwan sont prêts à sortir la première vague de systèmes équipés de la super puce CPU NVIDIA Grace et de la super puce Grace Hopper pour une large gamme de charges de travail allant des jumeaux numériques à l'IA, en passant par l'informatique de haute performance, les graphiques en nuage et les jeux. Des dizaines de modèles de serveurs d'ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro et Wiwynn sont attendus à partir du premier semestre 2023. Les systèmes alimentés par Grace rejoindront les serveurs x86 et autres serveurs basés sur Arm afin de proposer aux clients un large éventail de choix pour atteindre des performances et une efficacité élevées dans leurs centres de données.

Les serveurs à venir sont basés sur quatre nouveaux designs de systèmes dotés de la super-puce Grace CPU et de la super-puce Grace Hopper, que NVIDIA a annoncés lors de ses deux dernières conférences GTC. Les conceptions de facteur de forme 2U fournissent les plans et les bases de serveurs pour les fabricants de conception originale et les fabricants d'équipements originaux afin de mettre rapidement sur le marché des systèmes pour le cloud gaming NVIDIA CGX(TM), le jumeau numérique NVIDIA OVX(TM) et les plates-formes AI et HPC NVIDIA HGX(TM). Suralimentation des charges de travail modernes Les deux technologies de la super-puce NVIDIA Grace permettent de réaliser une large gamme de charges de travail à forte intensité de calcul sur une multitude d'architectures système. La super-puce CPU Gracece comporte deux puces CPU, connectées de manière cohérente via une interconnexion NVIDIA NVLink(R)-C2C, avec jusqu'à 144 cœurs Arm V9 hautes performances avec des extensions vectorielles évolutives et un sous-système de mémoire de 1 téraoctet par seconde.

Cette conception révolutionnaire offre les plus hautes performances et deux fois plus de bande passante mémoire et d'efficacité énergétique que les principaux processeurs pour serveurs actuels, afin de répondre aux applications les plus exigeantes en matière de HPC, d'analyse de données, de jumeaux numériques, de cloud gaming et d'informatique hyperscale. La super-puce Grace Hopper associe un GPU NVIDIA Hopper(TM) à un CPU Grace via NVLink-C2C dans un module intégré conçu pour répondre aux applications HPC et IA à grande échelle. Grâce à l'interconnexion NVLink-C2C, le CPU Grace transfère les données au GPU Hopper 15x plus vite que les CPU traditionnels.

Portefeuille de serveurs BroaGracace pour l'IA, le HPC, les jumeaux numériques et le Cloud Gang Le portefeuille de conception de serveurs Grace CPU Superchip et Grace e Hopper Superchip comprend des systèmes disponibles dans des plinthes simples avec des configurations à une, deux et quatre voies disponibles dans quatre conceptions spécifiques à la charge de travail qui peuvent être personnalisées par les fabricants de serveurs selon les besoins des clients : Les systèmes NVIDIA HGHGX Grace Hopper pour la formation à l'IA, l'inférence et le HPC sont disponibles avec le Superchip Grace Hopper r et les DPU NVIDIA BlueField(R)-3. Les systèmes NVIDIA HGX Grace pour le HPC et le supercalculateur sont dotés de la conception CPU uniquement avec le Superchip Grace CPU et le BlueField-3. Les systèmes NVIDIA OVX pour les jumeaux numériques et les charges de travail collaboratives sont dotés de la Superchip CPU Grace, de BlueField-3 et des GPU NVIDIA. Les systèmes NVIDIA CGX pour les graphiques en nuage et les jeux sont équipés de la super-puce Grace CPU, de BlueField-3 et des GPU NVIDIA A16.