Oracle a étendu sa collaboration avec NVIDIA pour faire tourner les applications stratégiques d'IA de NVIDIA sur le nouveau Supercluster d'Oracle Cloud Infrastructure (OCI). NVIDIA a choisi OCI comme premier fournisseur de cloud hyperscale pour proposer massivement NVIDIA DGX Cloud, un service de supercalculateur d'IA. De plus, NVIDIA fait tourner sur OCI NVIDIA AI Foundations, ses nouveaux services d'IA générative, disponibles sur DGX Cloud.

NVIDIA DGX Cloud et les services NVIDIA AI Foundations qui s'y exécutent s'appuient sur le Supercluster unique d'OCI qui a été certifié par NVIDIA pour s'assurer qu'il répond aux normes élevées de DGX Cloud. Le Supercluster d'OCI comprend OCI Compute Bare Metal, un cluster RoCE à très faible latence basé sur le réseau NVIDIA, et un choix de stockage HPC. Il a été déployé et validé par NVIDIA pour prendre en charge des milliers d'instances OCI Compute Bare Metal qui peuvent traiter efficacement des applications massivement parallèles.

Le réseau OCI Supercluster peut désormais évoluer jusqu'à 4 096 instances OCI Compute Bare Metal avec 32 768 GPU A100. Les instances OCI Compute Bare Metal avec les GPU NVIDIA H100 sont maintenant disponibles en quantité limitée. De plus, NVIDIA a annoncé qu'Oracle ajoutait des DPU NVIDIA BlueField-3 à sa pile réseau.

Les services de modélisation de NVIDIA AI Foundations couvrent le langage, les images, la vidéo et la 3D, ainsi que la biologie. Les entreprises peuvent utiliser le service de langage NVIDIA NeMoo et les services d'image, de vidéo et de 3D NVIDIA Picasso pour créer des applications d'IA générative propriétaires et spécifiques à un domaine pour le chat intelligent et le support client, la création de contenu professionnel, la simulation numérique et bien plus encore. Pour la formation et l'inférence de modèles d'IA en biologie, le service cloud NVIDIA BioNeMo propose des outils pour personnaliser et déployer rapidement des applications d'IA générative.

Sur OCI, les modèles personnalisés construits avec NVIDIA AI Foundations et les familles de modèles comme GPT-3 bénéficient du Supercluster d'OCI, qui comprend un réseau RDMA spécialement conçu pour fournir des performances proches du débit de ligne avec une latence de l'ordre de la microseconde et éliminer les problèmes de blocage pour les charges de travail dépendantes de RDMA.