En collaboration avec NVIDIA et IBM, CoreWeave a réalisé la plus grande soumission MLPerf® Training v5.0 jamais enregistrée sur NVIDIA Blackwell, en utilisant 2 496 GPU NVIDIA Blackwell fonctionnant sur la plateforme cloud optimisée pour l'IA de CoreWeave. Cette soumission est le plus grand cluster NVIDIA GB200 NVL72 jamais testé dans le cadre du MLPerf, soit 34 fois plus grand que la seule autre soumission d'un fournisseur de cloud, ce qui souligne l'échelle et la maturité de la plateforme cloud de CoreWeave pour les performances exigeantes des charges de travail IA actuelles.

La soumission a obtenu un résultat révolutionnaire sur le modèle de base le plus vaste et le plus complexe de la suite de tests de performance, Llama 3.1 405B, en terminant l'exécution en seulement 27,3 minutes. Par rapport aux soumissions d'autres participants utilisant des clusters de taille similaire, le cluster GB200 de CoreWeave a atteint des performances de formation plus de deux fois plus rapides. Ce résultat souligne le bond en avant significatif en termes de performances rendu possible par l'architecture GB200 NVL72 et la puissance de l'infrastructure de CoreWeave pour fournir des performances de charge de travail IA constantes et de premier ordre.

Ces résultats sont importants car ils se traduisent directement par des cycles de développement de modèles plus rapides et un coût total de possession optimisé. Pour les clients de CoreWeave, cela signifie une réduction de moitié du temps de formation, une mise à l'échelle efficace des charges de travail et une formation ou un déploiement plus rentable de leurs modèles grâce à l'exploitation des dernières technologies cloud, plusieurs mois avant leurs concurrents. Avec des résultats de premier plan pour les benchmarks MLPerf Inference v5.0 et Training v5.0 et en tant que seul fournisseur de cloud classé dans la catégorie Platine du ClusterMAX de Semi Analysis, CoreWeave établit la norme en matière de performances des infrastructures d'IA sur l'ensemble de la pile cloud.