Cloudera a annoncé une prise en charge supplémentaire des technologies clés de NVIDIA dans les clouds publics et privés afin de permettre aux clients de créer et de déployer efficacement les meilleures applications d'intelligence artificielle. Cette nouvelle phase de la collaboration technologique entre Cloudera et NVIDIA ajoute des capacités GPU multigénérationnelles pour l'ingénierie des données, l'apprentissage automatique et l'intelligence artificielle dans les clouds publics et privés :Accélérer les charges de travail d'IA et d'apprentissage automatique dans Cloudera sur le cloud public et sur site grâce aux GPU NVIDIA Cloudera Machine Learning [2] (CML) est un service majeur de Cloudera Data Platform qui permet aux entreprises de créer leurs propres applications d'IA, en libérant le potentiel des grands modèles de langage (LLM) open-source en utilisant leurs propres ressources de données propriétaires pour créer des réponses sûres et contextuelles. Le service CML prend désormais en charge le GPU NVIDIA H100 dans les clouds publics et les centres de données.

Cette accélération de nouvelle génération renforce la plateforme de données de Cloudera, permettant d'obtenir des informations plus rapides et des charges de travail d'IA générative plus efficaces. Cela se traduit par la capacité d'affiner les modèles sur des ensembles de données plus importants et d'héberger des modèles plus importants en production. Grâce à la sécurité et à la gouvernance de niveau entreprise de CML, les entreprises peuvent exploiter la puissance des GPU NVIDIA sans compromettre la sécurité des données.

Cloudera Data Engineering [3] (CDE) est un service de données qui permet aux utilisateurs de créer des pipelines de données fiables et prêts pour la production à partir de capteurs, de médias sociaux, de marketing, de paiement, de RH, d'ERP, de CRM ou d'autres systèmes sur le lac de données ouvert avec une sécurité et une gouvernance intégrées, orchestrées avec Apache Airflow, un projet open source pour la création de pipelines dans l'apprentissage automatique. Avec l'intégration de NVIDIA Spark RAPIDS dans CDE, les charges de travail d'extraction, de transformation et de chargement (ETL) peuvent désormais être accélérées sans qu'il soit nécessaire de procéder à un remaniement. Les applications ETL Spark existantes peuvent être accélérées de manière transparente par le GPU avec un facteur de 7x globalement et jusqu'à 16x sur certaines requêtes [4] par rapport aux CPU standards (sur la base de benchmarks internes).

Cela permet aux clients de NVIDIA de tirer parti des GPU dans les pipelines de traitement de données en amont, en augmentant l'utilisation de ces GPU et en démontrant un meilleur retour sur investissement.