Red Hat, Inc. a annoncé la dernière version de Red Hat Enterprise Linux AI (RHEL AI), la plateforme de modèle de base de Red Hat pour développer, tester et exécuter de manière plus transparente des modèles d'intelligence artificielle générative (gen AI) pour les applications d'entreprise. RHEL AI 1.3 prend en charge les dernières avancées de la famille Granite Large Language Model (LLM) et intègre des avancées open source pour la préparation des données tout en conservant un choix élargi pour les déploiements de clouds hybrides, y compris l'architecture de calcul accéléré sous-jacente. Selon l'étude IDC "Market Analysis Perspective : Open GenAI, LLMs, and the Evolving Open Source Ecosystem", 61 % des personnes interrogées prévoient d'utiliser des modèles de base open source pour les cas d'utilisation de l'IA générique, tandis que plus de 56 % des modèles de base déployés sont déjà open source1.

Élargir l'écosystème de l'IA générique : Le choix est un élément fondamental du cloud hybride et, l'IA générique servant de charge de travail caractéristique des environnements hybrides, cette optionalité doit commencer par les architectures de puces sous-jacentes. RHEL AI prend déjà en charge les principaux accélérateurs de NVIDIA et AMD, et la version 1.3 inclut désormais Intel Gaudi 3 en tant que vue technologique. Au-delà de l'architecture des puces, RHEL AI est pris en charge par les principaux fournisseurs de cloud, notamment les consoles AWS, Google Cloud et Microsoft Azure en tant qu'offre " apportez votre propre abonnement " (BYOS).

La plateforme sera également bientôt disponible en tant qu'option de solution optimisée et validée sur Azure Marketplace et AWS Marketplace. RHEL AI est disponible en tant que plateforme de modèle de base privilégiée sur les offres matérielles accélérées proposées par les partenaires Red Hat, notamment les serveurs Dell PowerEdge R760xa et les serveurs Lenovo ThinkSystem SR675 V3. Améliorations du service de modèle avec Red Hat OpenShift AI : Alors que les utilisateurs cherchent à étendre le service des LLM, Red Hat OpenShift AI prend désormais en charge le service parallélisé sur plusieurs nœuds avec des runtimes vLLM, offrant ainsi la possibilité de traiter plusieurs demandes en temps utile.

Red Hat OpenShift AI permet également aux utilisateurs de modifier dynamiquement les paramètres d'un LLM lorsqu'il est servi, par exemple en répartissant le modèle sur plusieurs GPU ou en quantifiant le modèle pour obtenir une empreinte plus petite. RHEL AI prend en charge les environnements de serveurs Linux individuels, tandis que Red Hat OpenShift AI alimente les environnements de plateforme Kubernetes distribués et fournit des capacités intégrées d'opérations d'apprentissage automatique (MLOps). Les deux solutions sont compatibles l'une avec l'autre, Red Hat OpenShift AI incorporera toutes les capacités de RHEL AI pour être livré à l'échelle.

Disponibilité : RHEL AI 1.3 est désormais disponible de manière générale. Vous trouverez plus d'informations sur les fonctionnalités supplémentaires, les améliorations, les corrections de bogues et la manière de passer à la dernière version ici.