Red Hat, Inc. a annoncé la dernière version de Red Hat OpenShift AI, sa plateforme d'intelligence artificielle (IA) et d'apprentissage automatique (ML) construite sur Red Hat OpenShift qui permet aux entreprises de créer et de fournir des applications basées sur l'IA à l'échelle à travers le cloud hybride. Red Hat OpenShift AI 2.15 est conçu pour offrir une plus grande flexibilité, des capacités de réglage et de suivi, contribuant ainsi à accélérer l'innovation en matière d'IA/ML et la cohérence opérationnelle des entreprises. L'innovation AI/ML et la cohérence opérationnelle avec une plus grande régularité et une posture de sécurité plus forte à l'échelle à travers les clouds publics, les centres de données et les environnements de périphérie.

Red Hat OpenShift AI 2.15 vise à aider les entreprises à répondre aux besoins émergents des charges de travail d'IA parallèlement aux exigences des applications cloud-natives critiques qui alimentent leurs activités aujourd'hui. Les fonctionnalités avancées fournies avec la dernière version de Red Hat OpenShift AI comprennent : Le registre des modèles, actuellement fourni en tant qu'aperçu technologique, est l'endroit central pour visualiser et gérer les modèles enregistrés. Cette fonctionnalité offre un moyen structuré et organisé de partager, de versionner, de déployer et de suivre les modèles d'IA prédictifs et génériques, les métadonnées et les artefacts de modèles.

L'option de fournir plusieurs registres de modèles est également disponible. Red Hat a également fait don du projet de registre de modèle à la communauté Kubeflow en tant que sous-projet. La détection de la dérive des données surveille les changements dans la distribution des données d'entrée pour les modèles ML déployés.

Cette fonctionnalité permet aux scientifiques des données de détecter si les données réelles utilisées pour l'interférence du modèle s'écartent de manière significative des données sur lesquelles le modèle a été formé. La détection des dérives permet de vérifier la fiabilité du modèle en contrôlant continuellement les données d'entrée, en maintenant le modèle aligné sur les données du monde réel et en aidant à maintenir la précision de ses prédictions au fil du temps. Les outils de détection des biais aident les scientifiques des données et les ingénieurs en IA à vérifier si leurs modèles sont justes et impartiaux, ce qui est essentiel pour établir la confiance dans les modèles.

Ces outils permettent non seulement de savoir si les modèles sont impartiaux sur la base des données d'apprentissage, mais aussi de contrôler l'équité de ces modèles lors de déploiements dans le monde réel. Ces outils sont issus de la communauté TrustyAI open source, qui fournit une boîte à outils diversifiée pour le développement et le déploiement responsables de l'IA. Le réglage fin efficace avec LoRA utilise des adaptateurs de rang faible (LoRA) pour permettre un réglage fin plus efficace des LLM, tels que Llama 3. Cela permet aux entreprises de faire évoluer les charges de travail d'IA tout en réduisant les coûts et la consommation de ressources.

En optimisant la formation et le réglage fin des modèles dans les environnements natifs du cloud, cette solution améliore à la fois les performances et la flexibilité, rendant le déploiement de l'IA plus accessible et plus évolutif. Prise en charge de NVIDIA NIM, un ensemble de microservices d'interface faciles à utiliser qui accélèrent la fourniture d'applications de genAI. L'intégration avec NIM, qui fait partie de la plate-forme logicielle NVIDIA AI Enterprise, permettra d'accélérer les déploiements d'IA générique tout en prenant en charge une large gamme de modèles d'IA pour fournir une inférence évolutive sur site ou dans le cloud par le biais d'interfaces de programmation d'applications (API).

La prise en charge des GPU AMD permet d'accéder à une image de l'atelier ROCm AMD afin d'utiliser les GPU AMD pour le développement de modèles. La nouvelle fonctionnalité permet également d'accéder à des images qui peuvent être utilisées pour les cas d'utilisation de service et d'entraînement/réglage avec les GPU AMD. Ce support offre aux organisations des options supplémentaires pour l'utilisation des GPU afin d'améliorer les performances pour les activités de calcul intensif.

En tant que plateforme AI/ML complète, Red Hat OpenShift AI 2.15 ajoute également de nouvelles capacités autour du service de modèle d'IA générique, y compris le runtime de service vLLM pour KServe. Cette nouvelle capacité apporte à la plateforme le populaire runtime de service de modèle open source pour les grands modèles de langage (LLM). La flexibilité et les performances de vLLM constituent un excellent complément aux runtimes actuellement pris en charge par la plateforme, les utilisateurs pouvant également ajouter leurs propres options personnalisées en fonction des besoins de l'entreprise.

La dernière version de Red Hat OpenShift AI ajoute également la prise en charge de KServe Modelcars, qui ajoute les référentiels Open Container Initiative (OCI) en tant qu'option pour le stockage et l'accès aux versions de modèles conteneurisés. En outre, la sélection d'itinéraires privés/publics pour les points d'extrémité dans KServe permet aux organisations d'améliorer la posture de sécurité d'un modèle en le dirigeant spécifiquement vers des points d'extrémité internes lorsque cela est nécessaire. Red Hat OpenShift AI 2.15 apporte des améliorations aux pipelines de science des données et au suivi des expériences, permettant aux scientifiques des données de gérer, comparer et analyser plus facilement les exécutions de pipelines regroupées dans une structure logique.

La plateforme ajoute également l'accord d'hyperparamètres avec Ray Tune, ajoutant des algorithmes d'optimisation avancés pour améliorer la précision et former des modèles d'IA prédictifs et génériques plus efficacement. Les images de conteneurs de base pour les clusters Ray sont désormais incluses dans la dernière version de Red Hat OpenShift AI, et les tâches d'entraînement et de réglage peuvent être planifiées sur des charges de travail distribuées dans le cluster pour accélérer les tâches et maximiser l'utilisation des nœuds. Red Hat OpenShift 2.15 sera généralement disponible à partir de la mi-novembre 2024.