Red Hat continue d'offrir à ses clients un large choix en matière d'IA d'entreprise avec le lancement de Red Hat AI Inference Server, de modèles Red Hat AI validés par des tiers et l'intégration des API Llama Stack et Model Context Protocol (MCP), ainsi que des mises à jour importantes de l'ensemble du portefeuille Red Hat AI. Grâce à ces développements, Red Hat entend faire progresser les capacités dont les entreprises ont besoin pour accélérer l'adoption de l'IA, tout en offrant à ses clients un choix plus large et une confiance accrue dans les déploiements de production d'IA générative (gen AI) dans le cloud hybride. Le portefeuille Red Hat AI comprend désormais le nouveau Red Hat AI Inference Server, qui offre une inférence plus rapide, plus cohérente et plus rentable à grande échelle dans les environnements de cloud hybride. Cet ajout majeur est intégré aux dernières versions de Red Hat OpenShift AI et Red Hat Enterprise Linux AI, et est également disponible en tant qu'offre autonome, permettant aux entreprises de déployer des applications intelligentes avec plus d'efficacité, de flexibilité et de performances. La dernière version de Red Hat OpenShift AI (v2.20) apporte des améliorations supplémentaires pour la création, la formation, le déploiement et la surveillance à grande échelle de modèles d'IA générative et prédictive. Ces améliorations comprennent :
Un catalogue de modèles optimisé (aperçu technologique) facilite l'accès aux modèles validés de Red Hat et de tiers, permet le déploiement de ces modèles sur les clusters Red Hat OpenShift AI via l'interface de la console Web et gère le cycle de vie de ces modèles à l'aide du registre intégré de Red Hat OpenShift AI.
La formation distribuée via Kubeflow Training Operator permet de planifier et d'exécuter le réglage des modèles InstructLab et d'autres charges de travail de formation et de réglage basées sur PyTorch, réparties sur plusieurs nœuds Red Hat OpenShift et GPU, et inclut l'accélération du réseau RDMA distribué et une utilisation optimisée des GPU afin de réduire les coûts.
Le Feature Store (aperçu technologique), basé sur le projet en amont Kubeflow Feast, fournit un référentiel centralisé pour la gestion et la mise à disposition des données pour la formation et l'inférence des modèles, rationalisant ainsi les workflows de données afin d'améliorer la précision et la réutilisabilité des modèles. Red Hat Enterprise Linux AI 1.5 apporte de nouvelles mises à jour à la plateforme de modèles de base de Red Hat pour le développement, le test et l'exécution de modèles linguistiques à grande échelle (LLM). Les principales fonctionnalités de la version 1.5 sont les suivantes :
Disponibilité sur Google Cloud Marketplace, élargissant ainsi le choix des clients pour l'exécution de Red Hat Enterprise Linux AI dans des environnements de cloud public, aux côtés d'AWS et d'Azure, afin de simplifier le déploiement et la gestion des charges de travail d'IA sur Google Cloud.
Des capacités multilingues améliorées pour l'espagnol, l'allemand, le français et l'italien via InstructLab, permettant la personnalisation des modèles à l'aide de scripts natifs et ouvrant de nouvelles possibilités pour les applications d'IA multilingues. Les utilisateurs peuvent également apporter leurs propres modèles d'enseignants pour un meilleur contrôle de la personnalisation et des tests des modèles pour des cas d'utilisation et des langues spécifiques, avec une prise en charge future prévue pour le japonais, l'hindi et le coréen.