Red Hat, Inc. et Meta ont annoncé une nouvelle collaboration visant à stimuler l'évolution de l'IA générative (gen AI) pour les entreprises. Cette collaboration a débuté avec la mise à disposition dès le jour 0 par Red Hat de la gamme révolutionnaire de modèles Llama 4 sur Red Hat AI et du serveur d'inférence vLLM hautement performant. Forts de cette dynamique, Red Hat et Meta s'engagent également à aligner les projets communautaires Llama Stack et vLLM, contribuant ainsi à la mise en place de cadres unifiés pour la démocratisation et la simplification des charges de travail d'IA générative ouverte.

Selon Gartner1, « d'ici 2026, plus de 80 % des éditeurs de logiciels indépendants (ISV) auront intégré des capacités d'IA générative dans leurs applications d'entreprise, contre moins de 1 % aujourd'hui ». Cela souligne le besoin urgent de bases ouvertes et interopérables dont Red Hat et Meta sont les pionniers. La collaboration des deux entreprises répond directement à l'exigence cruciale d'une fonctionnalité plus fluide des charges de travail d'IA générative sur diverses plateformes, clouds et accélérateurs d'IA, en particulier au niveau crucial de l'interface de programmation d'applications (API) et au sein de la phase «

répond directement à l'exigence critique d'une fonctionnalité plus transparente des charges de travail d'IA générique sur diverses plateformes, clouds et accélérateurs d'IA, en particulier au niveau crucial de l'interface de programmation d'applications (API) et dans la phase « d'exécution » de l'IA, à savoir le service d'inférence.

L'engagement profond de Red Hat et de Meta en faveur de l'innovation ouverte est évident dans leur rôle de principaux contributeurs commerciaux à des projets fondamentaux : Llama Stack, développé et open source par Meta, fournit des composants et des API standardisés pour révolutionner l'ensemble du cycle de vie des applications d'IA générique ; et vLLM, où les contributions de Red Hat alimentent une plateforme open source qui permet une inférence hautement efficace et optimisée pour les grands modèles linguistiques (LLM), y compris la prise en charge dès le premier jour de Llama 4.