CrowdStrike a lancé CrowdStrike AI Red Team Services, renforçant ainsi son leadership dans la protection de l'infrastructure, des systèmes et des modèles à l'origine de la révolution de l'IA. S'appuyant sur les renseignements sur les menaces de CrowdStrike et sur son expertise des tactiques des adversaires dans le monde réel, ces services spécialisés identifient de manière proactive les vulnérabilités des systèmes d'IA, y compris les grands modèles de langage (LLM), et contribuent à les atténuer, de sorte que les entreprises puissent innover en toute confiance dans le domaine de l'IA. Alors que les entreprises adoptent l'IA à un rythme rapide, de nouvelles menaces telles que la falsification de modèles, l'empoisonnement de données, l'exposition de données sensibles, et bien d'autres, ciblent de plus en plus les applications d'IA et leurs données sous-jacentes.

La compromission des systèmes d'IA, y compris les LLM, peut entraîner une violation de la confidentialité, une réduction de l'efficacité des modèles et une vulnérabilité accrue aux manipulations adverses. Annoncés à Fal.Con Europe, la première conférence des utilisateurs de CrowdStrike dans la région, les services CrowdStrike AI Red Team fournissent aux organisations des évaluations de sécurité complètes pour les systèmes d'IA, y compris les LLM et leurs intégrations, afin d'identifier les vulnérabilités et les mauvaises configurations qui pourraient conduire à des violations de données, à l'exécution de code non autorisé ou à la manipulation d'applications. Grâce à des exercices avancés d'équipe rouge, des tests de pénétration et des évaluations ciblées, combinés aux innovations de la plateforme Falcon telles que Falcon Cloud Security AI-SPM et Falcon Data Protection, CrowdStrike reste à la pointe de la sécurité de l'IA.

Les principales caractéristiques du service sont les suivantes : Défense proactive de l'IA : identifie les vulnérabilités des systèmes d'IA, conformément aux techniques d'attaque du Top 10 LLM de l'OWASP, avant que les adversaires ne puissent les exploiter, renforçant ainsi la protection contre les menaces émergentes. Émulations adverses dans le monde réel : Fournit des scénarios d'attaque sur mesure spécifiques à chaque application d'IA, garantissant que les systèmes sont testés contre les menaces les plus pertinentes. Validation complète de la sécurité : Fournit des informations exploitables pour renforcer la résilience des intégrations d'IA dans un paysage de menaces en constante évolution.