Elastic a annoncé Search AI Lake, une architecture cloud native, première du genre, optimisée pour les applications en temps réel et à faible latence, notamment la recherche, la génération augmentée de récupération (RAG), l'observabilité et la sécurité. Le Search AI Lake alimente également la nouvelle offre Elastic Cloud Serverless, qui supprime les frais généraux d'exploitation pour faire évoluer et gérer automatiquement les charges de travail. Avec la capacité de stockage étendue d'un lac de données et les puissantes capacités de recherche et de pertinence de l'IA d'Elasticsearch, Search AI Lake offre des performances de requête à faible latence sans sacrifier l'évolutivité, la pertinence ou l'accessibilité financière.

Les avantages de Search AI Lake sont les suivants Échelle illimitée, calcul et stockage découplés : Le découplage complet du stockage et du calcul permet une évolutivité et une fiabilité sans effort grâce au stockage d'objets, à la mise en cache dynamique qui prend en charge un débit élevé, des mises à jour fréquentes et des requêtes interactives sur de grands volumes de données. Il n'est donc plus nécessaire de répliquer les opérations d'indexation sur plusieurs serveurs, ce qui réduit les coûts d'indexation et la duplication des données. Temps réel, faible latence : De nombreuses améliorations permettent de maintenir d'excellentes performances d'interrogation, même lorsque les données sont conservées en toute sécurité dans des magasins d'objets.

Il s'agit notamment de l'introduction de la mise en cache intelligente et de la parallélisation des requêtes au niveau des segments pour réduire la latence en permettant une récupération plus rapide des données et le traitement rapide d'un plus grand nombre de requêtes. Réduire indépendamment l'indexation et l'interrogation : En séparant l'indexation et la recherche à un bas niveau, la plateforme peut évoluer indépendamment et automatiquement pour répondre aux besoins d'un large éventail de charges de travail. Inférence native et recherche vectorielle optimisées par GAI : Les utilisateurs peuvent tirer parti d'une suite native de puissantes capacités de pertinence, d'extraction et de reclassement de l'IA, y compris une base de données vectorielle native entièrement intégrée à Lucene, des API d'inférence ouvertes, une recherche sémantique et des modèles de transformation de première et de tierce parties, qui fonctionnent de manière transparente avec l'ensemble des fonctionnalités de recherche.

Des requêtes et des analyses puissantes : Le puissant langage de requête d'Elasticsearch, ES|QL, est intégré pour transformer, enrichir et simplifier les investigations grâce à un traitement simultané rapide, quelles que soient la source et la structure des données. La prise en charge complète de la recherche en texte intégral précise et efficace et de l'analyse des séries temporelles pour identifier des modèles dans l'analyse géospatiale est également incluse. Apprentissage automatique natif : Les utilisateurs peuvent créer, déployer et optimiser l'apprentissage automatique directement sur toutes les données pour obtenir des prédictions supérieures.

Pour les analystes de la sécurité, les règles de détection des menaces préconstruites peuvent facilement s'exécuter sur des informations historiques, même plusieurs années en arrière. De même, les modèles non supervisés permettent de détecter des anomalies en temps quasi réel, rétrospectivement, sur des données couvrant des périodes beaucoup plus longues que les autres plateformes SIEM. Véritablement distribuée - interrégionale, dans le nuage ou hybride : Interrogez les données dans la région ou le centre de données où elles ont été générées à partir d'une seule interface. La recherche cross-cluster (CCS) évite de centraliser ou de synchroniser les données.

En quelques secondes, tout format de données est normalisé, indexé et optimisé pour permettre des requêtes et des analyses extrêmement rapides. Le tout en réduisant les coûts de transfert et de stockage des données. Search AI Lake alimente une nouvelle offre Elastic Cloud Serverless qui exploite la vitesse et l'échelle de l'architecture innovante pour supprimer les frais généraux opérationnels afin que les utilisateurs puissent démarrer et faire évoluer les charges de travail rapidement et en toute transparence.

Toutes les opérations, de la surveillance et de la sauvegarde à la configuration et au dimensionnement, sont gérées par Elastic - les utilisateurs apportent simplement leurs données et choisissent Elasticsearch, Elastic Observability ou Elastic Security on Serverless.