Elastic a annoncé que l'API d'inférence ouverte Elasticsearch prend désormais en charge les modèles d'intégration de texte de Cohere. Cela inclut le support natif d'Elasticsearch pour les embeddings int8 efficaces, qui optimisent les performances et réduisent le coût de la mémoire pour la recherche sémantique dans les grands ensembles de données que l'on trouve couramment dans les scénarios d'entreprise. Grâce à cette intégration, les développeurs Elasticsearch peuvent bénéficier de gains de performance immédiats, y compris jusqu'à 4 fois les économies de mémoire et jusqu'à 30 % de recherche plus rapide, sans impact sur la qualité de la recherche.