Confluent, Inc. a annoncé de nouvelles fonctionnalités Confluent Cloud qui facilitent le streaming, la connexion, la gouvernance et le traitement des données pour des expériences plus transparentes et des informations opportunes, tout en conservant leurs données en sécurité. Confluent Tableflow transforme facilement les sujets Apache Kafka et les schémas associés en tables Apache Iceberg en un seul clic pour mieux alimenter les lacs de données et les entrepôts de données. Les connecteurs entièrement gérés de Confluent ont été améliorés avec de nouveaux chemins de réseau sécurisés et des coûts de débit jusqu'à 50 % inférieurs pour permettre des intégrations plus complètes, plus sûres et plus rentables.

La gouvernance des flux est désormais activée par défaut dans toutes les régions, avec un SLA amélioré pour Schema Registry, ce qui facilite l'ajustement et le partage des flux de données en toute sécurité, où qu'ils soient utilisés. Pour que les entreprises puissent prendre des décisions qui optimisent les coûts, augmentent les revenus et stimulent l'innovation, il faut connecter les domaines opérationnels et analytiques des données, qui sont traditionnellement cloisonnés dans les organisations. Le domaine opérationnel comprend les applications SaaS, les applications personnalisées et les bases de données qui alimentent des entreprises telles qu'Oracle, Salesforce et ServiceNow.

Le domaine analytique comprend les entrepôts de données, les lacs de données et les moteurs d'analyse qui alimentent l'analyse et la prise de décision et utilisent les flux de données et les tables historiques pour exécuter des requêtes et différentes fonctions analytiques. De nombreuses organisations se tournent vers Kafka comme norme pour le flux de données dans le domaine opérationnel, et vers Iceberg comme format de table ouvert standard pour les ensembles de données dans le domaine analytique. En utilisant Iceberg, les entreprises peuvent partager des données entre équipes et plateformes tout en gardant les tableaux à jour au fur et à mesure que les données évoluent.

Les entreprises qui utilisent Kafka veulent utiliser Iceberg pour répondre à la demande croissante d'analyses en continu et par lots. En conséquence, de nombreuses entreprises doivent exécuter des migrations complexes qui peuvent être gourmandes en ressources, ce qui se traduit par des données périmées et non fiables et par une augmentation des coûts. Tableflow facilite l'alimentation des entrepôts de données et des lacs de données pour l'analyse : Tableflow, une nouvelle fonctionnalité de Confluent Cloud, transforme les sujets et les schémas en tables Iceberg en un clic pour alimenter n'importe quel entrepôt de données, lac de données ou moteur d'analyse pour des cas d'utilisation en temps réel ou en traitement par lots.

Tableflow s'associe aux fonctionnalités existantes de la plateforme de streaming de données de Confluent, notamment les fonctions de gouvernance des flux et le traitement des flux avec Apache Flink, pour unifier le paysage opérationnel et analytique. En utilisant Tableflow, les clients peuvent Rendre les sujets Kafka disponibles en tant que tables Iceberg en un seul clic, avec tous les schémas associés, Garantir que les tables Iceberg fraîches et à jour sont continuellement mises à jour avec les dernières données en streaming de votre entreprise et des systèmes sources et Fournir des produits de données de haute qualité en exploitant la puissance de la plateforme de streaming de données avec Stream Governance et Flink sans serveur pour nettoyer, traiter ou enrichir les données en flux afin que seuls les produits de données de haute qualité atterrissent dans votre lac de données. Tableflow est actuellement disponible dans le cadre d'un programme d'accès anticipé et sera bientôt disponible pour tous les clients Confluent Cloud.

Connect apporte de nouvelles améliorations en matière de sécurité, d'utilisation et de tarification à un portefeuille de plus de 80 connecteurs entièrement gérés : Pour construire un système nerveux central pour une entreprise, les utilisateurs doivent être en mesure de connecter tous leurs systèmes de données pour capturer des flux de données continus. Les connecteurs relèvent les défis des architectures de données traditionnelles qui peuvent cloisonner les données, diminuer la qualité des données et entraîner des temps d'arrêt non planifiés. Pour ce faire, les connecteurs connectent de manière transparente les systèmes de données et les applications en tant que sources et puits de Confluent Cloud. Confluent continue d'améliorer les connecteurs, un composant essentiel de la plateforme de streaming de données, afin qu'un plus grand nombre d'utilisateurs puissent bénéficier d'intégrations rapides, sans friction et sécurisées.

Avec les nouvelles mises à jour de Connect, les clients de Confluent peuvent : Se connecter en toute sécurité à des systèmes de données critiques dans des réseaux privés en utilisant le DNS Forwarding et les Egress Access Points, Provisionner des connecteurs de manière fiable en quelques secondes avec des validations de configuration en temps réel et un SLA de 99,99% et Streamer des données de manière abordable à n'importe quelle échelle avec des coûts de transfert de données réduits jusqu'à 50%, soit 0,025$/Go.