Delta Lake, lapisan penyimpanan format terbuka yang dipelopori oleh Databricks, pada awalnya dikembangkan untuk kasus penggunaan streaming dengan penulisan yang cepat.
Hal ini telah menjadi format lakehouse yang paling banyak diadopsi, terbukti dalam skala besar - memproses lebih dari 10 exabyte data setiap hari.
Tableflow dengan Delta Lake membuat data operasional tersedia langsung ke ekosistem Delta Lake yang lebih besar.
Pelanggan Confluent dan Databricks akan dapat membawa mesin atau alat AI apa pun seperti Apache Spark, Trino, Polar, DuckDB, dan Daft ke data mereka di Unity Catalog.
Integrasi khusus antara Tableflow dan Unity Catalog Databricks akan memastikan metadata - enabler penting untuk aplikasi AI yang secara otomatis diterapkan pada data yang dipertukarkan antar platform.
Hal ini membuat data operasional dapat ditemukan dan ditindaklanjuti oleh para ilmuwan dan analis data yang bekerja di Databricks sekaligus memastikan data analitik dapat diakses dan berguna bagi para pengembang aplikasi dan teknisi streaming di Confluent.
Selain itu, rangkaian Stream Governance Confluent akan menyediakan tata kelola hulu dan metadata untuk meningkatkan tata kelola yang mulus, end-to-end stream lineage dan pemantauan kualitas data otomatis di Unity Catalog.
Load more