Udostępnij przez


Co się stało z tabelami Delta Live (DLT)?

Produkt znany wcześniej jako Delta Live Tables (DLT) został zaktualizowany do Spark Lakeflow Deklaratywnych Potoków (SDP). Jeśli wcześniej użyto biblioteki DLT, nie jest wymagana migracja do korzystania z potoków deklaratywnych platformy Spark w usłudze Lakeflow: kod nadal będzie działać w rozwiązaniu SDP. Istnieją zmiany, które można wprowadzić, aby lepiej wykorzystać Potoki Deklaratywne Lakeflow Spark zarówno teraz, jak i w przyszłości, a także wprowadzić zgodność z Potokami Deklaratywnymi Apache Spark™ (począwszy od wersji Apache Spark 4.1).

W kodzie w języku Python odwołania do import dlt mogą być zastąpione przez from pyspark import pipelines as dp, co również wymaga wprowadzenia następujących zmian:

  • @dlt jest zastępowany przez @dp.
  • Dekorator @table jest teraz używany do tworzenia przesyłanych strumieniowo tabel, a nowy dekorator @materialized_view służy do tworzenia zmaterializowanych widoków.
  • @view jest teraz @temporary_view.

Aby uzyskać więcej informacji na temat zmian nazwy Python API oraz różnic między Lakeflow SDP a Deklaratywne Potoki Apache Spark, zobacz Co się stało @dlt? w odniesieniu do potoków dokumentacji Python.

Uwaga / Notatka

Nadal istnieją pewne odwołania do nazwy DLT w usłudze Databricks. Klasyczne jednostki SKU dla Deklaratywnych Potoków Lakeflow Spark nadal zaczynają się od DLT, a schematy dziennika zdarzeń zawierające dlt w nazwie nie uległy zmianie. Interfejsy API języka Python, które w nazwie zawierały dlt, mogą być nadal użytkowane, ale usługa Databricks zaleca przejście na nowe nazwy.

Dowiedz się więcej