Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Produkt znany wcześniej jako Delta Live Tables (DLT) został zaktualizowany do Spark Lakeflow Deklaratywnych Potoków (SDP). Jeśli wcześniej użyto biblioteki DLT, nie jest wymagana migracja do korzystania z potoków deklaratywnych platformy Spark w usłudze Lakeflow: kod nadal będzie działać w rozwiązaniu SDP. Istnieją zmiany, które można wprowadzić, aby lepiej wykorzystać Potoki Deklaratywne Lakeflow Spark zarówno teraz, jak i w przyszłości, a także wprowadzić zgodność z Potokami Deklaratywnymi Apache Spark™ (począwszy od wersji Apache Spark 4.1).
W kodzie w języku Python odwołania do import dlt mogą być zastąpione przez from pyspark import pipelines as dp, co również wymaga wprowadzenia następujących zmian:
-
@dltjest zastępowany przez@dp. - Dekorator
@tablejest teraz używany do tworzenia przesyłanych strumieniowo tabel, a nowy dekorator@materialized_viewsłuży do tworzenia zmaterializowanych widoków. -
@viewjest teraz@temporary_view.
Aby uzyskać więcej informacji na temat zmian nazwy Python API oraz różnic między Lakeflow SDP a Deklaratywne Potoki Apache Spark, zobacz Co się stało @dlt? w odniesieniu do potoków dokumentacji Python.
Uwaga / Notatka
Nadal istnieją pewne odwołania do nazwy DLT w usłudze Databricks. Klasyczne jednostki SKU dla Deklaratywnych Potoków Lakeflow Spark nadal zaczynają się od DLT, a schematy dziennika zdarzeń zawierające dlt w nazwie nie uległy zmianie. Interfejsy API języka Python, które w nazwie zawierały dlt, mogą być nadal użytkowane, ale usługa Databricks zaleca przejście na nowe nazwy.