Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Das Produkt, das früher als Delta Live Tables (DLT) bekannt ist, wurde auf Lakeflow Spark Declarative Pipelines (SDP) aktualisiert. Wenn Sie DLT bereits verwendet haben, ist keine Migration erforderlich, um Lakeflow Spark Declarative Pipelines zu verwenden: Ihr Code funktioniert weiterhin in SDP. Es gibt Änderungen, die Sie vornehmen können, um Lakeflow Spark Declarative Pipelines sowohl jetzt als auch in Zukunft besser nutzen zu können, sowie die Kompatibilität mit den Apache Spark™ Declarative Pipelines (beginnend in Apache Spark 4.1) einzuführen.
In Python-Code können Verweise auf import dlt durch from pyspark import pipelines as dp ersetzt werden, was auch die folgenden Änderungen erfordert:
-
@dltwird durch@dpersetzt. - Der
@tableDekorateur wird jetzt zum Erstellen von Streamingtabellen verwendet, und der neue@materialized_viewDekorateur wird verwendet, um materialisierte Ansichten zu erstellen. -
@viewist jetzt@temporary_view.
Weitere Details zu den Python-API-Namensänderungen und Unterschieden zwischen Lakeflow SDP und Apache Spark Declarative Pipelines finden Sie unter Was ist passiert @dlt? in der Pipelines Python-Referenz.
Hinweis
Es gibt noch einige Verweise auf den DLT-Namen in Databricks. Die klassischen SKUs für Lakeflow Spark Declarative Pipelines beginnen weiterhin mit DLT, und Ereignisprotokollschemas mit dlt dem Namen wurden nicht geändert. Python-APIs, die dlt im Namen enthalten, können weiterhin genutzt werden, aber Databricks empfiehlt, zu den neuen Namen zu wechseln.