Freigeben über


Was ist mit Delta Live Tables (DLT)?

Das Produkt, das früher als Delta Live Tables (DLT) bekannt ist, wurde auf Lakeflow Spark Declarative Pipelines (SDP) aktualisiert. Wenn Sie DLT bereits verwendet haben, ist keine Migration erforderlich, um Lakeflow Spark Declarative Pipelines zu verwenden: Ihr Code funktioniert weiterhin in SDP. Es gibt Änderungen, die Sie vornehmen können, um Lakeflow Spark Declarative Pipelines sowohl jetzt als auch in Zukunft besser nutzen zu können, sowie die Kompatibilität mit den Apache Spark™ Declarative Pipelines (beginnend in Apache Spark 4.1) einzuführen.

In Python-Code können Verweise auf import dlt durch from pyspark import pipelines as dp ersetzt werden, was auch die folgenden Änderungen erfordert:

  • @dlt wird durch @dp ersetzt.
  • Der @table Dekorateur wird jetzt zum Erstellen von Streamingtabellen verwendet, und der neue @materialized_view Dekorateur wird verwendet, um materialisierte Ansichten zu erstellen.
  • @view ist jetzt @temporary_view.

Weitere Details zu den Python-API-Namensänderungen und Unterschieden zwischen Lakeflow SDP und Apache Spark Declarative Pipelines finden Sie unter Was ist passiert @dlt? in der Pipelines Python-Referenz.

Hinweis

Es gibt noch einige Verweise auf den DLT-Namen in Databricks. Die klassischen SKUs für Lakeflow Spark Declarative Pipelines beginnen weiterhin mit DLT, und Ereignisprotokollschemas mit dlt dem Namen wurden nicht geändert. Python-APIs, die dlt im Namen enthalten, können weiterhin genutzt werden, aber Databricks empfiehlt, zu den neuen Namen zu wechseln.

Learn more