Compartir a través de


¿Qué ha ocurrido con Delta Live Tables (DLT)?

El producto anteriormente conocido como Delta Live Tables (DLT) se ha actualizado a Spark Declarative Pipelines (SDP) de Lakeflow. Si ha usado anteriormente DLT, no se requiere ninguna migración para usar canalizaciones declarativas de Spark de Lakeflow: el código seguirá funcionando en SDP. Hay cambios que puede hacer para aprovechar mejor las canalizaciones declarativas de Spark de Lakeflow, tanto ahora como en el futuro, así como para introducir compatibilidad con las canalizaciones declarativas de Apache Spark™ (a partir de Apache Spark 4.1).

En el código de Python, las referencias a import dlt se pueden reemplazar por from pyspark import pipelines as dp, que también requiere los siguientes cambios:

  • @dlt se reemplaza por @dp.
  • El @table decorador ahora se usa para crear tablas de streaming y el nuevo @materialized_view decorador se usa para crear vistas materializadas.
  • @view ahora es @temporary_view.

Para más información sobre los cambios en el nombre de la API de Python y las diferencias entre Lakeflow SDP y las Canalizaciones Declarativas de Apache Spark, consulte ¿Qué ha ocurrido con @dlt? en la referencia de canalizaciones en Python.

Nota:

Todavía hay algunas referencias al nombre DLT en Databricks. Las SKU clásicas para las canalizaciones declarativas de Spark de Lakeflow siguen empezando por DLT. Los esquemas de registro de eventos que tienen dlt en el nombre no han cambiado. Las API de Python que se usan dlt en el nombre todavía se pueden usar, pero Databricks recomienda pasar a los nuevos nombres.

Aprende más