Partilhar via


O que aconteceu com a Delta Live Tables (DLT)?

O produto anteriormente conhecido como Delta Live Tables (DLT) foi atualizado para Lakeflow Spark Declarative Pipelines (SDP). Se já usou DLT anteriormente, não é necessária migração para usar Lakeflow Spark Declarative Pipelines: o seu código continuará a funcionar em SDP. Existem alterações que pode fazer para tirar melhor partido dos Lakeflow Spark Declarative Pipelines, tanto agora como no futuro, bem como para introduzir compatibilidade com os Apache™ Spark Declarative Pipelines (a partir do Apache Spark 4.1).

No código Python, as referências a import dlt podem ser substituídas por from pyspark import pipelines as dp, que também requer as seguintes alterações:

  • @dlt é substituído por @dp.
  • O @table decorador é agora usado para criar tabelas de streaming, e o novo @materialized_view decorador é usado para criar vistas materializadas.
  • @view é agora @temporary_view.

Para mais detalhes sobre as alterações aos nomes da API do Python e as diferenças entre os Pipelines Declarativos Apache Spark e Lakeflow SDP, veja O que aconteceu a @dlt? na referência de Python para os pipelines.

Observação

Ainda existem algumas referências ao nome DLT no Databricks. As SKUs clássicas para Lakeflow Spark Declarative Pipelines ainda começam com DLT, e os esquemas de log de eventos com dlt no nome não mudaram. As APIs Python dlt usadas no nome ainda podem ser usadas, mas o Databricks recomenda mudar para os novos nomes.

Mais informações