Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
O produto anteriormente conhecido como Delta Live Tables (DLT) foi atualizado para Lakeflow Spark Declarative Pipelines (SDP). Se já usou DLT anteriormente, não é necessária migração para usar Lakeflow Spark Declarative Pipelines: o seu código continuará a funcionar em SDP. Existem alterações que pode fazer para tirar melhor partido dos Lakeflow Spark Declarative Pipelines, tanto agora como no futuro, bem como para introduzir compatibilidade com os Apache™ Spark Declarative Pipelines (a partir do Apache Spark 4.1).
No código Python, as referências a import dlt podem ser substituídas por from pyspark import pipelines as dp, que também requer as seguintes alterações:
-
@dlté substituído por@dp. - O
@tabledecorador é agora usado para criar tabelas de streaming, e o novo@materialized_viewdecorador é usado para criar vistas materializadas. -
@viewé agora@temporary_view.
Para mais detalhes sobre as alterações aos nomes da API do Python e as diferenças entre os Pipelines Declarativos Apache Spark e Lakeflow SDP, veja O que aconteceu a @dlt? na referência de Python para os pipelines.
Observação
Ainda existem algumas referências ao nome DLT no Databricks. As SKUs clássicas para Lakeflow Spark Declarative Pipelines ainda começam com DLT, e os esquemas de log de eventos com dlt no nome não mudaram. As APIs Python dlt usadas no nome ainda podem ser usadas, mas o Databricks recomenda mudar para os novos nomes.