Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O produto anteriormente conhecido como DLT (Delta Live Tables) foi atualizado para o Lakeflow Spark Declarative Pipelines (SDP). Se você usou anteriormente o DLT, não há nenhuma migração necessária para usar o Lakeflow Spark Declarative Pipelines: seu código ainda funcionará no SDP. Há alterações que você pode fazer para aproveitar melhor os Pipelines Declarativos do Lakeflow Spark, agora e no futuro, bem como para introduzir compatibilidade com os Pipelines Declarativos do Apache Spark™ (começando no Apache Spark 4.1).
No código Python, referências a import dlt podem ser substituídas por from pyspark import pipelines as dp, o que requer também as seguintes alterações:
-
@dltserá substituída por@dp. - O
@tabledecorador agora é usado para criar tabelas de streaming e o novo@materialized_viewdecorador é usado para criar exibições materializadas. -
@viewagora é@temporary_view.
Para obter mais detalhes sobre as mudanças de nomenclatura da API Python e as diferenças entre Lakeflow SDP e os Pipelines Declarativos do Apache Spark, consulte O que aconteceu @dlt? na referência de pipelines do Python.
Observação
Ainda há algumas referências ao nome DLT no Databricks. Os SKUs clássicos para Pipelines Declarativos do Lakeflow Spark ainda começam com DLT e os esquemas de log de eventos com dlt no nome não foram alterados. As APIs do Python usadas dlt no nome ainda podem ser usadas, mas o Databricks recomenda mover para os novos nomes.