Compartilhar via


O que aconteceu com o DLT (Delta Live Tables)?

O produto anteriormente conhecido como DLT (Delta Live Tables) foi atualizado para o Lakeflow Spark Declarative Pipelines (SDP). Se você usou anteriormente o DLT, não há nenhuma migração necessária para usar o Lakeflow Spark Declarative Pipelines: seu código ainda funcionará no SDP. Há alterações que você pode fazer para aproveitar melhor os Pipelines Declarativos do Lakeflow Spark, agora e no futuro, bem como para introduzir compatibilidade com os Pipelines Declarativos do Apache Spark™ (começando no Apache Spark 4.1).

No código Python, referências a import dlt podem ser substituídas por from pyspark import pipelines as dp, o que requer também as seguintes alterações:

  • @dltserá substituída por@dp.
  • O @table decorador agora é usado para criar tabelas de streaming e o novo @materialized_view decorador é usado para criar exibições materializadas.
  • @view agora é @temporary_view.

Para obter mais detalhes sobre as mudanças de nomenclatura da API Python e as diferenças entre Lakeflow SDP e os Pipelines Declarativos do Apache Spark, consulte O que aconteceu @dlt? na referência de pipelines do Python.

Observação

Ainda há algumas referências ao nome DLT no Databricks. Os SKUs clássicos para Pipelines Declarativos do Lakeflow Spark ainda começam com DLT e os esquemas de log de eventos com dlt no nome não foram alterados. As APIs do Python usadas dlt no nome ainda podem ser usadas, mas o Databricks recomenda mover para os novos nomes.

Saiba Mais