Partager via


Qu’est-il arrivé aux tables dynamiques Delta (DLT) ?

Le produit anciennement appelé Delta Live Tables (DLT) a été mis à jour vers Lakeflow Spark Declarative Pipelines (SDP). Si vous avez déjà utilisé DLT, aucune migration n’est requise pour utiliser des pipelines déclaratifs Spark Lakeflow : votre code fonctionnera toujours dans SDP. Il existe des modifications que vous pouvez apporter pour mieux tirer parti des pipelines déclaratifs Spark Lakeflow, à la fois maintenant et à l’avenir, ainsi que pour introduire la compatibilité avec les pipelines déclaratifs Apache Spark™ (à compter d’Apache Spark 4.1).

Dans le code Python, les références à import dlt peuvent être remplacées par from pyspark import pipelines as dp, ce qui nécessite également les modifications suivantes :

  • @dlt est remplacé par @dp.
  • Le @table décorateur est maintenant utilisé pour créer des tables de streaming, et le nouveau @materialized_view décorateur est utilisé pour créer des vues matérialisées.
  • @view est maintenant @temporary_view.

Pour plus d’informations sur les modifications apportées au nom de l’API Python et les différences entre les pipelines déclaratifs Lakeflow et Apache Spark, consultez Qu’est-il arrivé à @dlt? dans la référence Python des pipelines.

Note

Il existe toujours des références au nom DLT dans Databricks. Les SKU classiques pour les pipelines déclaratifs Spark Lakeflow commencent toujours par DLT, et les schémas de journal des événements avec dlt dans le nom n’ont pas changé. Les API Python utilisées dlt dans le nom peuvent toujours être utilisées, mais Databricks recommande de passer aux nouveaux noms.

Learn more