Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Le produit anciennement appelé Delta Live Tables (DLT) a été mis à jour vers Lakeflow Spark Declarative Pipelines (SDP). Si vous avez déjà utilisé DLT, aucune migration n’est requise pour utiliser des pipelines déclaratifs Spark Lakeflow : votre code fonctionnera toujours dans SDP. Il existe des modifications que vous pouvez apporter pour mieux tirer parti des pipelines déclaratifs Spark Lakeflow, à la fois maintenant et à l’avenir, ainsi que pour introduire la compatibilité avec les pipelines déclaratifs Apache Spark™ (à compter d’Apache Spark 4.1).
Dans le code Python, les références à import dlt peuvent être remplacées par from pyspark import pipelines as dp, ce qui nécessite également les modifications suivantes :
-
@dltest remplacé par@dp. - Le
@tabledécorateur est maintenant utilisé pour créer des tables de streaming, et le nouveau@materialized_viewdécorateur est utilisé pour créer des vues matérialisées. -
@viewest maintenant@temporary_view.
Pour plus d’informations sur les modifications apportées au nom de l’API Python et les différences entre les pipelines déclaratifs Lakeflow et Apache Spark, consultez Qu’est-il arrivé à @dlt? dans la référence Python des pipelines.
Note
Il existe toujours des références au nom DLT dans Databricks. Les SKU classiques pour les pipelines déclaratifs Spark Lakeflow commencent toujours par DLT, et les schémas de journal des événements avec dlt dans le nom n’ont pas changé. Les API Python utilisées dlt dans le nom peuvent toujours être utilisées, mais Databricks recommande de passer aux nouveaux noms.