Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
23 januari - 30 januari 2025
Deze functies en verbeteringen zijn uitgebracht met de 2025.04-release van DLT.
Databricks Runtime-versies die door deze release worden gebruikt
-kanaal:
- CURRENT (standaard): Databricks Runtime 15.4
- PREVIEW: Databricks Runtime 15.4 of 16.1
Notitie
Omdat DLT-kanaalreleases een rolling upgradeproces volgen, worden kanaalupgrades op verschillende tijdstippen geïmplementeerd in verschillende regio's. Uw release, inclusief Databricks Runtime-versies, wordt mogelijk pas na een week of meer bijgewerkt na de eerste releasedatum. Zie Runtime-informatieom de Databricks Runtime-versie voor een pijplijn te vinden.
Nieuwe functies en verbeteringen
- Nieuwe Lakeflow Spark-declaratieve pijplijnen ondersteunen standaard het maken en bijwerken van gerealiseerde weergaven en streamingtabellen in meerdere catalogi en schema's. Dit nieuwe standaardgedrag voor pijplijnconfiguratie vereist dat gebruikers een doelschema opgeven dat het standaardschema voor de pijplijn wordt. Het
LIVEvirtuele schema en de bijbehorende syntaxis zijn niet meer vereist. Zie De doelcatalogus en het doelschema instellen, Pijplijnen enLIVE-schema configureren (verouderd) voor meer informatie.
- De
clone a pipelineaanvraag in de Databricks REST API is nu algemeen beschikbaar. U kunt deze aanvraag gebruiken om een bestaande pijplijn te kopiëren die naar de Hive-metastore wordt gepubliceerd naar een nieuwe pijplijn die naar Unity Catalog wordt gepubliceerd. Zie Een Unity Catalog-pijplijn maken door een Hive-metastore-pijplijnte klonen.
- Ondersteuning voor het weergeven van metrische gegevens voor streamingworkloads voor uw pijplijnupdates bevindt zich in openbare preview. Wanneer u pijplijnupdates bekijkt in de declaratieve pijplijngebruikersinterface van Lakeflow Spark, kunt u nu metrische gegevens bekijken, zoals backlog seconden, achterstandsbytes, backlogrecords en backlogbestanden voor elke streamingstroom in de pijplijn. Metrische streaminggegevens worden ondersteund voor Spark Structured Streaming-bronnen, waaronder Apache Kafka, Amazon Kinesis en Auto Loader. Zie Metrische gegevens voor streaming weergeven.