Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Meer informatie over functies en gedragswijzigingen in toekomstige Azure Databricks-releases.
Genie is binnenkort beschikbaar in de Azure-geografische gebieden van Japan en Korea
Vanaf 31 januari 2026 is Genie beschikbaar in-Geo voor Japan en Korea. Werkruimten in Japan en Korea binnen Azure Geographies vereisen geen Cross-Geo-verwerking meer om Genie te gebruiken.
Zie Beschikbaarheid van aangewezen services in elke geo voor meer informatie over welke functies cross-geo-verwerking vereisen.
Agent Bricks: Knowledge Assistant is binnenkort standaard beschikbaar voor werkruimten met verbeterde beveiliging en naleving
Medio februari 2026 is Agent Bricks: Knowledge Assistant standaard beschikbaar voor werkruimten waarvoor Verbeterde beveiliging en naleving is ingeschakeld.
Agent Bricks biedt een gestroomlijnde benadering voor het operationeel maken van gegevens in AI-agents op productieniveau. Gebruik Agent Bricks: Knowledge Assistant om een chatbot te maken die vragen over uw documenten kan beantwoorden en antwoorden van hoge kwaliteit met bronvermeldingen kan bieden.
Gebruikers kunnen deze functie nu gaan gebruiken door de preview-versie van Knowledge Assistant in te schakelen.
ADBC wordt het standaardstuurprogramma voor nieuwe Power BI-verbindingen
Vanaf februari zullen nieuwe verbindingen die zijn gemaakt in Power BI Desktop of Power BI Service automatisch het Arrow Database Connectivity (ADBC)-stuurprogramma gebruiken. Bestaande verbindingen blijven ODBC gebruiken, tenzij u ze handmatig bijwerkt naar ADBC.
Als u liever ODBC voor nieuwe verbindingen wilt blijven gebruiken, hebt u de volgende twee opties:
- Wanneer u een verbinding maakt, selecteert u
defaultals implementatie. - Schakel in Power BI Desktop de preview van de ADBC-functie uit, waarmee ODBC wordt hersteld als de standaardinstelling voor alle nieuwe verbindingen.
Zie het ADBC-stuurprogramma (Arrow Database Connectivity) voor Power BI en het Databricks-stuurprogramma in de ADBC-opslagplaats voor meer informatie over ADBC.
Naam van ODBC-stuurprogramma wijzigen
In een volgende release wordt de naam van het Spark ODBC-stuurprogramma (Simba) gewijzigd in het ODBC-stuurprogramma van Databricks. In de toekomst gebruiken alle nieuwe versies van het stuurprogramma deze bijgewerkte naam. Als u de nieuwste versie van het stuurprogramma downloadt, moet u kleine updates in uw toepassing uitvoeren om het stuurprogramma met de nieuwe naam te kunnen gebruiken. Alle bestaande functionaliteit en prestaties blijven hetzelfde.
Eerdere versies van het stuurprogramma blijven beschikbaar op de pagina Alle ODBC-stuurprogrammaversies en blijven ten minste twee jaar ondersteund.
Serverloze werkruimten zijn binnenkort algemeen beschikbaar
Begin februari 2026 zijn serverloze werkruimten algemeen beschikbaar. Serverloze werkruimten zijn vooraf geconfigureerd met serverloze rekenkracht en standaardopslag, wat een volledig beheerde, bedrijfsklare SaaS-ervaring biedt. Zie Een serverloze werkruimte maken.
Door partners gemaakte AI-functies worden binnenkort ondersteund in de Azure-regio's Canada, Brazilië en het Verenigd Koninkrijk
Vanaf 31 januari 2026 gebruiken door partners gemaakte AI-functies in Canada, Brazilië en het Verenigd Koninkrijk die worden uitgevoerd met uitgeschakelde cross-geo-verwerking modellen die worden gehost in dezelfde Azure Geography als de werkruimte. Hiermee wordt het hosten van modellen afgestemd op Azure Geographies en zorgt u voor consistente regionale beschikbaarheid.
Invloed op de gebruikerservaring:
- De meeste AI-functies blijven werken zoals verwacht, zonder dat er actie is vereist.
- Sommige AI-mogelijkheden die afhankelijk zijn van modellen die momenteel niet worden gehost in Een Azure Geography, zijn mogelijk niet meer beschikbaar voor gebruikers waarvoor cross-geo-verwerking is uitgeschakeld. Zie Beschikbaarheid van aangewezen services in elke geo voor meer informatie over welke functies cross-geo-verwerking vereisen.
- Als u afhankelijk bent van een functie die niet meer beschikbaar is in uw Azure Geography, schakelt u cross-geo-verwerking in om die functie toe te staan om modellen te blijven gebruiken die buiten Azure Geography worden gehost.
Nieuwe segmenteringslogica voor tijdlijntabellen voor taken
Vanaf 19 januari 2026 gebruiken de tijdlijntabellen voor werkzaamheden een nieuwe klokuur-uitgelijnde snijlogica. Tijdsegmenten worden nu uitgelijnd op standaard klokuurgrenzen (17:00-18:00, 18:00-17:00 uur, enzovoort) in plaats van intervallen van één uur op basis van de begintijd van de uitvoering. Nieuwe rijen maken gebruik van de nieuwe segmenteringslogica, terwijl bestaande rijen ongewijzigd blijven.
Zie de uitgelijnde segmenteringslogica die uur per uur is uitgelijnd.
Openbare URL's voor downloads van ODBC-stuurprogramma's worden uitgeschakeld
In een toekomstige release worden openbare URL's voor automatische downloads van Apache Spark ODBC-stuurprogramma's uitgeschakeld. Na deze wijziging moeten alle stuurprogramma's, inclusief geautomatiseerde processen, verificatie vereisen. Hierdoor worden geautomatiseerde processen verbroken die Apache Spark ODBC-stuurprogramma's downloaden met behulp van directe openbare koppelingen zonder verificatie.
Navigatie-updates voor Catalogusverkenner
Catalog Explorer ontvangt binnenkort navigatieverbeteringen om werkstromen te stroomlijnen en u te helpen gegevensassets efficiënter te detecteren en te beheren.
Vereenvoudigde navigatie:
Het tabblad Duplicative Catalogs wordt verwijderd om redundantie te verminderen en zich te richten op één catalogusnavigatieoppervlak.
DBFS en De acties Feedback verzenden gaan naar het Voor een schonere indeling.
Nieuwe voorgestelde sectie:
Een nieuw tabblad Aanbevolen op de startpagina van Catalog Explorer markeert veelgebruikte objecten, voorbeeldobjecten voor eerste gebruikers en favorieten van gebruikers. Dit helpt u snel opnieuw in contact te komen met belangrijke assets of nuttige uitgangspunten te ontdekken.
Geconsolideerde toegangspunten:
Gerelateerde mogelijkheden worden gegroepeerd onder duidelijkere categorieën om visuele ruis te verminderen en de vindbaarheid te verbeteren:
- Beheren : toegangspunt voor beheerde tags, metastore-beheer en gegevensclassificatie
- Verbinding maken : toegangspunten voor externe locaties, externe gegevens, referenties en verbindingen
- Delen – Toegangspunten voor Delta Sharing en Clean Rooms
Deze groeperingen vervangen verspreide subtabbladen en maken een intuïtievere, schaalbare informatiearchitectuur.
Wijzigingen in het openen van ontvangerstokens voor Delta Delen
Delta Sharing voor open ontvangers stapt over op een nieuwe ontvanger-specifieke URL-indeling die wordt gebruikt om verbinding te maken met de Delta Sharing-server. Deze wijziging verbetert de netwerkbeveiliging en firewallconfiguraties, die zijn afgestemd op aanbevolen procedures voor het delen van eindpunten.
Ontvanger-tokens die zijn aangemaakt op of na 9 maart 2026:
Vanaf 9 maart 2026 gebruiken nieuwe ontvangersgebonden tokens bij open ontvangers een nieuwe URL-indeling specifiek voor ontvangers om de beveiliging en netwerkfiltering te verhogen. Deze wijziging is van toepassing op tokens die zijn uitgegeven op of na deze datum; eerdere tokens kunnen de oudere URL-indeling blijven gebruiken totdat ze verlopen. Zie het beleid voor de levensduur van het nieuwe token in de volgende sectie.
Voor Azure China wordt de overgang later aangekondigd.
Voor OIDC moeten geadresseerden uiterlijk op 9 maart 2027 overgaan naar het nieuwe URL-formaat. Vanaf 9 maart 2026 kunnen providers de nieuwe URL-indeling voor bestaande geadresseerden bekijken op de pagina Delta Delen om te delen met geadresseerden.
De nieuwe URL's hebben de volgende indeling:
https://2d4b0370-9d5c-4743-9297-72ba0f5caa8d.delta-sharing.westus.azuredatabricks.net
Nieuw beleid voor de verlooptermijn van tokens:
Vanaf 8 december 2025 worden alle nieuwe tokens voor open delen uitgegeven met een maximale vervaldatum van één jaar vanaf de aanmaakdatum. Tokens met een langere of onbeperkte geldigheid kunnen niet meer worden gemaakt.
Voor tokens die zijn gemaakt met de vorige indeling van de geadresseerde-URL tussen 8 december 2025 en 9 maart 2026, verloopt elk token automatisch één jaar na het maken ervan. Bij het roteren van tokens kunnen providers een downtimevenster configureren om ontvangers toe te staan te migreren. Tijdens dit venster blijven zowel de oude als de nieuwe geadresseerde-URL's werken.
Als u momenteel ontvangerstokens gebruikt met een lange of onbeperkte levensduur, controleert u uw integraties en vergeet niet om tokens jaarlijks te roteren , omdat tokens op 8 december 2026 verlopen.
Tijdreizen en VACUUM gedragswijzigingen voor beheerde tabellen in Unity Catalog
In januari 2026 worden de tijdreizen en VACUUM gedragswijzigingen die zijn geïntroduceerd in Databricks Runtime 18.0, uitgebreid naar serverloze berekeningen, Databricks SQL en Databricks Runtime 12.2 en hoger voor beheerde tabellen van Unity Catalog.
Deze wijzigingen zijn onder andere:
- Query's voor tijdreizen worden geblokkeerd als ze overschrijden
delta.deletedFileRetentionDuration. -
delta.logRetentionDurationmoet groter dan of gelijk zijn aandelta.deletedFileRetentionDuration.
E-mailmeldingen voor verlopende persoonlijke toegangstokens
Azure Databricks verzendt binnenkort e-mailmeldingen naar werkruimtegebruikers ongeveer zeven dagen voordat hun persoonlijke toegangstokens verlopen. Meldingen worden alleen verzonden naar werkruimtegebruikers (geen service-principals) met gebruikersnamen op basis van e-mail. Alle verlopende tokens in dezelfde werkruimte worden gegroepeerd in één e-mail.
Zie Persoonlijke toegangstokens bewaken en intrekken.
Tijdlijn voor einde van ondersteuning voor verouderde dashboards bijgewerkt
- Officiële ondersteuning voor de verouderde versie van dashboards is beëindigd vanaf 7 april 2025. Alleen kritieke beveiligingsproblemen en serviceonderbrekingen worden opgelost.
- 3 november 2025: Databricks begon gebruikers een uitschakelbaar waarschuwingsdialoogvenster te tonen tijdens het openen van elk verouderd dashboard. Het dialoogvenster herinnert gebruikers eraan dat de toegang tot verouderde dashboards eindigt op 12 januari 2026 en biedt een optie met één klik om te migreren naar AI/BI.
- 12 januari 2026: Verouderde dashboards en API's zijn niet meer rechtstreeks toegankelijk. Ze bieden echter nog steeds de mogelijkheid om bij te werken aan AI/BI. De migratiepagina is beschikbaar tot 2 maart 2026.
Voor hulp bij de overgang naar AI/BI-dashboards zijn upgradehulpprogramma's beschikbaar in zowel de gebruikersinterface als de API. Zie Een verouderd dashboard klonen naar een AI/BI-dashboardvoor instructies over het gebruik van het ingebouwde hulpprogramma voor migratie in de gebruikersinterface. Raadpleeg Azure Databricks-API's gebruiken om dashboards te beheren voor tutorials over het maken en beheren van dashboards met behulp van de REST API.
Lakehouse Federation deling en standaard opslag
Delta Sharing on Lakehouse Federation is bèta, waardoor gegevensproviders voor Delta Sharing buitenlandse catalogi en tabellen kunnen delen. Standaard moeten gegevens tijdelijk worden gematerialiseerd en opgeslagen in de standaardopslag (Private Preview). Op dit moment moeten gebruikers de Delta Sharing voor Standaardopslag – Uitgebreide Toegang functie inschakelen in de accountconsole om Lakehouse Federation-sharing te kunnen gebruiken.
Nadat Delta Sharing for Default Storage – Expanded Access standaard is ingeschakeld voor alle Azure Databricks-gebruikers, is Delta Sharing on Lakehouse Federation automatisch beschikbaar in regio's waar standaardopslag wordt ondersteund.
Zie de standaardopslag in Databricks en voeg buitenlandse schema's of tabellen toe aan een share.
Opnieuw laden van meldingen in werkruimtes
In een komende release wordt er een bericht weergegeven dat vraagt uw tabblad van uw werkruimte opnieuw te laden als het tabblad al lange tijd is geopend zonder te vernieuwen. Dit helpt ervoor te zorgen dat u altijd de nieuwste versie van Databricks gebruikt met de nieuwste functies en oplossingen.
BDC-connector (SAP Business Data Cloud) voor Azure Databricks is binnenkort algemeen beschikbaar
De SAP Business Data Cloud -connector (BDC) voor Azure Databricks is een nieuwe functie waarmee u gegevens kunt delen van SAP BDC naar Azure Databricks en van Azure Databricks naar SAP BDC met behulp van Delta Sharing. Deze functie is eind september algemeen beschikbaar.
Delta Sharing voor tabellen in standaardopslag wordt binnenkort standaard ingeschakeld (bèta)
Deze standaardopslagupdate voor Delta Sharing heeft uitgebreide mogelijkheden voor delen, zodat providers tabellen kunnen delen die standaard worden ondersteund door opslag naar elke ontvanger van Delta Sharing (open of Azure Databricks), inclusief ontvangers die gebruikmaken van klassieke berekeningen. Deze functie is momenteel beschikbaar in de bètaversie en vereist dat providers Delta Sharing handmatig inschakelen voor standaardopslag: uitgebreide toegang in de accountconsole. Binnenkort wordt dit standaard ingeschakeld voor alle gebruikers.
Zie beperkingen.
Updates voor de openbare IP-adressen van het uitgaande besturingsvlak
Azure Databricks werkt de openbare IP-adressen van het uitgaande besturingsvlak en Azure-servicetags bij voor verbeterde beveiliging en zonebeschikbaarheid. Deze wijzigingen maken deel uit van een update van het besturingsvlak die op 20 mei 2025 is geïmplementeerd.
Als uw organisatie resourcefirewalls gebruikt om binnenkomende toegang te beheren:
- Als uw firewallregels verwijzen naar de Azure Databricks-servicetag, is er geen actie vereist.
- Als u specifieke openbare IP-adressen van het besturingsvlak toestaat, moet u alle uitgaande ip-adressen van het besturingsvlak toevoegen op 26 september 2025.
De vorige ip-adressen van het uitgaande besturingsvlak worden nog steeds ondersteund.
Gedragswijziging voor de optie voor incrementele directoryvermeldingen van de Auto Loader
Opmerking
De optie Auto Loader cloudFiles.useIncrementalListing is verouderd. Hoewel deze aantekening een wijziging in de standaardwaarde van de opties bespreekt en hoe u deze na deze wijziging kunt blijven gebruiken, raadt Databricks aan deze optie niet te gebruiken en in plaats daarvan de voorkeur te geven aan de modus voor bestandsmeldingen met bestandsgebeurtenissen.
In een toekomstige Databricks Runtime-release wordt de waarde van de afgeschafte autolader cloudFiles.useIncrementalListing optie standaard ingesteld op false. Wanneer u deze waarde instelt op false, zorgt dat ervoor dat Auto Loader elke keer dat het wordt uitgevoerd, een volledige mapvermelding uitvoert. Op dit moment is de standaardwaarde van de cloudFiles.useIncrementalListing optie auto, waarbij de Auto Loader wordt geïnstrueerd om zijn uiterste best te doen om te detecteren of een incrementele lijst kan worden gebruikt met een directory.
Als u de functie voor incrementele vermeldingen wilt blijven gebruiken, stelt u de optie cloudFiles.useIncrementalListing in op auto. Wanneer u deze waarde instelt op auto, doet Auto Loader zijn uiterste best om een volledige vermelding uit te voeren na elke zeven incrementele vermeldingen, wat overeenkomt met het gedrag van deze optie vóór deze wijziging.
Zie voor meer informatie over het directory listing van Auto Loader Auto Loader streams met de modus directory listing.
Gedragswijziging wanneer gegevenssetdefinities worden verwijderd uit Lakeflow Spark-declaratieve pijplijnen
Een toekomstige release van Lakeflow Spark-declaratieve pijplijnen verandert het gedrag wanneer een gerealiseerde weergave of streamingtabel wordt verwijderd uit een pijplijn. Met deze wijziging wordt de verwijderde gerealiseerde weergave of streamingtabel niet automatisch verwijderd wanneer de volgende pijplijnupdate wordt uitgevoerd. In plaats daarvan kunt u de opdracht DROP MATERIALIZED VIEW gebruiken om een gerealiseerde weergave of de opdracht DROP TABLE te verwijderen om een streamingtabel te verwijderen. Nadat u een object hebt verwijderd, wordt het object niet automatisch hersteld door een pijplijnupdate uit te voeren. Er wordt een nieuw object gemaakt als een gerealiseerde weergave of streamingtabel met dezelfde definitie opnieuw wordt toegevoegd aan de pijplijn. U kunt echter een object herstellen met behulp van de opdracht UNDROP.
Het veld sourceIpAddress in auditlogboeken bevat geen poortnummer meer
Vanwege een fout bevatten bepaalde verificatie- en verificatiecontrolelogboeken een poortnummer naast het IP-adres in het sourceIPAddress veld (bijvoorbeeld "sourceIPAddress":"10.2.91.100:0"). Het poortnummer, dat wordt geregistreerd als 0, biedt geen echte waarde en is inconsistent met de rest van de Databricks-auditlogboeken. Om de consistentie van auditlogboeken te verbeteren, is Databricks van plan de indeling van het IP-adres voor deze auditlogboekgebeurtenissen te wijzigen. Deze wijziging wordt vanaf begin augustus 2024 geleidelijk uitgerold.
Als het auditlogboek een sourceIpAddress van 0.0.0.0 bevat, kan Databricks stoppen met loggen.