Freigeben über


Databricks Runtime 17.2

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.2, unterstützt von Apache Spark 4.0.0.

Azure Databricks hat diese Version im September 2025 veröffentlicht.

Neue Features und Verbesserungen

LIKE unterstützt UTF8_LCASE Sortierung

Der LIKE-Operator unterstützt jetzt die UTF8_LCASE-Vergleichsreihenfolge, sodass der Abgleich ohne Beachtung der Groß- und Kleinschreibung erfolgt.

st_exteriorring Funktion wird jetzt unterstützt

Sie können nun die st_exteriorring Funktion verwenden, um die äußere Grenze eines Polygons zu extrahieren und als Linienzeichenfolge zurückzugeben. Siehe st_exteriorring Funktion.

Anzeigen von Pushdowndetails in EXPLAIN und Spark UI für Remotescans

Der EXPLAIN Befehl und die Spark-Benutzeroberfläche für RemoteSparkConnectScan dedizierte Compute zeigen jetzt Prädikate, Aggregationen, Gruppierung nach Klauseln, Grenzwerten und Beispielen an, die in die Remoteüberprüfung verschoben werden.

Deklarieren mehrerer Sitzungs- oder lokaler Variablen in einer einzelnen DECLARE Anweisung

In Databricks Runtime 17.2 und höher können Sie mehrere Sitzungs- oder lokale Variablen desselben Typs und Standardwerts in einer einzelnen DECLARE Anweisung deklarieren. Siehe DECLARE VARIABLE und BEGIN END Compound-Anweisung.

Unterstützungsstichwort TEMPORARY für die Erstellung von Metrikansichten

Sie können nun das TEMPORARY Schlüsselwort verwenden, wenn Sie eine Metrikansicht erstellen. Temporäre Metrikansichten sind nur in der Sitzung sichtbar, die sie erstellt hat, und werden gelöscht, wenn die Sitzung endet. Siehe CREATE VIEW.

Unterstützen zusätzlicher Befehle mit fein abgestimmter Zugriffssteuerung

Feinkörnige Zugriffssteuerung auf dedizierten Compute unterstützt jetzt die FSCK REPAIR TABLE und DESCRIBE DETAIL Befehle.

Selektive und atomare Ersetzen von Daten durch INSERT REPLACE USING und INSERT REPLACE ON (GA)

INSERT REPLACE USING und INSERT REPLACE ON sind jetzt allgemein für Databricks Runtime 17.2 verfügbar. Beide SQL-Befehle ersetzen einen Teil der Tabelle durch das Ergebnis einer Abfrage.

INSERT REPLACE USING ersetzt Zeilen, wenn die USING Spalten gleich unter Gleichheit vergleichen. INSERT REPLACE ON ersetzt Zeilen, wenn sie einer benutzerdefinierten Bedingung entsprechen.

Siehe INSERT in der SQL-Sprachreferenz und selektives Überschreiben von Daten mit Delta Lake.

Native E/A für LokiFileSystem.getFileStatus S3 verwenden

LokiFileSystem.getFileStatus verwendet nun den nativen E/A-Stapel für Amazon S3-Datenverkehr und gibt org.apache.hadoop.fs.FileStatus Objekte anstelle von shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.

STANDARDMÄßIG aktivierter ANSI-Modus für Pandas-API auf Spark

ANSI_MODE ist jetzt standardmäßig für Die Pandas-API für Spark compute.ansi_mode_support=Trueaktiviert, mit der die ANSI-Complianceparität mit nativen Pandas sichergestellt wird. Die compute.fail_on_ansi_mode Option gilt weiterhin, wenn compute.ansi_mode_support sie auf False.

Automatisches Laden leitet Partitionsspalten im singleVariantColumn Modus ab

Auto Loader leitet jetzt Partitionsspalten von Dateipfaden ab, wenn Daten als semistrukturierter Variantentyp mithilfe der singleVariantColumn-Option aufgenommen werden. Zuvor wurden Partitionsspalten nicht automatisch erkannt. Weitere Informationen finden Sie unter "Optionen für das automatische Laden".

Verhaltensänderungen

DESCRIBE CONNECTION Zeigt Umgebungseinstellungen für SHAPES-Verbindungen an.

Azure Databricks enthält jetzt benutzerdefinierte Umgebungseinstellungen in der DESCRIBE CONNECTION Ausgabe für SHAPES-Verbindungen, die benutzerdefinierte Treiber unterstützen und isoliert ausgeführt werden. Andere Verbindungstypen bleiben unverändert.

Option zum Abschneiden des einheitlichen Verlaufs während der Migration verwalteter Tabellen

Sie können jetzt den einheitlichen Verlauf abschneiden, wenn Sie Tabellen mit aktivierter Uniform/Iceberg-Funktion migrieren ALTER TABLE...SET MANAGED. Dies vereinfacht Migrationen und reduziert Ausfallzeiten im Vergleich zum manuellen Deaktivieren und erneuten Aktivieren von Uniform.

SQL-Syntax für Delta-Leseoptionen in Streamingabfragen

Sie können jetzt Delta-Leseoptionen für SQL-basierte Streamingabfragen mithilfe der WITH Klausel angeben. Beispiel:

SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);

Richtige Ergebnisse mit split leerem regex und positivem Grenzwert

Azure Databricks gibt jetzt korrekte Ergebnisse zurück, wenn sie mit einem leeren Regex und einem positiven Grenzwert verwendet split function werden. Zuvor hat die Funktion die verbleibende Zeichenfolge falsch abgeschnitten, anstatt sie in das letzte Element einzubinden.

Beheben url_decode und try_url_decode Fehlerbehandlung in Photon

In Photon try_url_decode() und url_decode() mit failOnError = false jetzter Rückgabe NULL für ungültige URL-codierte Zeichenfolgen anstelle eines Fehlschlagens der Abfrage.

Freigegebene Ausführungsumgebung für Unity Catalog Python UDTFs

Azure Databricks teilt nun die Ausführungsumgebung für benutzerdefinierte Python-Tabellenfunktionen (UDTFs) aus derselben Besitzer- und Spark-Sitzung. Eine optionale STRICT ISOLATION Klausel ist verfügbar, um die Freigabe für UDTFs mit Nebeneffekten zu deaktivieren, z. B. das Ändern von Umgebungsvariablen oder das Ausführen von beliebigem Code.

Zeilenverfolgung für neue Tabellen standardmäßig aktiviert

Azure Databricks ermöglicht jetzt die Zeilennachverfolgung standardmäßig für alle neu erstellten verwalteten Unity-Katalogtabellen. Vorhandene Tabellen sind nicht betroffen und behalten ihre aktuellen Zeilenverfolgungseinstellungen bei.

TABLE Argumentunterstützung für Unity Catalog Python UDTFs

Unity Catalog Python UDTFs unterstützen TABLE Argumente, sodass Funktionen ganze Tabellen als Eingabeparameter akzeptieren können, was komplexere Datentransformationen und Aggregationen für strukturierte Datasets ermöglicht. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog. (Zurückportiert von 17.3 LTS).

Verbesserungen der Bibliothek

Aktualisierte Python-Bibliotheken:

In dieser Version wurden keine Python-Bibliotheken aktualisiert.

Aktualisierte R-Bibliotheken:

In dieser Version wurden keine R-Bibliotheken aktualisiert.

Aktualisierte Java-Bibliotheken:

  • io.delta.delta-sharing-client_2.13 von 1.3.3 bis 1.3.5

Apache Spark

Databricks Runtime 17.2 umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Version 17.1 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • SPARK-53183 Verwenden von Java Files.readString anstelle von o.a.s.sql.catalyst.util.fileToString
  • SPARK-51817 Stellen Sie ansiConfig-Felder in messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW
  • SPARK-53124 Nicht benötigte Felder aus JsonTuple löschen
  • SPARK-53106 Hinzufügen von Schemaentwicklungstests für TWS Scala Spark Connect-Suites
  • SPARK-53201 Anstelle SparkFileUtils.contentEquals von Files.equal
  • SPARK-53308 Entfernen Sie in RemoveRedundantAliases keine Aliase, die Duplikate verursachen würden.
  • SPARK-53241 Unterstützung createArray in SparkCollectionUtils
  • SPARK-53239 Verbessern MapSort und SortArray Leistung über parallelSort
  • SPARK-53184 Behebt melt(), wenn Wertspalten Zeichenfolgen und Zahlen vermischen.
  • SPARK-53144 Den Befehl "CreateViewCommand" im "SparkConnectPlanner" ohne Seiteneffekte gestalten.
  • SPARK-53303 Verwenden des leeren Zustands-Encoders, wenn der anfangszustand in TWS nicht bereitgestellt wird
  • SPARK-52917 Leseunterstützung zum Aktivieren von Roundtrips für binär im XML-Format
  • SPARK-53110 Implementieren der time_trunc-Funktion in PySpark
  • SPARK-53107 Implementieren der time_trunc-Funktion in Scala
  • SPARK-52146 Erkennen von zyklischen Funktionsverweisen in SQL UDFs
  • SPARK-52469 Verwenden der JEP 223-API zum Verarbeiten der Java-Version
  • SPARK-53094 Korrigiere CUBE mit Aggregat, das HAVING Klauseln enthält
  • SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
  • SPARK-53287 Hinzufügen eines ANSI-Migrationshandbuchs
  • SPARK-43100 Push-basierte Shuffle-Metriken müssen ordnungsgemäß deserialisiert werden
  • SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
  • SPARK-53114 Unterstützung join in JavaUtils
  • SPARK-53297 Fix StreamingTable Declarative Pipelines API docstring
  • SPARK-53181 Aktivieren von Dokumenttests unter ANSI
  • SPARK-52482 Verbessern der Ausnahmebehandlung beim Lesen bestimmter beschädigter zstd-Dateien
  • SPARK-52990 Unterstützen StringSubstitutor
  • SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
  • SPARK-53169 Entfernen von Kommentaren im Zusammenhang mit "Set the logger level of File Appender to" aus log4j2.properties
  • SPARK-53080 Support cleanDirectory in SparkFileUtils und JavaUtils
  • SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
  • SPARK-53000StringUtils.scalaStringConcat.scala In Modul umbenennen sql/api
  • SPARK-52952 PySpark UDF Type Coercion Dev Script hinzufügen
  • SPARK-52998 Mehrere Variablen innerhalb der Deklaration
  • SPARK-51817 Stellen Sie ansiConfig-Felder in messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW
  • SPARK-52820 Erfassen vollständiger Pläne in goldenen Dateien
  • SPARK-53274 Unterstützung für links- und rechts-Verknüpfungs-Pushdown in ELEMENTScanBuilder
  • SPARK-52110 Implementieren der SQL-Syntaxunterstützung für Pipelines
  • SPARK-52950 Aktivieren des ANSI-Modus in DataSourceV2StrategySuite
  • SPARK-52947 Beheben des Bildpfads in der Programmieranleitung für deklarative Pipelines
  • SPARK-52592 Unterstützung beim Erstellen einer PS. Serie von ps. Reihe
  • SPARK-53301 Unterscheidungstyphinweise von Pandas UDF und Pfeil-UDF
  • SPARK-53146 MergeIntoTable im SparkConnectPlanner nebenwirkungsfrei machen
  • SPARK-53166 Verwenden SparkExitCode.EXIT_FAILURE im SparkPipelines Objekt
  • SPARK-53288 Beheben von Assertionsfehlern mit globaler Streaminggrenze
  • SPARK-52394 Beheben des Fehlers "AutoKorrektur durch Null" im ANSI-Modus
  • SPARK-51555 Hinzufügen der funktion time_diff()
  • SPARK-52948 Aktivieren von test_np_spark_compat_frame unter ANSI
  • SPARK-53134 Bereinigen nicht verwendeter ANSI-Importe in Tests
  • SPARK-52593 Vermeiden von CAST_INVALID_INPUT von MultiIndex.to_seriesund Series.dotDataFrame.dot im ANSI-Modus
  • SPARK-53291 Behebe die Nullfähigkeit für die Wertspalte
  • SPARK-53097 WriteOperationV2 im SparkConnectPlanner ohne Seiteneffekte gestalten
  • SPARK-53305 Unterstützung von TimeType in createDataFrame
  • SPARK-52914 Unterstützung On-Demand Log Loading für Rollprotokolle in History Server
  • SPARK-33538 Direktes Pushen von IN/NOT-Prädikaten an den Hive-Metastore
  • SPARK-52849 Hinzufügen stringifyException zu o.a.s.util.Utils
  • SPARK-52771 Behebung der Erweiterung des float32-Typs in truediv/floordiv
  • SPARK-52502 Übersicht über die Threadanzahl
  • SPARK-52788 Fehler beim Konvertieren des Binärwerts in BinaryType in XML
  • SPARK-53123 Unterstützung getRootCause in SparkErrorUtils
  • SPARK-53129 Standardmäßiges Importieren SparkShelljava.net._ verbessern
  • SPARK-53061 Unterstützung copyFileToDirectory in SparkFileUtils
  • SPARK-52683 ExternalCatalog alterTableSchema unterstützen
  • SPARK-52871 Zusammenführen o.a.s.sql.catalyst.util.SparkStringUtils mit o.a.s.util.SparkStringUtils
  • SPARK-52817 Beheben der Like Ausdrucksleistung
  • SPARK-52545 Standardisieren sie doppelte Anführungszeichen, um die SQL-Spezifikation zu befolgen
  • SPARK-52711 Behebung der Erweiterung des float32-Typs in mul/rmul unter ANSI
  • SPARK-52615 Ersetzen Von File.mkdirs durch Utils.createDirectory
  • SPARK-52381 JsonProtocol: Nur Unterklassen von SparkListenerEvent akzeptieren
  • SPARK-52613 Wiederherstellen des Druckens des vollständigen Stacktrace, wenn HBase/Hive DelegationTokenProvider-Ausnahme getroffen wird
  • SPARK-52651 Umgang mit benutzerdefiniertem Typ in geschachteltem Spaltenvektor
  • SPARK-52611 SqlConf-Version für excludeSubqueryRefsFromRemoveRedundantAliases beheben...
  • SPARK-52552 Check-Einschränkungserzwingung für Löschvektorlöschungen überspringen
  • SPARK-52587 spark-shell 2.13 Unterstützung -i-I Parameter
  • SPARK-52492 Make InMemoryRelation.convertToColumnarIfPossible customizeable
  • SPARK-52451 Die WriteOperation im SparkConnectPlanner nebenwirkungsfrei gestalten
  • SPARK-53272 Umgestalten der SPJ-Pushdownlogik aus BatchScanExec
  • SPARK-53071 Unterstützung copyFile in SparkFileUtils
  • SPARK-51415 Unterstützung des Zeittyps nach make_timestamp()
  • SPARK-51554 Hinzufügen der funktion time_trunc()
  • SPARK-52426 Unterstützung für die Umleitung von Stdout/stderr zum Protokollierungssystem
  • SPARK-51834 Unterstützung der End-to-End-Tabelleneinschränkungsverwaltung
  • SPARK-53063 Implementieren und Aufrufen neuer APIs in FileCommitProtocol anstelle der veralteten
  • SPARK-52546 überprüfen SparkContext , wenn die Ausführung des Catch-Codeblocks in execute() beendet wurde, andernfalls wird ein falscher Zustand zurückgegeben.
  • SPARK-53023 Entfernen commons-io der Abhängigkeit aus sql/api Modul
  • SPARK-52396 Artefaktstammverzeichnis sollte tmpdir verwenden
  • SPARK-53131 Standardmäßiges Importieren SparkShelljava.nio.file._ verbessern
  • SPARK-42322 Zuweisen von Namen to_LEGACY_ERROR_TEMP_2235
  • SPARK-51834 Unterstützung der End-to-End-Tabelleneinschränkungsverwaltung
  • SPARK-52484 Kind.supportsColumnar Überprüfung auf der Treiberseite in ColumnarToRowExec überspringen
  • SPARK-52384 Fehlerkorrektur Connect sollte bei OPTIONEN FÜR OPTIONEN nicht beachtet werden
  • SPARK-52034 Hinzufügen allgemeiner Methoden in SparkOperation-Eigenschaft für Thriftserver-Vorgänge
  • SPARK-53031 Unterstützung getFile in SparkFileUtils
  • SPARK-52976 Beheben von Python UDF, das keine sortierte Zeichenfolge als Eingabeparameter/Rückgabetyp akzeptiert (17.x)
  • SPARK-52943 Aktivieren von arrow_cast für alle Pandas UDF-Val-Typen
  • SPARK-53263 Unterstützung von TimeType in df.toArrow
  • SPARK-53141 Hinzufügen von APIs zum Abrufen der Arbeitsspeichergröße und offheap-Speichergröße aus dem Ressourcenprofil
  • SPARK-53259 Korrigieren der Nachricht für INVALID_UDF_EVAL_TYPE
  • SPARK-53167 Spark launcher isRemote respektiert auch die Eigenschaftendatei
  • SPARK-53165 Hinzufügen SparkExitCode.CLASS_NOT_FOUND
  • SPARK-53171 Utf8String-Verbesserung wiederholen
  • SPARK-53170 VerbessernSparkUserAppException, um Parameter zu haben cause
  • SPARK-52989 Hinzufügen einer expliziten Close()-API zu Statusspeicher-Iteratoren
  • SPARK-53074 Vermeiden sie partielle Clustering in SPJ, um die erforderliche Verteilung eines untergeordneten Elements zu erfüllen.
  • SPARK-52252 ScalaUDF-Encoder in Unterabfragen sollten aufgelöst werden
  • SPARK-53244 Speichern Sie während der Ansichtserstellung nicht den aktivierten und mit Vorbehalt aktivierten Modus
  • SPARK-53192 Speichern Sie eine Datenquelle immer im Spark Connect-Plancache zwischen
  • SPARK-51813 Hinzufügen eines nicht nullierbaren DefaultCachedBatchKryoSerializers, um die Nullverteilung in DefaultCachedBatch serde zu vermeiden
  • SPARK-52904 Reapply "[SC-202233][python] Enable convertToArrowArrayS...
  • SPARK-53253 Beheben der Registrierung von UDF vom Typ SQL_SCALAR_ARROW_ITER_UDF
  • SPARK-53243 Auflisten der unterstützten Eval-Typen in Pfeilknoten
  • SPARK-53130 Beheben toJson des Verhaltens von sortierten Zeichenfolgentypen
  • SPARK-53003 Support strip in SparkStringUtils
  • SPARK-51902 Synchronisierungsbetriebssystem: Erzwingen der Check-Einschränkung beim Einfügen der Tabelle
  • SPARK-52047 PySparkValueError für nicht unterstützte Zeichnungstypen auslösen
  • SPARK-53004 Support abbreviate in SparkStringUtils
  • SPARK-53066 Verbessern der EXPLAIN Ausgabe für DSv2 Join Pushdown
  • SPARK-30848 ProductHash aus TreeNode entfernen
  • SPARK-53046 Verwenden von Java readAllBytes anstelle von IOUtils.toByteArray
  • SPARK-53206 Anstelle SparkFileUtils.move von com.google.common.io.Files.move
  • SPARK-53066 Verbessern der EXPLAIN Ausgabe für DSv2 Join Pushdown
  • SPARK-53069 Korrigieren falscher Zustandsspeichermetriken mit virtuellen Spaltenfamilien
  • SPARK-52904 ConvertToArrowArraySafely standardmäßig aktivieren [17.x]
  • SPARK-52821 add int-DecimalType> pyspark udf return type coercion
  • SPARK-51562 Funktion hinzufügen time
  • SPARK-52971 Beschränken der Größe der Python-Workerwarteschlange im Leerlauf
  • SPARK-53057 Support sizeOf in SparkFileUtils und JavaUtils
  • SPARK-53040 Verbieten von Selbstreferenzen innerhalb der obersten CTEs in Rekursiven CTEs
  • SPARK-53104 Führen Sie ansi_mode_context ein, um mehrere Konfigurationsprüfungen pro API-Aufruf zu vermeiden.
  • SPARK-47547 Hinzufügen von BloomFilter V2 und Verwenden als Standard
  • SPARK-53098DeduplicateRelations Sollte Ausdrücke nicht neu zuordnen, wenn noch alt ExprId in der Ausgabe vorhanden ist
  • SPARK-53049 Unterstützung toString in SparkStreamUtils
  • SPARK-53062 Support deleteQuietly in SparkFileUtils und JavaUtils
  • SPARK-53070 Unterstützung is(Not)?Empty in SparkCollectionUtils
  • SPARK-53020 JPMS-Args sollten auch auf Nicht-SparkSubmit-Prozess angewendet werden.
  • SPARK-52968 Ausgeben zusätzlicher Statusspeichermetriken
  • SPARK-52975 Vereinfachen von Feldnamen in pushdown join sql
  • SPARK-52926 SQLMetric für die Dauer des Remoteschemaabrufs hinzugefügt.
  • SPARK-53059 Pfeil UDF muss nicht von Pandas abhängen
  • SPARK-52646 Vermeiden von CAST_INVALID_INPUT im __eq__ ANSI-Modus
  • SPARK-52622 Vermeiden von CAST_INVALID_INPUT im DataFrame.melt ANSI-Modus
  • SPARK-52985 Raise TypeError für Pandas numpy operand in Vergleichsoperatoren
  • SPARK-52580 Vermeiden von CAST_INVALID_INPUT im replace ANSI-Modus
  • SPARK-52549 Rekursive CTE-Selbstverweise aus Fensterfunktionen und innerhalb von Sortierungen deaktivieren
  • SPARK-52895 Fügen Sie keine doppelten Elemente hinzu resolveExprsWithAggregate
  • SPARK-50748 Behebung eines Racebedingungsproblems, das auftritt, wenn Vorgänge unterbrochen werden
  • SPARK-52737 Pushdown-Prädikat und Anzahl von Apps zu FsHistoryProvider beim Auflisten von Anwendungen
  • SPARK-53018 ArrowStreamArrowUDFSerializer sollte argument arrow_cast
  • SPARK-53013 Fix Pfeiloptimierter Python UDTF, der keine Zeilen bei lateraler Verknüpfung zurückgibt
  • SPARK-51834 Synchronisierungsbetriebssysteme: Unterstützen der Einschränkungsbeschränkung für end-to-end-Tabellen
  • SPARK-52921 Angeben von outputPartitioning für UnionExec für denselben Ausgabeteilitoning wie untergeordnete Operatoren
  • SPARK-52908 Verhindern, dass iteratorvariabler Name mit Namen von Bezeichnungen im Pfad zum Stamm von AST kollidiert
  • SPARK-52954 UDF-Unterstützung für Rückgabetypkoersion
  • SPARK-52925 Fehlermeldung für Verankerungs-Selbstverweise in rCTEs zurückgeben
  • SPARK-52889 Implementieren der current_time-Funktion in PySpark
  • SPARK-52675 Unterbrechen hängender ML-Handler in Tests
  • SPARK-52959 Unterstützung von UDT in pfeiloptimierten Python UDTF
  • SPARK-52962 BroadcastExchangeExec sollte keine Metriken zurücksetzen
  • SPARK-52956 Beibehalten von Aliasmetadaten beim Reduzieren von Projekten
  • SPARK-52890 Implementieren der funktionen to_time und try_to_time in PySpark
  • SPARK-52888 Implementieren der make_time-Funktion in PySpark
  • SPARK-52892 Unterstützungszeit in den Funktionen "Stunde", "Minute" und "Sekunde" in PySpark
  • SPARK-52837 Unterstützung von TimeType in pyspark
  • SPARK-52023 Beheben von Datenbeschädigungen/Segfault-Rückgabeoption[Produkt] von udaf
  • SPARK-52955 Ändern der Rückgabetypen von WindowResolution.resolveOrder und WindowResolution.resolveFrame in WindowExpression
  • SPARK-52166 Hinzufügen von Unterstützung für PipelineEvents
  • SPARK-51834 Fix: Entfernen gültiger Dateien aus toDDL
  • SPARK-52735 Beheben fehlender Fehlerbedingungen für SQL UDFs
  • SPARK-51834 Sync OSS Support End-to-End-Erstellungs-/Ersetzungstabelle mit Einschränkung
  • SPARK-51834 Synchronisieren des OSS-Updates "ResolvedIdentifier" nicht angewendete Aufrufe
  • SPARK-52929 Unterstützen des MySQL- und SQLServer-Connectors für DSv2 Join-Pushdown
  • SPARK-52448 Vereinfachte Strukturausdruck.Literal hinzufügen
  • SPARK-52882 Implementieren der current_time-Funktion in Scala
  • SPARK-52905 Pfeil-UDF für Fenster
  • SPARK-52876 Korrigieren eines Tippfehlers buffer in bodyChunkFetchSuccess.toString
  • SPARK-52883 Implementieren der funktionen to_time und try_to_time in Scala
  • SPARK-52751 Überprüfen Sie den Spaltennamen nicht unbedingt in dataframe['col_name']
  • SPARK-52791 Beheben eines Fehlers beim Ableiten eines UDT mit einem null ersten Element
  • SPARK-52686Union sollte nur aufgelöst werden, wenn keine Duplikate vorhanden sind
  • SPARK-52881 Implementieren der make_time-Funktion in Scala
  • SPARK-52919 Beheben des DSv2 Join-Pushdowns zur Verwendung zuvor aliaser Spalte
  • SPARK-52866 Hinzufügen von Support für try_to_date
  • SPARK-52846 Fügen Sie eine Metrik in RSSRDD hinzu, wie lange es dauert, um das Resultset abzurufen.
  • SPARK-52859 SparkSystemUtils-Eigenschaft hinzufügen
  • SPARK-52823 Unterstützung für DSv2 Join Pushdown für Oracle Connector
  • SPARK-52165 Einrichten des Buildgerüsts für das Pipelineprojekt
  • SPARK-52869 Hinzufügen der FrameLessOffsetWindowFunction-Validierung zur ValidateResolvedWindowExpression für die Wiederverwendung in single-pass analyzer
  • SPARK-52885 Implementieren der Funktionen "Stunde", "Minute" und "Sekunde" in Scala für den TIME-Typ
  • SPARK-52903 Kürzen von Aliasen auf oberster Ebene vor der LCA-Auflösung
  • SPARK-52832 KORRIGIEREN DER SPRACHE-Dialektbezeichner-Quotierung
  • SPARK-52870 Richtig anführungszeichenvariable Namen in Anweisung FOR
  • SPARK-52859 Eigenschaft hinzufügen SparkSystemUtils
  • SPARK-52900 Verwenden SparkStringUtils.stringToSeq in FsHistoryProvider
  • SPARK-52809 Enthalten Sie keine Lese- und Iteratorverweise für alle Partitionen in Aufgabenabschlusslistenern für die Metrikaktualisierung.
  • SPARK-52815 Verbesserung SparkClassUtils der Unterstützung getAllInterfaces
  • SPARK-52795 Einschließen von runId in Zustandsspeicherprotokolle
  • SPARK-52779 Unterstützung des TimeType-Literals in Connect
  • SPARK-52899 Reparatur des QueryExecutionErrorsSuite-Tests, um die H2Dialect erneut zu registrieren.
  • SPARK-52862 Korrigieren der Nullbarkeitsprüfung von Decimal('NaN')
  • SPARK-52214 Pfeil-UDF für Aggregation
  • SPARK-52787 Neuorganisieren der Streamingausführung um Laufzeit- und Prüfpunktbereiche
  • SPARK-51564 TIME-Analyse im 12-Stunden-Format
  • SPARK-52859 Eigenschaft hinzufügen SparkSystemUtils
  • SPARK-51562 Funktion hinzufügen time
  • SPARK-52850 Aufrufen von Konvertierungen überspringen, wenn identitätsfunktion
  • SPARK-52863 Bereinigen von Codepfaden für alte Pandas-Versionen
  • SPARK-52516 Speichern Sie den vorherigen Iteratorverweis nicht, nachdem Sie zur nächsten Datei in "ParquetPartitionReaderFactory" wechseln.
  • SPARK-52848 Vermeiden von Umwandlung in Double UmwandlungSZEIT/ZEITSTEMPEL in DEZIMAL
  • SPARK-52770 Supporttyp TIME in connect proto
  • SPARK-52842 Neue Funktionen und Bugfixes für single-pass Analyzer
  • SPARK-52620 Unterstützen der Umwandlung von TIME in DECIMAL
  • SPARK-52783 Refaktorisieren der Validierungslogik der Fensterfunktion von CheckAnalysis zur Wiederverwendung im Single-Pass-Analyzer
  • SPARK-51695 Synchronisiere OSS zum Erstellen/Ersetzen/Ändern von Tabellen für eindeutige Einschränkungen über DSv2
  • SPARK-51695 Synchronisierung osS drop constraint via DSv2
  • SPARK-52824 CheckpointFileManager-Fehlerklassifizierung
  • SPARK-52829 Korrigieren Von LocalDataToArrowConversion.convert zum ordnungsgemäßen Behandeln leerer Zeilen
  • SPARK-52811 Optimieren der ArrowTableToRowsConversion.convert zur Verbesserung der Leistung
  • SPARK-52796 Optimieren von LocalDataToArrowConversion.convert zur Verbesserung der Leistung
  • SPARK-51695 Änderungen am Einschränkungsparser für die Synchronisierung von OSS Alter Table hinzufügen
  • SPARK-52619 Cast TimeType in IntegralType
  • SPARK-52187 Einführung von Join-Pushdown für DSv2
  • SPARK-52782 Zurückgeben von NULL von +/- am Datumszeitpunkt mit NULL
  • SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
  • SPARK-52808spark.history.retainedApplications sollte positiv sein
  • SPARK-52776 Teilen Sie das Comm-Feld nicht in ProcfsMetricsGetter
  • SPARK-52793 Support isUnix unter o.a.s.util.Utils
  • SPARK-52792 Entfernen commons-lang3 der Abhängigkeit von network-common
  • SPARK-52797 Verwenden Statt Utils.isWindows neu auszuwerten PythonWorkerFactory
  • SPARK-52784 Hinzufügen von TimeZoneAware-Umwandlung in WindowFrameTypeCoercion.createBoundaryCast
  • SPARK-52725 Verzögern der Initialisierung des Ressourcenprofil-Managers bis zum Laden des Plug-Ins
  • SPARK-52565 Erzwingen der Ordnungsauflösung vor anderen Sortierreihenfolgeausdrücken
  • SPARK-52740 Beheben von NPE in HDFSBackedStateStoreProvider beim Zugriff auf StateStoreConf.sqlConf, wenn die Version des Prüfpunktformats =2 ist >
  • SPARK-52673 Hinzufügen der Grpc RetryInfo-Behandlung zu Spark Connect-Wiederholungsrichtlinien
  • SPARK-52724 Verbessern der OOM-Fehlerbehandlung bei der Übertragungsbeitritt mit SHUFFLE_MERGE Hint-Unterstützung
  • SPARK-52781 Korrigieren von Dtyeps-Tippfehlern in internal.py
  • SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in DATABASERDD
  • SPARK-52727 Umgestalten der Fensterauflösung, um sie im Single Pass Analyzer wiederzuverwenden
  • SPARK-52695 Unterstützung für benutzerdefinierten Typschreibzugriff für xml-Dateiformate
  • SPARK-52722 Deprecate CodRDD-Klasse
  • SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
  • SPARK-52763 SupportZEIT subtrahieren
  • SPARK-52768 Korrigieren von Tippfehler "Moveing" in Pandas/series.py
  • SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in DATABASERDD
  • SPARK-52694 API hinzufügen o.a.s.sql.Encoders#udt
  • SPARK-52720 Behebung der float32 Typenerweiterung in add/radd unter ANSI
  • SPARK-52723 Serverseitige Spaltennamenüberprüfung
  • SPARK-52760 Behebung der float32-Typverbreiterung in sub/rsub gemäß ANSI
  • SPARK-52738 Unterstützung beim Aggregieren des TIME-Typs mit einem UDAF, wenn der zugrunde liegende Puffer ein UnsafeRow
  • SPARK-52704 Vereinfachen der Interoperabilität zwischen SQLConf- und Dateiformatoptionen in TextBasedFileFormats
  • SPARK-52706 Beheben von Inkonsistenzen und Umgestalten von Grundtypen in Parser
  • SPARK-52718 Korrigieren der Erweiterung des float32-Typs in rmod/mod nach ANSI-Standards
  • SPARK-52736 Korrigieren Von Tippfehlern 'moveing' in pyspark/pandas/generic.py

Azure Databricks ODBC/JDBC-TREIBERunterstützung

Azure Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.3 LTS
  • Java: Zulu17.58+21-CA
  • Skala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 Pfeil 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 Attrs 24.3.0
autocommand 2.2.2 azure-common 1.1.28 Azure Core 1.34.0
Azure-Identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob 12.23.0 Azure-Speicher-Datei-Datensee 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 schwarz 24.10.0
Bleichmittel 6.2.0 Blinker 1.7.0 boto3 1.36.2
Botocore 1.36.3 CacheWerkzeuge 5.5.1 Zertifikat 2025.1.31
cffi 1.17.1 Chardet 4.0.0 Charset-Normalizer 3.3.2
klicken 8.1.7 cloudpickle 3.0.0 Kommunikation 0.2.1
Contourpy 1.3.1 Kryptographie 43.0.3 Fahrradfahrer 0.11.0
Cython 3.0.12 Databricks-SDK 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 Dekorateur 5.1.1 defusedxml 0.7.1
Deprecated 1.2.13 Distlib 0.3.9 Docstring zu Markdown 0.11
ausführen 0.8.3 Übersicht der Facetten 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 Dateisperrung 3.18.0 fonttools 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
Google Cloud Core 2.4.3 Google Cloud-Speicher 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 GRPCIO 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-Spezifikationen 2023.7.1 Jupyter-Ereignisse 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_server 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-Erweiterungen 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
Notebook 7.3.2 Notebook-Shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) 0.53b1 Überschreibt 7.4.0 Verpackung 24,2
Pandas 2.2.3 Pandocfilter 1.5.0 Parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
Kissen 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 plugin-fähig 1.5.0 prometheus_client 0.21.0
Prompt-Toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 Pyasn1 0.4.8
Pyasn1-Module 0.2.8 pyccolo 0.0.71 Pycparser 2.21
Pydantisch 2.10.6 pydantic_core 2.27.2 Pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 Python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 Python-LSP-Server 1.12.0
pytoolconfig 1.2.6 Pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 referenzierung 0.30.2 requests 2.32.3
rfc3339-Prüfer 0.1.4 rfc3986-validator 0.1.1 rich 13.9.4
Seil 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 SciPy 1.15.1
Seegeboren 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
Sechs 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortierte Container 2.4.0 Sieb für Suppe 2,5 sqlparse 0.5.3
ssh-import-id 5.11 Stapeldaten 0.2.0 Starlet 0.46.2
StatistikModelle 0.14.4 strictyaml 1.7.3 Hartnäckigkeit 9.0.0
terminado 0.17.1 Threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 Tornado 6.4.2
traitlets 5.14.3 Typwächter 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unbeaufsichtigte Aktualisierungen 0,1 URI-Vorlage 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolors 24.11.1 Webkodierungen 0.5.1
WebSocket-Client 1.8.0 Was ist neu im Patch 1.0.2 Rad 0.45.1
widgetsnbextension 3.6.6 Eingehüllt 1.17.0 yapf 0.40.2
zipp 3.21.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 19.0.1 Askpass 1.2.1 prüfen, dass 0.2.1
backports 1.5.0 Basis 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 Bit64 4.6.0-1
bitops 1.0-9 Klumpen 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 Besen 1.0.7
bslib 0.9.0 cachem 1.1.0 callr 3.7.6
Caret 7.0-1 CellRanger 1.1.0 Chron 2.3-62
class 7.3-22 cli 3.6.5 clipr 0.8.0
clock 0.7.2 Gruppe 2.1.6 Codetools 0.2-20
Farbraum 2.1-1 Commonmark 1.9.5 Kompilierer 4.4.2
config 0.3.2 conflicted 1.2.0 cpp11 0.5.2
Buntstift 1.5.3 Zugangsdaten 2.0.2 cURL 6.4.0
data.table 1.17.0 Datensätze 4.4.2 DBI 1.2.3
dbplyr 2.5.0 Beschreibung 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 Ellipse 0.3.2 auswerten 1.0.3
Fans 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.3 forcats 1.0.0 foreach 1.5.2
Fremd 0.8-86 schmieden 0.2.0 fs 1.6.5
Zukunft 1.34.0 future.apply 1.11.3 gargle 1.5.2
Generika 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 Klebstoff 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
Graphik 4.4.2 grGeräte 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0.7 GT 0.11.1
g-Tabelle 0.3.6 Schutzhelm 1.4.1 Hafen 2.5.4
highr 0.11 HMS 1.1.3 HTML-Werkzeuge 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 Ausweise 1.0.1 ini 0.3.1
IPRED 0.9-15 Isobande 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 Knitr 1,50 Etikettierung 0.4.3
later 1.4.1 lattice 0.22-5 lava 1.8.1
Lebenszyklus 1.0.4 „listenv“ 0.9.1 Schmiermittel 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 Methodik 4.4.2
mgcv 1.9-1 Mime-Kunst 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.1 nlme 3.1-164 NNET 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.3.3 parallel 4.4.2
parallel dazu 1.42.0 Säule 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 pROC 1.18.5 Prozessx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 Fortschritt 1.2.3
progressr 0.15.1 Versprechungen 1.3.2 proto 1.0.0
Stellvertreter 0.4-27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 reaktivierbar 0.4.4
reactR 0.6.1 READR 2.1.5 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.5
Rezepte 1.2.0 Rückspiel 2.0.0 Rückspiel2 2.1.2
fernbedienungen 2.5.0 reprex 2.1.1 Umform2 1.4.4
rlang 1.1.6 RMarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 RVEST 1.0.4 Sass 0.4.9
scales 1.3.0 selectr 0.4-2 Sitzungsinformationen 1.2.3
Gestalt 1.4.6.1 glänzend 1.10.0 sourcetools 0.1.7-1
Sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statistiken 4.4.2 Statistiken4 4.4.2
Stringi 1.8.7 stringr 1.5.1 Überleben 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 Textgestaltung 1.0.0
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 Zeitumstellung 0.3.0 timeDate 4041.110
tinytex 0.56 Werkzeuge 4.4.2 Zeitzonendatenbank (tzdb) 0.5.0
URL-Prüfer 1.0.1 Nutze dies 3.1.0 utf8 1.2.6
utils 4.4.2 Universelle eindeutige Kennung (UUID) 1.2-1 V8 6.0.2
VCTRS 0.6.5 viridisLite 0.4.2 vroom 1.6.5
Waldo 0.6.1 whisker 0.4.1 Withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 YAML-Dateiformat 2.3.10 zeallot 0.1.0
zip 2.3.2

Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws AWS Java SDK für Auto Scaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws AWS-Java-SDK-Config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-Protokolle 1.12.638
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.638
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics Datenstrom 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.5.1
com.fasterxml.jackson.core Jackson-Anmerkungen 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone fehleranfällige Annotationen 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava Guave 33.4.0-jre
com.google.guava hörbareZukunft 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 2.0.2
io.delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics Metrikanmerkung 4.2.30
io.dropwizard.metrics metrics-core 4.2.30
io.dropwizard.metrics Metrics-Graphit 4.2.30
io.dropwizard.metrics metrics-healthchecks 4.2.30
io.dropwizard.metrics Metrics-Jetty9 4.2.30
io.dropwizard.metrics Metrics-JMX 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics Metrik-Servlets 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty Netty Codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty Netty-Resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-Klassen 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx Sammler 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow Pfeilformat 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow Arrow-Memory-Netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow Pfeil-Vektor 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.13.0
org.apache.curator Kurator-Klient 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator Rezepte des Kurators 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-Client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims Hive-Shims-Scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc ORC-Format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc Orc-Shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper Tierpfleger 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty Jetty-HTTP 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty Jetty-Plus 9.4.53.v20231009
org.eclipse.jetty Jetty-Proxy 9.4.53.v20231009
org.eclipse.jetty Jetty-Sicherheit 9.4.53.v20231009
org.eclipse.jetty Jetty Server 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty Jetty-Util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Jetty-Webanwendung 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Client 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Server 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Tipp

Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.