Freigeben über


Databricks Runtime 16.2 (EoS)

Hinweis

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Databricks-Runtime-Versionen finden Sie unter Databricks Runtime Versionshinweise und Kompatibilität.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.2, unterstützt von Apache Spark 3.5.2.

Databricks hat diese Version im Februar 2025 veröffentlicht.

Verhaltensänderungen

ANALYZE überspringt jetzt Spalten mit nicht unterstützten Typen.

ANALYZE TABLE führt nicht mehr zu einer Fehlermeldung, wenn sie in einer Tabelle mit nicht unterstützten Typen ausgeführt wird, z ARRAY . B. oder MAP. Nicht unterstützte Spalten werden jetzt automatisch übersprungen. Benutzer, die Logik implementiert haben, die diese Fehler erwartet, sollten ihren Code aktualisieren.

Bei Delta Sharing ist der Tabellenverlauf standardmäßig aktiviert.

Für Freigaben, die mit dem SQL-Befehl ALTER SHARE <share> ADD TABLE <table> erstellt werden, ist jetzt die Freigabe des Verlaufs (WITH HISTORY) standardmäßig aktiviert. Siehe ALTER SHARE.

SQL-Anweisungen für Anmeldeinformationen geben einen Fehler zurück, wenn der Typ der Anmeldeinformationen nicht übereinstimmt

Wenn der in einer SQL-Anweisung für die Anmeldeinformationsverwaltung angegebene Anmeldeinformationstyp mit dieser Version nicht mit dem Typ des Arguments für Anmeldeinformationen übereinstimmt, wird ein Fehler zurückgegeben, und die Anweisung wird nicht ausgeführt. Bei der Anweisung DROP STORAGE CREDENTIAL 'credential-name' tritt beispielsweise ein Fehler auf, wenn das credential-name-Element keine Speicheranmeldeinformationen darstellt.

Diese Änderung wird vorgenommen, um Benutzerfehler zu vermeiden. Zuvor wurden diese Anweisungen erfolgreich ausgeführt, selbst wenn ein Berechtigungsnachweis übergeben wurde, der nicht dem angegebenen Berechtigungstyp entsprach. Beispielsweise würde die folgende Anweisung storage-credentialerfolgreich löschen: DROP SERVICE CREDENTIAL storage-credential.

Diese Änderung wirkt sich auf folgende Anweisungen aus:

Neue Features und Verbesserungen

Erstellen benutzerdefinierter zustandsbehafteter Anwendungen mit transformWithState

Sie können nun apIs verwenden transformWithState und damit verbundene APIs verwenden, um benutzerdefinierte zustandsbehaftete Anwendungen als Teil von Strukturierten Streaming-Abfragen zu implementieren. Siehe Erstellen einer benutzerdefinierten zustandsbehafteten Anwendung.

Authentifizieren beim Cloudobjektspeicher mit Dienstanmeldeinformationen

Sie können jetzt Databricks-Dienstanmeldeinformationen verwenden, um sich beim Cloudobjektspeicher mit auto Loader zu authentifizieren. Siehe Konfigurieren von Datenströmen für das automatische Laden im Dateibenachrichtigungsmodus.

Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mit Dienstanmeldeinformationen ist jetzt GA

Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten von Azure Databricks. Mit Databricks Runtime 16.2 sind Dienstanmeldeinformationen allgemein verfügbar und unterstützen jetzt Scala SDKs zusätzlich zum Python SDK, das in der public Preview unterstützt wurde. Siehe Erstellen von Dienstanmeldeinformationen.

Notizbücher werden als Arbeitsbereichsdateien unterstützt

In Databricks Runtime 16.2 und höher werden Notizbücher als Arbeitsbereichsdateien unterstützt. Sie können jetzt programmgesteuert von überall aus mit Notizbüchern interagieren, die das Arbeitsbereichsdateisystem verfügbar ist, einschließlich Schreiben, Lesen und Löschen von Notizbüchern wie jeder anderen Datei. Weitere Informationen finden Sie unter Programmgesteuertes Erstellen, Aktualisieren und Löschen von Dateien und Verzeichnissen.

Verwenden Sie timestampdiff & timestampadd in generierten Spaltenausdrücken

In Databricks Runtime 16.2 und höher können Sie die zeitstempeldiff - und timestampadd-Funktionen in delta Lake generierten Spaltenausdrücken verwenden. Siehe Verwenden der von Delta Lake generierten Spalten.

Unterstützung für SQL-Pipeline-Syntax

In Databricks Runtime 16.2 und höher können Sie SQL-Pipelines verfassen. Eine SQL-Pipeline strukturiert eine Standardabfrage, z. B. SELECT c2 FROM T WHERE c1 = 5, in eine Schritt-für-Schritt-Sequenz, wie im folgenden Beispiel gezeigt:

FROM T
|> SELECT c2
|> WHERE c1 = 5

Informationen zur unterstützten Syntax für SQL-Pipelines finden Sie unter SQL-Pipelinesyntax.

Hintergrundinformationen zu dieser branchenübergreifenden Erweiterung finden Sie unter SQL Has Problems. Wir können sie beheben: Pipe-Syntax in SQL (von Google Research).

HTTP-Anforderung mithilfe der http_request-Funktion durchführen

In Databricks Runtime 16.2 und höher können Sie HTTP-Verbindungen erstellen und über sie HTTP-Anforderungen mithilfe der http_request-Funktion vornehmen.

Aktualisieren auf DESCRIBE TABLE Gibt Metadaten als strukturiertes JSON zurück.

In Databricks Runtime 16.2 und höher können Sie den DESCRIBE TABLE AS JSON Befehl verwenden, um Tabellenmetadaten als JSON-Dokument zurückzugeben. Die JSON-Ausgabe ist strukturierter als der vom Benutzer lesbare Standardbericht und kann zum programmgesteuerten Interpretieren des Schemas einer Tabelle verwendet werden. Weitere Informationen finden Sie unter DESCRIBE TABLE AS JSON.

Sortierungen ohne Beachtung nachstehender Leerzeichen

Databricks Runtime 16.2 fügt Unterstützung für nachfolgende leere Sortierungen hinzu und fügt der Sortierunterstützung hinzu, die in Databricks Runtime 16.1 hinzugefügt wurde. Beispielsweise behandeln diese Sortierungen 'Hello' und 'Hello ' gleich. Weitere Informationen finden Sie unter RTRIM-Sortierung.

Konvertieren von Apache Iceberg-Tabellen mit Bucketpartitionierung in nicht partitionierte Delta-Tabellen

Die CONVERT TO DELTA Anweisungen CREATE TABLE CLONE unterstützen jetzt das Konvertieren einer Apache Iceberg-Tabelle mit Bucketpartitionierung in eine nicht partitionierte Delta-Tabelle.

Standardzugriffsmodus (früher gemeinsam genutzter Zugriffsmodus) unterstützt jetzt die Spark Scala-Methoden foreach, foreachBatchund flatMapGroupsWithState

In Databricks Runtime 16.2 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methoden und DataStreamWriter.foreachBatch-MethodenKeyValueGroupedDataset.flatMapGroupsWithState. In Databricks Runtime 16.1 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methode DataStreamWriter.foreach.

Fehlerkorrekturen

Verbesserte inkrementelle Klonverarbeitung

Diese Version enthält einen Fix für einen Randfall, bei dem ein inkrementelles CLONE möglicherweise Dateien, die bereits aus einer Quelltabelle kopiert wurden, in eine Zieltabelle erneut kopieren kann. Siehe Klonen einer Tabelle in Azure Databricks.

Bibliotheksupgrades

  • Aktualisierte Python-Bibliotheken:
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • org.json4s.json4s-ast_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-core_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-jackson_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-scalap_2.12 von 3.7.0-M11 bis 4.0.7

Apache Spark

Databricks Runtime 16.2 umfasst Apache Spark 3.5.2. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 16.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-49966] Wiederherstellen von "[SC-179501][sql] Verwendung Invoke zur Implementierung JsonToStructs(from_json)"
  • [SPARK-50904] [SC-186976][sql] Beheben der Abfrageausführung des Sortierungsausdrucks walker
  • [SPARK-49666] [SQL] Aktivieren von Kürzungstests für inSet-Ausdruck
  • [SPARK-50669] [SC-184566][es-1327450][SQL] Ändern der Signatur des TimestampAdd-Ausdrucks
  • [SPARK-50795] [16.x][sc-186719][SQL] Speicherzeitstempel als long Typ in describe LinkedHashMap
  • [SPARK-50870] [SC-186950][sql] Fügen Sie die Zeitzone beim Umwandeln in den Zeitstempel in V2ScanRelationPushDown hinzu.
  • [SPARK-50735] [SC-186944][connect] Fehler in ExecuteResponseObserver führt zu unendlichen Reattachingsanforderungen.
  • [SPARK-50522] [SC-186500][sql] Unterstützung für unbestimmte Sortierung
  • [SPARK-50525] [SC-186058][sql] Definieren der InsertMapSortInRepartitionExpressions Optimierungsregel
  • [SPARK-50679] [SC-184572][sql] Duplizierte gemeinsame Ausdrücke in unterschiedlichen "Mit" sollten nur einmal projiziert werden.
  • [SPARK-50847] [SC-186916] [SQL] Deny ApplyCharTypePadding für bestimmte In-Ausdrücke anwenden
  • [SPARK-50714] [SC-186786][sql][SS] Aktivieren der Schemaentwicklung für TransformWithState bei Verwendung der Avro-Codierung
  • [SPARK-50795] [SC-186390][sql] Alle BESCHREIBEN ALS JSON-Datumsangaben im ISO-8601-Format und -Typen anzeigen als dataType.simpleString
  • [SPARK-50561] [SC-185924][sql] DBR 16.x cherrypick: Verbessern des Koersions- und Grenzüberprüfungstyps für UNIFORM SQL-Funktion
  • [SPARK-50700] [ SC-184845][sql] spark.sql.catalog.spark_catalog unterstützt builtin magischen Wert
  • [SPARK-50831] [SC-186736][sql] Standardmäßiges Kürzen der Sortierung aktivieren
  • [SPARK-50263] [SC-186793][connect] Ersetzen durch System.currentTimeMillisSystem.nanoTime
  • [SPARK-48730] [SC-184926][sql] Implementieren von CreateSQLFunctionCommand für SQL Scalar- und Tabellenfunktionen
  • [SPARK-50830] [SC-186718] [SQL] Zurückgeben eines Einzeldurchlaufergebnisses als Ergebnis der Dual-Run-Analyse
  • [SPARK-50707] [ SC-186098][sql] Aktivieren der Umwandlung in/von char/varchar
  • [SPARK-49490] [ SC-182137][sql] Fügen Sie Benchmarks für initCap hinzu
  • [SPARK-50529] [SC-184535][sql] Ändern des Zeichen-/Varchar-Verhaltens unter der spark.sql.preserveCharVarcharTypeInfo Konfiguration
  • [SPARK-49632] [SC-184179][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in CANNOT_PARSE_TIMESTAMP
  • [SPARK-50815] [SC-186487][python][SQL] Behebung eines Fehlers, bei dem das Übergeben von NULL-Varianten in createDataFrame bewirkt, dass dies fehlschlägt und die Variant-Unterstützung in createDataFrame in Spark Connect hinzufügt.
  • [SPARK-50828] [ SC-186493][python][ML][connect] Veraltet pyspark.ml.connect
  • [SPARK-50600] [SC-186057][connect][SQL] Set für Analysefehler analysiert
  • [SPARK-50824] [ SC-186472][python] Vermeiden Sie das Importieren optionaler Python-Pakete zur Überprüfung
  • [SPARK-50755] [SC-185521][sql] Hübsche Plananzeige für InsertIntoHiveTable
  • [SPARK-50789] [SC-186312][connect] Die Eingaben für eingegebene Aggregationen sollten analysiert werden.
  • [SPARK-50791] [SC-185867][sc-186338][SQL] Beheben von NPE im Zustandsspeicher-Fehlerbehandlung
  • [SPARK-50801] [SC-186365] [SQL] Verbessern PlanLogger.logPlanResolution , sodass es nur ungelöste und aufgelöste Pläne anzeigt
  • [SPARK-50749] [SC-185925][sql] Beheben des Sortierfehlers in der CommutativeExpression.gatherCommutative-Methode
  • [SPARK-50783] [ SC-186347] Canonicalize JVM profiler results file name and layout on DFS
  • [SPARK-50790] [SC-186354][python] Implementieren von parse json in pyspark
  • [SPARK-50738] [ SC-184856][python] Upgrade schwarz auf 23.12.1
  • [SPARK-50764] [ SC-185930][python] Verfeinern der Docstring von xpath-verwandten Methoden
  • [SPARK-50798] [ SC-186277][sql] Verbessern NormalizePlan
  • [SPARK-49883] [SC-183787][ss] State Store Checkpoint Structure V2 Integration mit RocksDB und RocksDBFileManager
  • [SPARK-50779] [SC-186062][sql] Hinzufügen eines Featurekennzeichnungs für Sortierungen auf Objektebene
  • [SPARK-50778] [SC-186183][python] Hinzufügen von metadataColumn zu PySpark DataFrame
  • [SPARK-49565] [SC-186056][sql] DBR 16.x cherrypick: Verbessern automatisch generierter Ausdrucksaliasen mit Pipe-SQL-Operatoren
  • [SPARK-50541] [16.x][sc-184937] Beschreiben der Tabelle als JSON
  • [SPARK-50772] [SC-185923][sql] DBR 16.x cherrypick: Aufbewahren von Tabellenaliasen nach SET, EXTEND- und DROP-Operatoren
  • [SPARK-50769] [SC-185919][sql] Fix ClassCastException in HistogrammNumeric
  • [SPARK-49025] [ SC-174667] Synchronisierungsdeltacode-Diff zu DBR
  • [SPARK-50752] [SC-185547][python][SQL] Einführen von Konfigurationen für die Optimierung von Python-UDF ohne Pfeil
  • [SPARK-50705] [SC-185944][sql] Sperrfrei machen QueryPlan
  • [SPARK-50690] [16.x][sc-184640][SQL] Beheben von Diskrepanzen in DESCRIBE TABLE Abfrageausgabespalten, die in der Ansicht angegeben werden
  • [SPARK-50746] [ SC-184932][sql] Ersetzen Sie entweder durch VariantPathSegment.
  • [SPARK-50715] [ SC-185546][python][CONNECT] SparkSession.Builder legt die Konfigurationen im Batch fest.
  • [SPARK-50480] [SC-183359][sql] Erweitern von CharType und VarcharType von StringType
  • [SPARK-50675] [ SC-184539][sql] Unterstützung von Tabellen- und Ansichtsebenen
  • [SPARK-50409] [ SC-184516][sql] Fix set statement to ignore ; at the end of SET;, SET -v; and SET key;
  • [SPARK-50743] [SC-185528][sql] Normalize CTERelationDef und CTERelationRef IDs
  • [SPARK-50693] [ SC-184684][connect] Die Eingaben für TypedScalaUdf sollten analysiert werden.
  • [SPARK-50744] [SC-184929][sql] Fügen Sie einen Testfall für die Ansichts-/CTE-Namensauflösungsrangfolge hinzu.
  • [SPARK-50710] [SC-184767][connect] Hinzufügen der Unterstützung für optionale Clientverbindung zu Sitzungen nach der Veröffentlichung
  • [SPARK-50703] [ SC-184843][python] Verfeinern der Docstring von regexp_replace, regexp_substr und regexp_instr
  • [SPARK-50716] [SC-184823][Kern] Beheben der Bereinigungslogik für symbolische Verknüpfungen in JavaUtils.deleteRecursivelyUsingJavaIO der Methode
  • [SPARK-50630] [SC-184443][sql] Fehlerbehebung bei der Ordnungsunterstützung für Pipe-SQL-AGGREGAT-Operatoren.
  • [SPARK-50614] [SC-184729][sql] Hinzufügen von Variant-Streuunterstützung für Parkett
  • [SPARK-50661] [SASP-4936] Hinzufügen der Abwärtskompatibilität für alte Client-FEB.
  • [SPARK-50676] [ SC-184641][sql] Nicht verwendet private lazy val mapValueContainsNull aus ElementAt
  • [SPARK-50515] [SC-183813][core] Hinzufügen einer schreibgeschützten Schnittstelle zu SparkConf
  • [SPARK-50697] [ SC-184702][sql] Aktivieren der Tail-Rekursion nach Möglichkeit
  • [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Beheben des Statusschemas für FlatMapGroupsWithState in Spark Connect, wenn kein Anfangszustand vorhanden ist
  • [SPARK-50701] [ SC-184704][python] Festlegen der Zeichnungsanforderung für die minimale Plotversion
  • [SPARK-50702] [ SC-184727][python] Verfeinern der Docstring von regexp_count, regexp_extract und regexp_extract_all
  • [SPARK-50499] [SC-184177][python] Verfügbarmachen von Metriken von BasePythonRunner
  • [SPARK-50692] [ SC-184705][16.x] Hinzufügen der RPAD-Pushdownunterstützung
  • [SPARK-50682] [SC-184579][sql] Innerer Alias sollte kanonisch sein
  • [SPARK-50699] [ SC-184695][python] Analysieren und Generieren einer DDL-Zeichenfolge mit einer angegebenen Sitzung
  • [SPARK-50573] [SC-184568][ss] Hinzufügen der Statusschema-ID zu Statuszeilen zur Schemaentwicklung
  • [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Behebung der Spark Connect Scala foreachBatch-Implementierung. zur Unterstützung von Dataset[T].
  • [SPARK-50689] [SC-184591][sql] Deterministische Sortierung in LCA-Projektlisten erzwingen
  • [SPARK-50696] [SC-184667][python] Optimieren des Py4J-Aufrufs für die DDL-Analysemethode
  • [SPARK-49670] [SC-182902][sql] Aktivieren der Kürzungssortierung für alle Passthroughausdrücke
  • [SPARK-50673] [SC-184565][ml] Vermeiden Sie das Durchlaufen von Modellkoeffizienten zweimal im Word2VecModel Konstruktor.
  • [SPARK-50687] [SC-184588][python] Optimieren Der Logik zum Abrufen von Stapelablaufverfolgungen für DataFrameQueryContext
  • [SPARK-50681] [SC-184662][python][CONNECT] Zwischenspeichern des analysierten Schemas für MapInXXX und ApplyInXXX
  • [SPARK-50674] [SC-184589][python] Fixüberprüfung auf das Vorhandensein der "terminate"-Methode in der UDTF-Auswertung
  • [SPARK-50684] [SC-184582][python] Verbessern der Py4J-Leistung in DataFrameQueryContext
  • [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Fügen Sie Unterstützung für neue Versionen von Statusmetadaten für TransformWithStateInPandas hinzu.
  • [SPARK-50602] [SC-184439][sql] Fixtransponierung, um eine ordnungsgemäße Fehlermeldung anzuzeigen, wenn ungültige Indexspalten angegeben werden
  • [SPARK-50650] [ SC-184532][sql] Verbessern der Protokollierung in single-pass Analyzer
  • [SPARK-50665] [SC-184533][sql] Ersetzen Von LocalRelation mit "ComparableLocalRelation" in NormalizePlan
  • [SPARK-50644] [SC-184486][sql] Lesevarianten-Anweisung im Parkettleser.
  • [SPARK-49636] [SC-184089][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in INVALID_ARRAY_INDEX und INVALID_ARRAY_INDEX_IN_ELEMENT_AT
  • [SPARK-50659] [SC-184514][sql] Ausgabeberechnung der Union umgestalten, um sie im Single-Pass Analyzer wiederzuverwenden
  • [SPARK-50659] [SC-184512][sql] Verschieben von Union-bezogenen Fehlern in QueryCompilationErrors
  • [SPARK-50530] [SC-183419][sql] Beheben ungültiger kontextbezogener Zeichenfolgentypen
  • [SPARK-50546] [SC-183807][sql] Hinzufügen der Unterstützung von Unterabfragen zur Koersion des Sortiertyps
  • [SPARK-50405] [SC-182889][sql] Behandeln der Sortiertypkoersion komplexer Datentypen ordnungsgemäß
  • [SPARK-50637] [SC-184434][sql] Fixcodeformat für den Single Pass Analyzer
  • [SPARK-50638] [SC-184435][sql] Umgestalten Sie die Ansichtsauflösung in die separate Datei, um sie im Single Pass Analyzer wiederzuverwenden.
  • [SPARK-50615] [SC-184298][sql] Pushvariante in Scan.
  • [SPARK-50619] [SC-184210][sql] Refactor VariantGet.cast zum Packen der Umwandlungsargumente
  • [SPARK-50599] [SC-184058][sql] Erstellen Sie die DataEncoder-Eigenschaft, die Avro- und UnsafeRow-Codierung ermöglicht
  • [SPARK-50076] [ SC-183809] Beheben von Protokollschlüsseln
  • [SPARK-50597] [ SC-183972][sql] Batcherstellung in Optimizer.scala und SparkOptimizer.scala
  • [SPARK-50339] [ SC-183063][spark-50360][SS] Aktivieren des Änderungsprotokolls zum Speichern von Zeileninformationen
  • [SPARK-50526] [SC-183811][ss] Hinzufügen des Speichercodierungsformats zu Offsetprotokollen und Blockieren nicht unterstützter zustandsbehafteter Operatoren bei der Verwendung von avro
  • [SPARK-50540] [SC-183810][python][SS] Fixzeichenfolgenschema für StatefulProcessorHandle
  • [SPARK-50157] [SC-183789][sql] Verwenden von SQLConf, das von SparkSession zuerst bereitgestellt wird.
  • [SPARK-48898] [SC-183793][sql] Legen Sie die Nullierbarkeit im Variant-Schema richtig fest.
  • [SPARK-50559] [SC-183814][sql] Speichere die Ausgaben von Except, Intersect und Union als lazy vals
  • [SPARK-48416] [SC-183643][sql] Unterstützung geschachtelt mit Ausdruck
  • [SPARK-50428] [SC-183566][ss][PYTHON] Unterstützen TransformWithStateInPandas in Batchabfragen
  • [SPARK-50063] [SC-183350][sql][CONNECT] Hinzufügen von Unterstützung für Variant im Spark Connect Scala-Client
  • [SPARK-50544] [ SC-183569][python][CONNECT] Implementieren StructType.toDDL
  • [SPARK-50443] [SC-182590][ss] Beheben von Maven-Buildfehlern, die von Guava-Cache in RocksDBStateStoreProvider eingeführt wurden
  • [SPARK-50491] [SC-183434][sql] Fehler beheben, bei dem leere BEGIN-END-Blöcke einen Fehler auslösen
  • [SPARK-50536] [SC-183443][core] Archivdateigrößen in SparkContext und Executor
  • [SPARK-45891] [SC-183439][sql] Variant-Binärdatei aus geschredderten Daten neu erstellen.
  • [SPARK-49565] [SC-183465][sql] Hinzufügen der SQL-Pipesyntax für den FROM-Operator
  • [SPARK-50497] [SC-183338][sql] Abfragen mit einer eindeutigen Meldung fehlschlagen lassen, wenn MultiAlias eine Nicht-Generator-Funktion enthält
  • [SPARK-50460] [SC-183375][python][CONNECT] Verallgemeinern und Vereinfachen der Ausnahmebehandlung von Connect
  • [SPARK-50537] [SC-183452][connect][PYTHON] Fixkomprimierungsoption, die überschrieben wird df.write.parquet
  • [SPARK-50329] [SC-183358][sql] fix InSet$toString
  • [SPARK-50524] [SC-183364][sql] Niedrigere RowBasedKeyValueBatch.spill Warnmeldung zum Debuggen
  • [SPARK-50528] [ SC-183385][connect] Wechseln InvalidCommandInput zum gemeinsamen Modul
  • [SPARK-50017] [ SC-182438][ss] Unterstützen der Avro-Codierung für den TransformWithState-Operator
  • [SPARK-50463] [SC-182833][sql] Korrektur bei der Umwandlung von Spaltenar zu Zeilen
  • [SPARK-50235] [SC-180786][sql] Aufräumen der ColumnVector-Ressource nach der Verarbeitung aller Zeilen in ColumnarToRowExec
  • [SPARK-50516] [SC-183279][ss][MINOR] Beheben des init-Zustandsbezogenen Tests zur Verwendung von StreamManualClock
  • [SPARK-50478] [ SC-183188][sql] Fix StringType-Abgleich
  • [SPARK-50492] [SC-183177][ss] Fix java.util.NoSuchElementException, wenn die Ereigniszeitspalte nach dropDuplicatesWithinWatermark gelöscht wird
  • [SPARK-49566] [ SC-182589][sql] Hinzufügen einer SQL-Pipesyntax für den SET Operator
  • [SPARK-50449] [SC-183178][sql] Korrigieren der SQL-Skripting-Grammatik, die leere Textkörper für Schleifen, WENN und CASE zulässt
  • [SPARK-50251] [SC-180970][python] Zu PySpark hinzufügen getSystemPropertySparkContext
  • [SPARK-50421] [SC-183091][core] Beheben der Ausführungskonfiguration im Zusammenhang mit speicherbezogenen Speicherfehlern, wenn mehrere Ressourcenprofile funktioniert haben
  • [SPARK-49461] [ SC-179572][ss] Id des persistenten Prüfpunkts zum Commit von Protokollen und Zurücklesen
  • [SPARK-50343] [SC-183119][spark-50344][SQL] Hinzufügen der SQL-Pipesyntax für die DROP- und AS-Operatoren
  • [SPARK-50481] [SC-182880][Core] Verbessern SortShuffleManager.unregisterShuffle , um Prüfsummendateilogik zu überspringen, wenn die Prüfsumme deaktiviert ist
  • [SPARK-50498] [ SC-183090][python] Vermeiden Sie unnötige Py4j-Aufrufe in listFunctions
  • [SPARK-50489] [SC-183053][sql][PYTHON] Selbst-Join nach applyInArrow beheben
  • [SPARK-49695] [ SC-182967][sc-176968][SQL] Postgres fix xor push-down

Databricks ODBC/ODBC/ODBC-TREIBERunterstützung

Databricks unterstützt IN den letzten 2 Jahren veröffentlichte ODBC/PASTE-Treiber. Laden Sie die kürzlich veröffentlichten Treiber und das Upgrade herunter (ODBC herunterladen, DOWNLOAD BUILDS).

Wartungsupdates

Siehe Databricks Runtime 16.2 Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.1 LTS
    • Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die Databricks-Runtime-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
  • Java: Zulu17.54+21-CA
  • Skala: 2.12.15
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.3.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
Annotated-Types 0.7.0 asttokens 2.0.5 Astunparse 1.6.3
AutoCommand 2.2.2 Azure Core 1.31.0 Azure-Speicher-Blob 12.23.0
Azure-Speicher-Datei-Datensee 12.17.0 backports.tarfile 1.2.0 schwarz 24.4.2
Blinker 1.7.0 Boto3 1.34.69 Botocore 1.34.69
CacheWerkzeuge 5.3.3 Zertifizieren 2024.6.2 CFFI 1.16.0
Chardet 4.0.0 Charset-Normalizer 2.0.4 Klicken 8.1.7
Wolkengurke 2.2.1 comm 0.2.1 Contourpy 1.2.0
Kryptographie 42.0.5 Fahrradfahrer 0.11.0 Cython 3.0.11
Databricks-SDK 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
Dekorateur 5.1.1 Deprecated 1.2.14 Distlib 0.3.8
Docstring zu Markdown 0.11 Einstiegspunkte 0.4 ausführen 0.8.3
Übersicht der Facetten 1.1.1 Dateisperrung 3.15.4 fonttools 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
Google-Authentifizierung 2.35.0 Google-Cloud-Core 2.4.1 Google Cloud-Speicher 2.18.2
google-crc32c 1.6.0 google-resumable-media 2.7.2 googleapis-common-protos 1.65.0
GRPCIO 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3,7 importlib-metadata 6.0.0 importlib_resources 6.4.0
beugen 7.3.1 ipyflow-core 0.0.201 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
Mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-Erweiterungen 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-semantic-conventions 0.48b0
Packen 24.1 Pandas 1.5.3 Parso 0.8.3
Pfadangabe 0.10.3 Sündenbock 0.5.6 pexpect 4.8.0
Kissen 10.3.0 Kern 24.2 platformdirs 3.10.0
Handlung 5.22.0 plugin-fähig 1.0.0 Prompt-Toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 15.0.2 Pyasn1 0.4.8 Pyasn1-Module 0.2.8
Pyccolo 0.0.65 Pycparser 2.21 Pydantisch 2.8.2
pydantic_core 2.20.1 Pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
Pyparsing 3.0.9 Pyright 1.1.294 Python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 Python-LSP-Server 1.10.0 pytoolconfig 1.2.6
Pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
Anforderungen 2.32.2 Seil 1.12.0 rsa 4,9
s3transfer 0.10.2 scikit-learn 1.4.2 SciPy 1.13.1
Seegeboren 0.13.2 setuptools 74.0.0 sechs 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5.11
Stapeldaten 0.2.0 StatistikModelle 0.14.2 Hartnäckigkeit 8.2.2
Threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
Tornado 6.4.1 Traitlets 5.14.3 Typwächter 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 types-requests 2.31.0.0 types-setuptools 68.0.0.0
Typen-6 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 unbeaufsichtigte Aktualisierungen 0,1 urllib3 1.26.16
virtualenv 20.26.2 Wadllib 1.3.6 wcwidth 0.2.5
Was ist neu im Patch 1.0.2 Rad 0.43.0 Eingehüllt 1.14.1
yapf 0.33.0 ZIPP 3.17.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2024-08-04 installiert: https://packagemanager.posit.co/cran/2024-08-04/.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 16.1.0 askpass 1.2.0 assertthat 0.2.1
Backports 1.5.0 Basis 4.4.0 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
Bitops 1.0-8 Blob 1.2.4 Booten 1.3-30
brauen 1.0-10 Brio 1.1.5 Besen 1.0.6
bslib 0.8.0 cachem 1.1.0 Callr 3.7.6
Einschaltungszeichen 6.0-94 cellranger 1.1.0 Chron 2.3-61
class 7.3-22 cli 3.6.3 Clipr 0.8.0
Uhr 0.7.1 Cluster 2.1.6 Codetools 0.2-20
Farbraum 2.1-1 Commonmark 1.9.1 Compiler 4.4.0
config 0.3.2 Konflikt 1.2.0 cpp11 0.4.7
Buntstift 1.5.3 Zugangsdaten 2.0.1 Locke 5.2.1
data.table 1.15.4 Datensätze 4.4.0 DBI 1.2.3
dbplyr 2.5.0 Desc 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.36
Downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 Auslassungspunkte 0.3.2 Evaluieren 0.24.0
fansi 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.2 Forcats 1.0.0 Foreach 1.5.2
Ausländisch 0.8-86 schmieden 0.2.0 fs 1.6.4
Zukunft 1.34.0 future.apply 1.11.2 gurgeln 1.5.2
Generika 0.1.3 Gert 2.1.0 ggplot2 3.5.1
Gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 Globalen 0.16.3 Leim 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
Graphik 4.4.0 grDevices 4.4.0 Gitter 4.4.0
gridExtra 2.3 gsubfn 0.7 gt 0.11.0
gtable 0.3.5 hardhat 1.4.0 Zufluchtsort 2.5.4
Highr 0.11 Hms 1.1.3 htmltools 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 Ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iteratoren 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-22 Knitr 1.48 Kennzeichnung 0.4.3
später 1.3.2 Gitter 0.22-5 Lava 1.8.0
Lebenszyklus 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Abschlag 1.13 MASSE 7.3-60.0.1
Matrix 1.6-5 Memoise 2.0.1 Methodik 4.4.0
mgcv 1.9-1 Pantomime 0,12 miniUI 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 parallel 4.4.0
Parallel 1.38.0 Säule 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 Proc 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 Fortschritt 1.2.3
progressr 0.14.0 verspricht 1.3.0 ur 1.0.0
Stellvertreter 0.4-27 PS 1.7.7 Löscher 1.0.2
R6 2.5.1 Ragg 1.3.2 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 reaktivierbar 0.4.4
reactR 0.6.0 Readr 2.1.5 readxl 1.4.3
Rezepte 1.1.0 Revanche 2.0.0 Rematch2 2.1.2
fernbedienungen 2.5.0 Reprex 2.1.1 Umform2 1.4.4
rlang 1.1.4 Rmarkdown 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 Sass 0.4.9
Waage 1.3.0 Auswahl 0.4-2 sessioninfo 1.2.2
Form 1.4.6.1 glänzend 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 SparkR 3.5.2 räumlich 7.3-17
Splines 4.4.0 sqldf 0.4-11 SQUAREM 2021.1
Statistiken 4.4.0 stats4 4.4.0 stringi 1.8.4
stringr 1.5.1 Überleben 3.6-4 stolzieren 5.17.14.1
sys 3.4.2 systemfonts 1.1.0 tcltk 4.4.0
testthat 3.2.1.1 Textshaping 0.4.0 Tibble 3.2.1
Räumter 1.3.1 aufräumen 1.2.1 aufräumen 2.0.0
Timechange 0.3.0 timeDate 4032.109 tinytex 0.52
Werkzeuge 4.4.0 tzdb 0.4.0 urlchecker 1.0.1
usethis 3.0.0 utf8 1.2.4 Utils 4.4.0
uuid 1.2-1 V8 4.4.2 vctrs 0.6.5
viridisLite 0.4.2 Vroom 1.6.5 Waldo 0.5.2
Backenbart 0.4.1 withr 3.0.1 xfun 0.46
xml2 1.3.6 xopen 1.0.1 xtable 1.8-4
yaml 2.3.10 zeallot 0.1.0 schwirren 2.3.1

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-db 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics Bach 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-schattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Natives
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 26.05.23
com.google.guava Guave 15.0
com.google.protobuf protobuf-java 3.25.1
com.helger Profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-servers 11.2.2.jre8
com.microsoft.sqlserver mssql-servers 11.2.3.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tduning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Aircompressor 0.27
io.delta delta-sharing-client_2.12 1.2.2
io.dropwizard.metrics Metrikanmerkung 4.2.19
io.dropwizard.metrics Metrikenkern 4.2.19
io.dropwizard.metrics Metrik-Graphit 4.2.19
io.dropwizard.metrics Metrik-Integritätsüberprüfungen 4.2.19
io.dropwizard.metrics Metriken-Jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty nett-all 4.1.108.Final
io.netty Netty-Puffer 4.1.108.Final
io.netty Netty-Codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty Netty-Codec-Socken 4.1.108.Final
io.netty Netty-common 4.1.108.Final
io.netty Netty-Handler 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty Netty-Resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty Netty-Transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammler 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine Essiggurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv Super-CSV 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant Ant-Startfeld 1.10.11
org.apache.arrow Pfeilformat 15.0.0
org.apache.arrow Pfeilspeicherkern 15.0.0
org.apache.arrow Arrow-memory-netty 15.0.0
org.apache.arrow Pfeilvektor 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator Kurator-Client 2.13.0
org.apache.curator Kurator-Framework 2.13.0
org.apache.curator Kurator-Rezepte 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Melone 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-silk 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Efeu 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc Orc-Shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus Benutzergruppenanmerkungen 0.13.0
org.apache.zookeeper Zookeeper 3.9.2
org.apache.zookeeper Zookeeper-Jute 3.9.2
org.checkerframework Prüferqual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty Jetty-Client 9.4.52.v20230823
org.eclipse.jetty Jetty-Fortsetzung 9.4.52.v20230823
org.eclipse.jetty Jetty-http 9.4.52.v20230823
org.eclipse.jetty Jetty-io 9.4.52.v20230823
org.eclipse.jetty Jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-Plus 9.4.52.v20230823
org.eclipse.jetty Jetty-Proxy 9.4.52.v20230823
org.eclipse.jetty Jetty-Sicherheit 9.4.52.v20230823
org.eclipse.jetty Jetty-Server 9.4.52.v20230823
org.eclipse.jetty Jetty-servlet 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlets 9.4.52.v20230823
org.eclipse.jetty Jetty-util 9.4.52.v20230823
org.eclipse.jetty Jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-webapp 9.4.52.v20230823
org.eclipse.jetty Jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core Jersey-Client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core Jersey-Server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator Ruhezustands-Validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 4.0.7
org.json4s json4s-core_2.12 4.0.7
org.json4s json4s-jackson-core_2.12 4.0.7
org.json4s json4s-jackson_2.12 4.0.7
org.json4s json4s-scalap_2.12 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis Objenese 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Klemmstücke 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testschnittstelle 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest skalatestkompatibel 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten 3ten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel Katzen-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-servers 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml Schlangenyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.4.1-linux-x86_64
Stax stax-api 1.0.1