Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.4 LTS, unterstützt von Apache Spark 3.5.2.
Databricks hat diese LTS-Version im Mai 2025 veröffentlicht. Es gibt 2 Varianten für diese Version, eine unterstützt Scala 2.12 und eine, die Scala 2.13 unterstützt.
Ab DBR 17 (Spark 4) wird nur Scala 2.13 unterstützt. Zur Unterstützung des Übergangs stehen zwei Bilder in 16.4 LTS zur Verfügung: eines mit Scala 2.12 und eines mit Scala 2.13. Verwenden Sie das Image 2.13, um Ihre Codebasis vor der Migration zu DBR 17 auf Scala 2.13 zu testen und zu aktualisieren.
Scala 2.13-Migrationsleitfaden
- Alle anderen Features sind in databricks Runtime 16.4 LTS-Versionen identisch.
- Abhängigkeitsversionen können sich zwischen dem Databricks Runtime 16.4 Scala 2.12-Abbild und dem 16.4 Scala 2.13-Abbild unterscheiden. Die versionen der in den einzelnen Bildern unterstützten Bibliotheken sind unten auf dieser Seite aufgeführt.
- Stellen Sie sicher, dass Ihr Code in Scala 2.13 geschrieben ist und Ihre ausführbare Datei mit Scala 2.13 kompiliert wird.
- Erstellen Sie Ihr Projekt mit Spark 3.5.
Wenn Ihr Code die sparklyr R-Bibliothek verwendet, müssen Sie stattdessen das Bild verwenden, das Scala 2.12 unterstützt.
Fehlerhafte Änderungen zwischen Scala 2.12 und 2.13
Wesentliche fehlerhafte Änderungen
Databricks Runtime betrachtet eine fehlerhafte Änderung als groß, wenn Sie erhebliche Code-Änderungen vornehmen müssen, um sie zu unterstützen.
Sammlungsinkompatibilität: Lesen Sie diese offizielle Scala-Dokumentationsseite , um Details zum Migrieren von Sammlungen zu Scala 2.13 zu erhalten. Wenn Ihr Code eine frühere Version von Scala-Code verwendet, sind Sammlungen primäre Quelle von Inkompatibilitäten bei der Verwendung von Databricks, insbesondere bei API-Parametern und Rückgabetypen.
Hashalgorithmus: Wenn Sie Ihren Code überprüfen, der mit Scala 2.12 erstellt wurde, verlassen Sie sich nicht auf die implizite Reihenfolge von Datenstrukturen, die keine Reihenfolge garantieren, wie
HashMapundSet. Sammlungen, die eine implizite Anordnung haben, können ihre Elemente anders anordnen, wenn Sie sie unter 2.13 (im Vergleich zu 2.12) durchlaufen.
Geringfügige fehlerhafte Änderungen
Databricks Runtime betrachtet eine bedeutende Änderung als "geringfügig", wenn durch die Versionsänderungen keine spezifischen Fehlermeldungen ausgelöst werden, Ihr Code jedoch im Allgemeinen mit dieser Version nicht kompiliert werden kann. In diesem Fall stellen die Fehlermeldungen möglicherweise ausreichende Informationen zum Aktualisieren des Codes bereit.
- Strengere Typinferenz: Beim Kompilieren von Code, der für Scala 2.12 mit 2.13 entwickelt wurde, kann der Compiler berichten, dass er den Typ nicht ableiten kann oder auf eine Mehrdeutigkeit des Typs hinweist. Durch das explizite Kommentieren der Variablen mit ihrem Datentyp wird dieses Problem häufig gelöst.
-
Entfernung spezifischer Syntax: Einige Syntaxen wurden in Scala 2.13 außer Betrieb genommen, wie z. B. das Zeichenfolgenliteral in einfachen Anführungszeichen, der
+-Operator für die Zeichenfolgenverkettung, wenn er mit einem Nicht-String-Typ auf der linken Seite verwendet wird, und der Postfix-Operator (verwenden Sie stattdessen die Punktnotation). Weitere Details finden Sie in den offiziellen Scala-Dokumenten unter Verworfene Scala-Features. -
Ausgabemeldungen: Textergebnisse für von REPL zurückgegebene Nachrichten können zwischen Scala 2.12 und 2.13 unterschiedlich sein. Jede Diskrepanz bedeutet nicht, dass die Syntax oder Berechnung falsch ist; Stattdessen beschreibt die Nachricht das Problem oder den Kontext anders oder stellt es in einem anderen Darstellungsformat dar. Beispielsweise kann
f: Foo = Foo(1)in einigen Nachrichten zuf: Foo = Foo(i = 1)werden.
Die Liste der Bibliotheksversionen, die von jeder Scala-Version von Databricks Runtime 16.4 LTS unterstützt werden:
Neue Features und Verbesserungen
- Dashboards, Warnungen und Abfragen werden als Arbeitsbereichsdateien unterstützt.
- Verbesserung von Liquid-Clustering auto-compaction
- Auto Loader kann jetzt verarbeitete Dateien im Quellverzeichnis bereinigen
- Unterstützung für Typenerweiterung beim Streaming aus Delta-Tabellen hinzugefügt
- IDENTIFIER Unterstützung jetzt in DBSQL für Katalogvorgänge verfügbar
- Kollationierte Ausdrücke bieten jetzt automatisch generierte transiente Aliase
- Hinzufügen von Filter-Pushdown-API-Unterstützung zu Python-Datenquellen
- Python UDF-Ablaufverfolgungsverbesserung
- UNION/EXCEPT/INTERSECT innerhalb einer Ansicht und EXECUTE IMMEDIATE liefern jetzt korrekte Ergebnisse
- Anleitung zur Konfiguration und Migration des Zwischenspeicherns für Datenquellen
-
Neue
listaggundstring_aggFunktionen -
Unterstützung für
MERGE INTOTabellen mit fein abgestimmter Zugriffssteuerung auf dediziertem Compute ist jetzt allgemein verfügbar (GA)
Dashboards, Warnungen und Abfragen werden als Arbeitsbereichsdateien unterstützt.
Dashboards, Warnungen und Abfragen werden jetzt als Arbeitsbereichsdateien unterstützt. Sie können jetzt programmgesteuert mit diesen Databricks-Objekten von überall aus interagieren, wo das Arbeitsbereichsdateisystem verfügbar ist, einschließlich Schreiben, Lesen und Löschen wie jede andere Datei. Weitere Informationen finden Sie unter Was sind Arbeitsbereichsdateien? Und interagieren programmgesteuert mit Arbeitsbereichsdateien.
Verbesserung von Liquid-Clustering auto-compaction
Von Unity Catalog verwaltete Liquid-Clustering-Tabellen triggern jetzt die automatische Verdichtung, um Probleme mit kleinen Dateien zwischen OPTIMIZE Ausführen automatisch zu reduzieren.
Weitere Details finden Sie unter "Auto Compaction" für Delta Lake auf Azure Databricks.
Auto Loader kann jetzt verarbeitete Dateien im Quellverzeichnis bereinigen
Kunden können jetzt das automatische Laden anweisen, Dateien, die verarbeitet wurden, automatisch zu verschieben oder zu löschen. Aktivieren Sie dieses Feature mithilfe der cloudFiles.cleanSource Option "Automatisches Laden".
Weitere Informationen finden Sie unter den Optionen für das automatische Laden unter cloudFiles.cleanSource.
Support für Type-Widening beim Streaming aus Delta-Tabellen hinzugefügt
Diese Version fügt Support für das Streaming aus einer Delta-Tabelle hinzu, die Type-Widening-Spaltendaten enthält, sowie für die gemeinsame Nutzung einer Delta-Tabelle mit aktiviertemTType-Widening durch Databricks-to-Databricks Delta Sharing. Die Funktion zur Typerweiterung befindet sich aktuell in der öffentlichen Vorschau.
Weitere Einzelheiten finden Sie unter Type-Widening.
IDENTIFIER Unterstützung jetzt in DBSQL für Katalogvorgänge verfügbar
Azure Databricks-Kunden können jetzt die IDENTIFIER Klausel verwenden, wenn sie die folgenden Katalogvorgänge ausführen:
CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Mit dieser neuen Syntax können Kunden Katalognamen dynamisch mithilfe von Parametern angeben, die für diese Vorgänge definiert sind, wodurch flexiblere und wiederverwendbare SQL-Workflows ermöglicht werden. Berücksichtigen Sie CREATE CATALOG IDENTIFIER(:param) als Beispiel für die Syntax, wo param ein Parameter angegeben wird, um einen Katalognamen anzugeben.
Weitere Informationen finden Sie in IDENTIFIER der Klausel.
Kollationierte Ausdrücke bieten jetzt automatisch generierte transiente Aliase
Autogenerierte Aliase für kollationierte Ausdrücke enthalten jetzt immer deterministisch COLLATE-Informationen. Automatisch generierte Aliase sind vorübergehend (instabil) und sollten nicht verwendet werden. Verwenden Sie expression AS alias stattdessen als bewährte Methode konsistent und explizit.
Hinzufügen von Filter-Pushdown-API-Unterstützung zu Python-Datenquellen
In Databricks Runtime 16.4 LTS hat Azure Databricks die Unterstützung für Filter-Pushdown bei Batch-Lesevorgängen von Python-Datenquellen hinzugefügt, ähnlich einer API-Schnittstelle, die der SupportsPushDownFilters Schnittstelle entspricht. Sie können jetzt DataSourceReader.pushFilters implementieren, um Filter zu empfangen, die nach unten gepusht werden können. Sie können diese API auch implementieren, um eine Logik zur Auswahl von Filtern, die nach unten gepusht werden sollen, bereitzustellen, sie zu verfolgen und die verbleibenden Filter zur Anwendung durch Apache Spark zurückzugeben.
Mithilfe des Filter-Pushdowns kann die Datenquelle eine Teilmenge von Filtern verarbeiten. Dies kann die Leistung verbessern, indem die Datenmenge reduziert wird, die von Spark verarbeitet werden muss.
Filter-Pushdown wird nur für Batchlesevorgänge unterstützt, nicht für Streaminglesevorgänge. Die neue API muss zu DataSourceReader hinzugefügt werden und nicht zu DataSource oder DataSourceStreamReader. Die Liste der Filter muss als logisches AND der Elemente in Ihrer Implementierung interpretiert werden. Diese Methode wird einmal während der Abfrageplanung aufgerufen. In der Standardimplementierung werden alle Filter zurückgegeben, was darauf hinweist, dass keine Filter nach unten verschoben werden können. Verwenden Sie Unterklassen, um diese Methode außer Kraft zu setzen und Ihre Logik für Filter-Pushdown zu implementieren.
Zunächst und um die API einfach zu halten, unterstützt Azure Databricks nur V1-Filter mit einer Spalte, einem booleschen Operator und einem Literalwert. Die Filter-Serialisierung ist ein Platzhalter und wird in einem zukünftigen PR implementiert. Beispiel:
class DataSourceReader(ABC):
...
def pushFilters(self, filters: List["Filter"]) -> Iterable["Filter"]:
Azure Databricks empfiehlt Ihnen, diese Methode nur für Datenquellen zu implementieren, die das Filtern systemintern unterstützen, z. B. Datenbanken und GraphQL-APIs.
Python UDF-Ablaufverfolgungsverbesserung
Die Python-UDF-Ablaufverfolgung enthält jetzt Frames sowohl vom Treiber als auch vom Executor zusammen mit Clientframes, was zu besseren Fehlermeldungen führt, die größere und relevantere Details anzeigen (z. B. den Zeileninhalt von Frames innerhalb einer UDF).
UNION/EXCEPT/INTERSECT innerhalb einer Ansicht und EXECUTE IMMEDIATE liefern jetzt korrekte Ergebnisse
Abfragen nach temporären und persistenten Ansichtsdefinitionen mit UNION/EXCEPT/INTERSECT-Spalten auf oberster Ebene und Spalten ohne Aliasing lieferten bisher falsche Ergebnisse, da UNION/EXCEPT/INTERSECT Schlüsselwörter als Aliase betrachtet wurden. Diese Abfragen führen jetzt das gesamte Set korrekt aus.
EXECUTE IMMEDIATE ... INTO mit UNION/EXCEPT/INTERSECT auf oberster Ebene und Spalten ohne Alias schrieben ebenfalls ein falsches Ergebnis eines Set-Vorgangs in die angegebene Variable, da der Parser diese Schlüsselwörter als Aliase interpretierte. Ebenso waren SQL-Abfragen mit ungültigen Tail-Text zulässig. Set-Operationen in diesen Fällen schreiben jetzt ein korrektes Ergebnis in die angegebene Variable oder schlagen fehl, wenn der SQL-Text ungültig ist.
Anleitung zur Konfiguration und Migration des Zwischenspeicherns für Datenquellen
Seit DBR 16.4.0 werden beim Lesen aus einer Quelltabelle Abfrageoptionen, z. B. Begrenzungszeichen, korrekt berücksichtigt. Zuvor wurde der erste Abfrageplan zwischengespeichert und nachfolgende Optionsänderungen ignoriert. Um das vorherige Verhalten wiederherzustellen, legen Sie spark.sql.legacy.readFileSourceTableCacheIgnoreOptions auf true fest.
Neue listagg und string_agg Funktionen
Ab dieser Version können Sie die Funktionen listagg oder string_agg verwenden, um STRING- und BINARY-Werte innerhalb einer Gruppe zu aggregieren.
Weitere Informationen finden Sie unter string_agg .
Unterstützung für MERGE INTO Tabellen mit fein abgestimmter Zugriffssteuerung auf dediziertem Compute ist jetzt allgemein verfügbar (GA)
In Databricks Runtime 16.3 und höher unterstützen dedizierte Rechenressourcen MERGE INTO für Unity-Katalog-Tabellen, die eine feinkörnige Zugriffssteuerung verwenden. Dieses Feature ist jetzt allgemein verfügbar.
Siehe Feingranulare Zugriffssteuerung auf dedizierten Rechenressourcen.
Änderungen im Verhalten von DBR 16.4 LTS
- Delta-Tabellen: "DESCRIBE DETAIL table" zeigt nun den ClusterByAuto-Status der Tabelle an.
- Problem behoben, bei dem Optionen für zwischengespeicherte Pläne für Datenquellen nicht berücksichtigt wurden
- Redaktionsregel vom Analysator zum Optimierer verschoben
- variant_get und get_json_object betrachten jetzt führende Räume in Pfaden in Apache Spark
- Flag aktivieren, um die Deaktivierung der Quellmaterialisierung für MERGE-Vorgänge zu verhindern
- Anker für die Aktivierung des Partitionsmetadatenprotokolls in die Tabelle verschieben
- In DBR 16.2 und 16.3 wurde ein Downgrade von Json4s von 4.0.7 auf 3.7.0-M11 durchgeführt.
Delta-Tabellen: „DESCRIBE DETAIL table“ zeigt nun den clusterByAuto-Status der Tabelle an.
DESCRIBE DETAIL {table} zeigt nun den clusterByAuto Status der Tabelle (wahr oder falsch) neben den aktuellen Clusterspalten an. Weitere Informationen clusterByAutofinden Sie unter:Automatische Flüssigkeitsgruppierung.
Problem behoben, bei dem Optionen für zwischengespeicherte Pläne für Datenquellen nicht berücksichtigt wurden
Mit diesem Update wird sichergestellt, dass Tabelleneinträge bei der Zwischenspeicherung die für alle Datenquellenpläne festgelegten Optionen berücksichtigen und nicht nur beim ersten zwischengespeicherten Tabellenabruf.
Zuvor hatte die Datenquellentabelle den ersten Plan zwischengespeichert, konnte jedoch bei nachfolgenden Abfragen verschiedene Optionen nicht berücksichtigen.
Beispielsweise in der folgenden Abfrage:
spark.sql("CREATE TABLE t(a string, b string) USING CSV".stripMargin)
spark.sql("INSERT INTO TABLE t VALUES ('a;b', 'c')")
spark.sql("SELECT * FROM t").show()
spark.sql("SELECT * FROM t WITH ('delimiter' = ';')")
würde diese Ausgabe anzeigen:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
Mit diesem Fix wird jetzt die erwartete Ausgabe zurückgegeben:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a | b,c|
+----+----+
Wenn Ihre Workloads Abhängigkeiten vom vorherigen falschen Verhalten haben, werden nach dieser Änderung möglicherweise unterschiedliche Ergebnisse angezeigt.
Verschob Redaktionsregel vom Analysator zum Optimierer
Bisher konnten DataFrames Tabellen erstellen, die redigierte Werte enthielten, wenn gültige SECRET SQL-Funktionen verwendet wurden. Diese Änderung entfernt die Redaktion beim Speichern von DataFrames mit gültigem Geheimzugriff auf eine Tabelle, und die Redaktionsregel wurde vom Analysator zum Optimierer verschoben.
variant_get und get_json_object betrachten jetzt führende Räume in Pfaden in Apache Spark
Vor dieser Änderung wurden führende Leerzeichen und Tabulatoren in Pfaden in den Ausdrücken variant_get und get_json_object ignoriert, wenn Photon deaktiviert war. Beispielsweise wäre select get_json_object('{" key": "value"}', '$[' key']') nicht effektiv beim Extrahieren des Werts von " key". Benutzer können diese Schlüssel jedoch extrahieren.
Flag aktivieren, um die Deaktivierung der Quellmaterialisierung für MERGE-Vorgänge zu verhindern
Zuvor konnten Benutzer die Quellmaterialisierung in MERGE deaktivieren, indem sie merge.materializeSource auf none setzten. Wenn das neue Flag aktiviert ist, ist dies verboten und verursacht einen Fehler. Databricks plant, das Flag nur für Kunden zu aktivieren, die dieses Konfigurationsflagge noch nicht verwendet haben, sodass kein Kunde eine Verhaltensänderung bemerken sollte.
Anker für die Aktivierung des Partitionsmetadatenprotokolls in die Tabelle verschieben
Die Funktion „Partitionsmetadatenprotokoll“ wurde so geändert, dass Sie eine Tabelle, die mit spark.databricks.nonDelta.partitionLog.enabled = true erstellt wurde, an eine Tabelle verankern können, damit ein Cluster nicht spark.databricks.nonDelta.partitionLog.enabled = true für alle vom Cluster verarbeiteten Tabellen festlegt.
In DBR 16.2 und 16.3 wurde ein Downgrade von Json4s von 4.0.7 auf 3.7.0-M11 durchgeführt.
Kunden können databricks-connect 16.1+ und Apache Spark™ 3.5.x nicht zusammen in derselben Anwendung verwenden, da es erhebliche Abweichungen im API-Verhalten zwischen Json4s Version 3.7.0-M11 und Version 4.0.7 gibt. Um dies zu beheben, hat Azure Databricks Json4s auf 3.7.0-M11 herabgestuft.
Bibliotheksupgrades (gilt nur für das Scala 2.12-Bild)
- Aktualisierte R-Bibliotheken:
- sparklyr von 1.8.4 bis 1.8.6 (gilt nur für das Scala 2.12-Image für die Databricks Runtime 16.4 LTS-Version)
- Aktualisierte Java-Bibliotheken:
- io.delta.delta-sharing-client_2.12 von Version 1.2.3 auf Version 1.2.4
- org.json4s.json4s-ast_2.12 von 4.0.7 auf 3.7.0-M11
- org.json4s.json4s-core_2.12 von 4.0.7 auf 3.7.0-M11
- org.json4s.json4s-jackson_2.12 von 4.0.7 auf 3.7.0-M11
- org.json4s.json4s-scalap_2.12 von 4.0.7 auf 3.7.0-M11
Die Scala 2.13 Databricks Runtime-Version gilt als "neue" Version und kann unterschiedliche Bibliotheksversionen von 2.12 haben. In der folgenden Tabelle finden Sie bestimmte Bibliotheksversionen in diesem Releaseimage. Diese Version enthält sparklyr nicht.
Apache Spark
Databricks Runtime 16.4 LTS umfasst Apache Spark 3.5.2. Diese Version enthält alle Spark Fixes und Verbesserungen, die in Databricks Runtime 16.3 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-51206] [PYTHON][connect] Verschieben Sie die Arrow-Konvertierungshilfsfunktionen aus Spark Connect.
- [SPARK-51566] [PYTHON] Python UDF Traceback-Verbesserung
- [SPARK-51675] [SS] Fix Spaltenfamilienerstellung nach dem Öffnen der lokalen DB, um die Erstellung eines Snapshots zu vermeiden, wenn dies nicht notwendig ist
- [SPARK-50892] [SQL]Add UnionLoopExec, physischer Operator für Rekursion, zur Ausführung rekursiver Abfragen
- [SPARK-51670] Refaktorieren von „Intersect“ und „Except“ am Beispiel „Union“ für die Wiederverwendung im Single-Pass-Analyzer
- [SPARK-47895] [BEHAVE-266][sql] group by alias sollte idempotent sein
- [SPARK-51614] [SQL] Führt die ResolveUnresolvedHaving-Regel im Analysator ein
- [SPARK-51662] [SQL] OrcFileFormat vergleichbar machen
- [SPARK-51374] "[CORE] Wechsel zur Verwendung von java.util.Map in Logging APIs" rückgängig gemacht
- [SPARK-51652] Refaktorieren der SetOperation-Berechnung zur Wiederverwendung im Single-Pass-Analyzer
- [SPARK-51622] [UI] Überschrift der Abschnitte auf der ExecutionPage
- [SPARK-51586] [SS] Eingabe-Partitionen unabhängig vom Columnar Support im kontinuierlichen Modus initialisieren
-
[SPARK-51070] [SQL]
scala.collection.Setanstelle von Set in ValidateExternalType verwenden - [SPARK-51559] [SQL] Konfigurieren der maximalen Übertragungstabellengröße
- [SPARK-51496] Der Vergleich von CaseInsensitiveStringMap muss Groß-/Kleinschreibung ignorieren
- [SPARK-50416] [CORE] Ein tragbarerer Terminal- und Pipe-Test wird für bin/load-spark-env.sh benötigt.
-
[SPARK-51509] [UI] Filter für die
Spark Master-Umgebungsseite erstellen - [SPARK-51374] [CORE] Umstellung auf Verwendung von java.util.Map in Logging-APIs
- [SPARK-50820] [SQL] DSv2: Bedingte Nullierung von Metadatenspalten in DML
- [SPARK-48922] [SQL] Vermeiden Sie redundante Array-Transformation eines identischen Ausdrucks für den Map-Typ.
- [SPARK-51446] [SQL] Verbessern der codecNameMap für den Komprimierungscodec
- [SPARK-51341] Zeittask auf geeignete Weise abbrechen
- [SPARK-51452] [UI] Verbesserung der Thread-Dump-Tabellensuche
-
[SPARK-51444] [CORE] Entfernen der nicht erreichbaren Verzweigung
ifausTaskSchedulerImpl#statusUpdate -
[SPARK-51401] [SQL] Ändern
ExplainUtils.generateFieldString, um direkt aufzurufenQueryPlan.generateFieldString - [SPARK-49507] Beheben eines Problems mit dem Fall nach dem Aktivieren von metastorePartitionPruningFastFallback
- [SPARK-51506] [ PYTHON][ss] Erzwingen Sie nicht, dass Benutzer close() in TransformWithStateInPandas implementieren
- [SPARK-51624] [SQL] GetStructField-Metadaten in CreateNamedStruct.dataType weitergeben
- [SPARK-51201] Partitionierungshinweise müssen Byte- und Short-Werte unterstützen
-
[SPARK-51186] [PYTHON]
StreamingPythonRunnerInitializationExceptionzur Basisausnahme von PySpark hinzufügen - [SPARK-50286] [SQL] SQL-Optionen werden richtig an WriteBuilder weitergegeben.
- [SPARK-51616] [SQL] CollationTypeCasts vor ResolveAliases und ResolveAggregateFunctions ausführen
- [SPARK-51023] [CORE] Remoteadresse bei RPC-Ausnahme protokollieren
- [SPARK-51087] [PYTHON][connect] Warnung ausgeben, wenn memory-profiler für die Speicherprofilierung nicht installiert ist
-
[SPARK-51073]
Unstableaus der EigenschaftSparkSessionExtensionsProviderentfernen - [SPARK-51471] [SS] RatePerMicroBatchStream – Klassifizierung des ASSERT-Fehlers, wenn Offset/Zeitstempel in startOffset größer ist als endOffset
- [SPARK-51062] [PYTHON] Behebt assertSchemaEqual zum Vergleich von Dezimalpräzision und Skala
- [SPARK-51612] [SQL] Spark-Konfigurationen, die bei der Erstellung der Ansicht festgelegt wurden, in Desc als JSON anzeigen
- [SPARK-51573] [SS] Behebt Streaming Status Checkpoint v2 checkpointInfo race condition
- [SPARK-51252] [SS] Fügen Sie Instanzmetriken für die zuletzt hochgeladene Momentaufnahmeversion in HDFS State Stores hinzu.
- [SPARK-51552] [SQL] Verbieten temporärer Variablen in dauerhaften Ansichten, wenn unter Bezeichner
- [SPARK-51625] [SQL] Befehl in CTE-Relationen muss inline ausgelöst werden
- [SPARK-51584] Hinzufügen einer Regel, die das Projekt durch Offset und Suite leitet, um es zu testen
-
[SPARK-51593] [SQL] Instanziierung umgestalten
QueryExecutionMetering - [SPARK-49082] [SQL] Support für die Erweiterung von Date auf TimestampNTZ im Avro Reader
- [SPARK-50220] [PYTHON] Unterstützung von listagg in PySpark
-
[SPARK-51581] [CORE][sql] Verwenden Sie
nonEmpty/isEmptyfür eine leere Überprüfung bei explizitemIterable - [SPARK-42746] [SQL] Behebung in der Fehlerklassenklassifizierung für neue Ausnahmen mit listagg
-
[SPARK-51580] [SQL] Gibt eine ordnungsgemäße benutzerseitige Fehlermeldung aus, wenn die Lambda-Funktion fehl am Platz ist.
HigherOrderFunction - [SPARK-51589] [SQL] Kleinen Fehler beheben, der beim Überprüfen auf Aggregatfunktionen versagt in |>SELECT
- [SPARK-50821] [PYTHON] Upgrade Py4J von 0.10.9.8 auf 0.10.9.9
- [SPARK-42746] [SQL] Implementieren der LISTAGG-Funktion
- [SPARK-48399] [SQL] Teradata: ByteType sollte BYTEINT statt BYTE(binär) zugeordnet werden
- [SPARK-43221] Das lokale Abrufen von Blöcken muss den Blockstatus eines auf dem Datenträger gespeicherten Blocks verwenden
- [SPARK-51467] [UI] Tabellen der Umgebungsseite filtern
-
[SPARK-51569] [SQL] Instanziieren Sie
InSubqueryinInTypeCoercionnicht erneut, wenn keine Typänderungen vorhanden sind. - [SPARK-51280] [CONNECT] Verbesserung der Fehlerklasse von RESPONSE_ALREADY_RECEIVED
- [SPARK-51525] [SQL] Kollationsfeld für Desc als JSON StringType
- [SPARK-51565] [SQL] Unterstützung von SQL-Parametern in der Fensterrahmen-Klausel
- [SPARK-51544] [SQL] Nur eindeutige und erforderliche Metadatenspalten hinzufügen
- [SPARK-49349] [SQL] Fehlermeldung für LCA mit Generate verbessern
- [SPARK-51418] Korrigieren der DataSource PARTITION TABLE mit Partitionsspalten, die mit dem Hive-Typ nicht kompatibel sind
- [SPARK-51269] [SQL] Vereinfachung des AvroCompressionCodec durch das Entfernen des defaultCompressionLevel
- [SPARK-50618] [SS][sql] DataFrameReader und DataStreamReader sollen den Analyzer stärker nutzen
- [SPARK-51097] [SS] Führen Sie erneut die Metriken der zuletzt hochgeladenen Schnappschussversion-Instanz des RocksDB-Zustandsspeichers ein.
- [SPARK-51321] Hinzufügen der Unterstützung für rpad und lpad für PostgresDialect und MsSQLServerDialect-Ausdrucks-Pushdown
- [SPARK-51428] [BEHAVE-264][sql] Aliase für sortierte Ausdrucksbäume deterministisch neu zuordnen
- [SPARK-51528] [SQL] Vergleichen Sie Hashcodes nicht direkt in ProtobufCatalystDataConversionSuite
- [SPARK-51443] [SS] Behebt singleVariantColumn in DSv2 und readStream.
- [SPARK-51397] [SS] Behebt ein Problem bei der Handhabung der Abschaltung von Wartungs-Pools, das zu langen Testzeiten führt.
- [SPARK-51522] Deaktivieren des Lazy-Union-Children-Tests für den Single-Pass-Analyzer
- [SPARK-51079] [Fix-forward] Support großer Variablentypen in pandas UDF, createDataFrame und toPandas mit Arrow
-
[SPARK-51112] [ES-1348599][connect] Vermeiden der Verwendung von pyarrows
to_pandasauf einer leeren Tabelle - [SPARK-51438] [ SQL] CatalystDataToProtobuf und ProtobufDataToCatalyst sollen korrekt vergleichbar und hashfähig gemacht werden.
- [SPARK-50855] [DBR16.x][ss][CONNECT] Spark Connect-Unterstützung für TransformWithState in Scala
-
[SPARK-51208] [SQL]
ColumnDefinition.toV1Columnsollte die Auflösung beibehaltenEXISTS_DEFAULT - [SPARK-51468] Zurücksetzen von „Aus JSON/XML darf die Sortierreihenfolge im angegebenen Schema nicht geändert werden“
- [SPARK-51453] [SQL] AssertTrue verwendet toPrettySQL anstelle von simpleString
- [SPARK-51409] [SS] Fehlerklassifizierung im Erstellungspfad des Changelog Writer hinzufügen
- [SPARK-51440] [SS] Klassifizierung der NPE, wenn der Wert des Themenfeldes Null in den Daten der Kafka-Nachricht ist und es keine Themenoption gibt
-
[SPARK-51425] [ Connect] Hinzufügen einer Client-API zum Festlegen benutzerdefinierter Parameter
operation_id - [SPARK-50652] [ SS] Hinzufügen von Prüfungen zur Abwärtskompatibilität von RocksDB V2
- [SPARK-49164] [SQL] Behebt NullSafeEqual im Prädikat der SQL-Abfrage in JDBC Relation
- [SPARK-50880] [SQL] Hinzufügen einer neuen visitBinaryComparison-Methode zu V2ExpressionSQLBuilder
- [SPARK-50838] [ SQL]Führt zusätzliche Überprüfungen innerhalb rekursiver CTEs durch, um einen Fehler auszulösen, wenn ein unzulässiger Fall auftritt.
- [SPARK-51307] [SQL] locationUri in CatalogStorageFormat muss für den Bildschirm decodiert werden
- [SPARK-51079] [PYTHON] Support großer Variablentypen in pandas UDF, createDataFrame und toPandas mit Arrow
- [SPARK-50792] [SQL] Formatieren von Binärdaten als binäres Literal in JDBC.
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber hier herunter:
Systemumgebung
-
Betriebssystem: Ubuntu 24.04.2 LTS.
- Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die Databricks-Runtime-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
- Java: Zulu17.54+21-CA
- Skala: 2.12.15 oder 2.13.10
- Python: 3.12.3
- R: 4.4.0
- Delta Lake
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | schwarz | 24.4.2 |
| Blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| CacheWerkzeuge | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | Charset-Normalizer | 2.0.4 | click | 8.1.7 |
| cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
| Kryptographie | 42.0.5 | Fahrradfahrer | 0.11.0 | Cython | 3.0.11 |
| Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| Dekorateur | 5.1.1 | Als veraltet markiert | 1.2.14 | distlib | 0.3.8 |
| docstring-to-markdown | 0,11 | executing | 0.8.3 | Übersicht der Facetten | 1.1.1 |
| Dateisperrung | 3.15.4 | fonttools | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth | 2.35.0 |
| google-cloud-core | 2.4.1 | Google Cloud-Speicher | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | idna | 3,7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-Erweiterungen | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 | Verpackung | 24,1 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.6 | pexpect | 4.8.0 | Kissen | 10.3.0 |
| pip | 24,2 | platformdirs | 3.10.0 | plotly | 5.22.0 |
| pluggy | 1.0.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| Pyasn1 | 0.4.8 | Pyasn1-Module | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | Python-dateutil | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| Python-LSP-Server | 1.10.0 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | requests | 2.32.2 |
| Seil | 1.12.0 | rsa | 4,9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy | 1.13.1 | Seegeboren | 0.13.2 |
| setuptools | 74.0.0 | six | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id | 5.11 | Stapeldaten | 0.2.0 |
| StatistikModelle | 0.14.2 | Hartnäckigkeit | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | Tornado | 6.4.1 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| Typanforderungen | 2.31.0.0 | types-setuptools | 68.0.0.0 | types-six | 1.16.0 |
| types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 | ujson | 5.10.0 |
| unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | whatthepatch | 1.0.2 |
| Rad | 0.43.0 | Eingehüllt | 1.14.1 | yapf | 0.33.0 |
| zipp | 3.17.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2024-08-04installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 16.1.0 | Askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1,0 - 8 | Klumpen | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
| caret | 6.0-94 | CellRanger | 1.1.0 | chron | 2.3-61 |
| class | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
| clock | 0.7.1 | cluster | 2.1.6 | Codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.1 | Kompilierer | 4.4.0 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| Buntstift | 1.5.3 | Zugangsdaten | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | Datensätze | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | Ellipse | 0.3.2 | auswerten | 0.24.0 |
| Fans | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
| Zukunft | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
| Generika | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | Klebstoff | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| Graphik | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | Hafen | 2.5.4 |
| highr | 0,11 | hms | 1.1.3 | HTML-Werkzeuge | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,48 | Etikettierung | 0.4.3 |
| later | 1.3.2 | lattice | 0.22-5 | lava | 1.8.0 |
| Lebenszyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | Methodik | 4.4.0 |
| mgcv | 1.9-1 | Mime-Kunst | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.2.0 | parallel | 4.4.0 |
| parallelly | 1.38.0 | Säule | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | Fortschritt | 1.2.3 |
| progressr | 0.14.0 | Versprechungen | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktivierbar | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.3 |
| Rezepte | 1.1.0 | Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.2 |
| shape | 1.4.6.1 | glänzend | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr (siehe Hinweis unten) | 1.8.6 | SparkR | 3.5.2 | spatial | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Statistiken | 4.4.0 | Statistiken4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | Überleben | 3.6-4 | swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | Textgestaltung | 0.4.0 | Tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| Zeitumstellung | 0.3.0 | timeDate | 4032.109 | tinytex | 0,52 |
| Werkzeuge | 4.4.0 | Zeitzonendatenbank (tzdb) | 0.4.0 | URL-Prüfer | 1.0.1 |
| Nutze dies | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| Universelle eindeutige Kennung (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | Waldo | 0.5.2 |
| whisker | 0.4.1 | withr | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | zip | 2.3.1 |
Hinweis
sparklyr wird nur in databricks Runtime 16.4 LTS release image mit Unterstützung für Scala 2.12 unterstützt. Es wird nicht im Release-Image von DBR 16.4 mit Unterstützung für Scala 2.13 unterstützt.
Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.15.2 |
| com.github.ben-manes.caffeine | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,27 |
| io.delta | delta-sharing-client_2.13 | 1.2.3 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.19 |
| io.github.java-diff-utils | java-diff-utils | 4,12 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | Netty Codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | Pfeil-Vektor | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Endgültig |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.jline | jline | 3.21.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 3.7.0-M11 |
| org.json4s | json4s-core_2.13 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.13 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.13 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.10 |
| org.scala-lang | scala-library_2.13 | 2.13.10 |
| org.scala-lang | scala-reflect_2.13 | 2.13.10 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.0.4 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.13 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.14.2 |
| org.scalactic | scalactic_2.13 | 3.2.16 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.16 |
| org.scalatest | scalatest-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.16 |
| org.scalatest | scalatest_2.13 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.azure | azure-core | 1.30.0 |
| com.azure | azure-core-http-netty | 1.12.3 |
| com.azure | Azure-Identity | 1.5.3 |
| com.azure | azure-security-keyvault-keys | 4.4.4 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-xml | 2.13.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.fasterxml.woodstox | woodstox-core | 6.4.0 |
| com.github.ben-manes.caffeine | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.stephenc.jcip | jcip-annotations | 1.0-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.azure | msal4j | 1.13.0 |
| com.microsoft.azure | msal4j-persistence-extension | 1.1.0 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.nimbusds | Inhaltstyp | 2.2 |
| com.nimbusds | lang-tag | 1.6 |
| com.nimbusds | nimbus-jose-jwt | 9,31 |
| com.nimbusds | oauth2-oidc-sdk | 9,35 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,27 |
| io.delta | delta-sharing-client_2.12 | 1.2.4 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | Netty Codec | 4.1.108.Final |
| io.netty | netty-codec-dns | 4.1.77.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-resolver-dns | 4.1.77.Final |
| io.netty | netty-resolver-dns-classes-macos | 4.1.77.Final |
| io.netty | netty-resolver-dns-native-macos | 4.1.77.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.projectreactor | Reaktorkern | 3.4.19 |
| io.projectreactor.netty | reactor-netty-core | 1.0.20 |
| io.projectreactor.netty | reactor-netty-http | 1.0.20 |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.java.dev.jna | jna-platform | 5.6.0 |
| net.minidev | accessors-smart | 2.4.11 |
| net.minidev | json-smart | 2.4.11 |
| net.razorvine | Gurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | Pfeil-Vektor | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.bouncycastle | bcprov-jdk15on | 1,70 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.codehaus.woodstox | stax2-api | 4.2.1 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Endgültig |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.ow2.asm | asm | 9.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.reactivestreams | Reaktive Datenströme | 1.0.4 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.