Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 15.4 LTS, die von Apache Spark 3.5.0 unterstützt wird.
Diese Version wurde von Databricks im August 2024 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Änderungen des Verhaltens
-
Die Verwendung von
VARIANTals Eingabe- oder Ausgabetyp mit einem Python UDF, UDAF oder UDTF löst eine Ausnahme aus. - spark.sql.legacy.cod.useNullCalendar ist jetzt standardmäßig aktiviert.
- Wechseln zum Standardschema-Bindungsmodus für Ansichten
-
Verbieten der Verwendung der nicht dokumentierten
!-Syntax anstelle vonNOTaußerhalb boolescher Ausdrücke - Verbieten der nicht dokumentierten Spaltendefinitionssyntax in Ansichten
- Konsistente Fehlerbehandlung für die Base64-Decodierung in Spark und Photon
-
Durch das Hinzufügen einer
CHECK-Einschränkung für eine ungültige Spalte wird jetzt die UNRESOLVED_COLUMN.WITH_SUGGESTION-Fehlerklasse zurückgegeben - spark.sql.legacy.cod.useNullCalendar ist jetzt standardmäßig aktiviert.
- pyodbc wird von 4.0.38 auf 4.0.39 aktualisiert.
Die Verwendung einer VARIANT als Eingabe- oder Ausgabetyps mit einem Python UDF, UDAF oder UDTF löst eine Ausnahme aus.
[Breaking change] In Databricks Runtime 15.3 und höher löst das Aufrufen einer benutzerdefinierten Funktion (UDF), einer benutzerdefinierten Aggregatfunktion (UDAF) oder einer benutzerdefinierten Tabellenfunktion (UDTF) in Python mit dem Typ VARIANT als Argument oder Rückgabewert eine Ausnahme aus. Mit dieser Änderung sollen Probleme verhindert werden, die aufgrund eines ungültigen Werts auftreten können, der von einer dieser Funktionen zurückgegeben wird. Weitere Informationen zum Typ VARIANT finden Sie unter Verwendung von VARIANTEN zum Speichern halbstrukturierter Daten.
spark.sql.legacy.cod.useNullCalendar ist jetzt standardmäßig aktiviert.
spark.sql.legacy.jdbc.useNullCalendar ist jetzt standardmäßig auf true "Festgelegt". Wenn diese Änderung Ihre Abfragen unterbricht (z. B. solche, die TIMESTAMP-Werte zurückgeben), setzen Sie den Wert in Ihrem Code auf false.
Wechseln zum Standardschema-Bindungsmodus für Ansichten
Ansichten passen sich jetzt an Schemaänderungen in der zugrunde liegenden Abfrage an, indem sie die Schemakompensierung mit regulären Umwandlungsregeln verwenden. Dies ist eine Änderung gegenüber dem vorherigen Standardmodus BINDING, der Fehler ausgelöst hat, wenn eine sichere Umwandlung beim Verweisen auf die Ansicht nicht ausgeführt werden konnte.
Siehe CREATE VIEW und cast Funktion.
Verbieten der Verwendung der nicht dokumentierten !-Syntax anstelle von NOT außerhalb boolescher Ausdrücke
Bei dieser Version ist die Verwendung von ! als Synonym für NOT außerhalb von booleschen Ausdrücken nicht mehr zulässig. Beispiel: Anweisungen wie die folgenden: CREATE ... IF ! EXISTS, IS ! NULL, eine ! NULL-Spalteneigenschaft oder -Feldeigenschaft, ! IN und ! BETWEEN muss ersetzt werden durch: CREATE ... IF NOT EXISTS, IS NOT NULL, eine NOT NULL-Spalten- oder Feldeigenschaft, NOT IN und NOT BETWEEN.
Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und macht SQL portierbarer.
Der boolesche Präfixoperator! (z. B. !is_mgr oder !(true AND false)) ist von dieser Änderung nicht betroffen.
Nicht dokumentierte Spaltendefinitionssyntax in Ansichten verbieten
Databricks unterstützt CREATE VIEW mit benannten Spalten und Spaltenkommentaren. Zuvor war die Spezifikation von Spaltentypen, NOT NULL-Einschränkungen oder DEFAULT zulässig. Bei dieser Version können Sie diese Syntax nicht mehr verwenden.
Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und unterstützt künftige Erweiterungen.
Konsistente Fehlerbehandlung für die Base64-Decodierung in Spark und Photon
Diese Version ändert die Art und Weise, wie Photon Base64-Dekodierungsfehler behandelt, um sie der Spark-Behandlung dieser Fehler anzupassen. Vor diesen Änderungen konnte der Photon- und Spark-Codegenerierungspfad manchmal keine Analyseausnahmen auslösen, während die Spark-Ausführung richtigerweise IllegalArgumentException oder ConversionInvalidInputError auslöste. Mit diesem Update wird sichergestellt, dass Photon bei Base64-Decodierungsfehlern konsistent dieselben Ausnahmen auslöst, was eine vorhersehbarere und zuverlässige Fehlerbehandlung ermöglicht.
Das Hinzufügen einer CHECK Einschränkung für eine ungültige Spalte gibt jetzt UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück
Um nützlichere Fehlermeldungen bereitzustellen, gibt in Databricks Runtime 15.3 und höher eine ALTER TABLE ADD CONSTRAINT Anweisung, die eine CHECK Einschränkung enthält, die auf einen ungültigen Spaltennamen verweist, die UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück. Zuvor wurde ein INTERNAL_ERROR Wert zurückgegeben.
spark.sql.legacy.cod.useNullCalendar ist jetzt standardmäßig aktiviert.
### spark.sql.legacy.jdbc.useNullCalendar ist jetzt als Standardeinstellung festgelegt true . Wenn diese Änderung Ihre Abfragen unterbricht (z. B. solche, die TIMESTAMP-Werte zurückgeben), setzen Sie den Wert in Ihrem Code auf false.
Pyodbc wird von 4.0.38 auf 4.0.39 aktualisiert.
Das Pyodbc-Paket wird von Version 4.0.38 auf Version 4.0.39 aktualisiert. Diese Änderung ist erforderlich, da ein Fehler in Version 4.0.38 gefunden wurde und diese Version aus PyPI entfernt wurde.
Neue Features und Verbesserungen
- UTF-8-Gültigkeitsprüfungsfunktionen
- Typisierte Dataset-APIs mit Scala-UDFs
- UniForm Iceberg mithilfe von ALTER TABLE aktivieren
- try_url_decode-Funktion
- Optionales Zulassen, dass der Optimierer auf nicht erzwungenen Fremdschlüsseleinschränkungen basiert
- Parallelisierter Auftrag wird für selektive Überschreibungen ausgeführt
- Verbesserte Leistung für Änderungsdatenfeeds mit selektiven Überschreibungen
-
Verbesserte Abfragelatenz für den
COPY INTO-Befehl - Unterstützung für das Löschen der Funktion zum Überprüfen von Einschränkungen in Tabellen
- Dediziertes Computing (ehemals Einzelbenutzercomputing) unterstützt differenzierte Zugriffssteuerung, materialisierte Sichten und Streamingtabellen (Public Preview)
- Erweiterte Unterstützung für Java- und Scala-Bibliotheken
- Erweiterte Unterstützung für Scala-Datasetvorgänge
- Scala ist für standardmäßige Unity Catalog-fähige Computeressourcen allgemein verfügbar
- Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mithilfe von Dienstanmeldeinformationen (Öffentliche Vorschau)
UTF-8-Gültigkeitsprüfungsfunktionen
In dieser Version werden die folgenden Funktionen zum Validieren von UTF-8-Zeichenketten eingeführt:
- is_valid_utf8 überprüft, ob eine Zeichenfolge eine gültige UTF-8-Zeichenkette ist.
- make_valid_utf8 konvertiert eine potenziell ungültige UTF-8-Zeichenkette in eine gültige UTF-8-Zeichenkette mit Ersetzungszeichen.
- validate_utf8 löst einen Fehler aus, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.
-
try_validate_utf8 gibt
NULLzurück, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.
Typisierte Dataset-APIs mit Scala-UDFs
Diese Version enthält zusätzliche Unterstützung für typisierte Dataset-APIs mit benutzerdefinierten Scala-Funktionen (mit Ausnahme von benutzerdefinierten Aggregatfunktionen) für Unity Catalog-fähiges Computing mit Standardzugriffsmodus (früher Zugriffsmodus „Freigegeben“). Weitere Informationen finden Sie unter Typisierte Dataset-APIs.
Aktivieren von UniForm Iceberg mithilfe von ALTER TABLE
Sie können UniForm Iceberg jetzt für vorhandene Tabellen aktivieren, ohne Datendateien neu zu schreiben. Siehe Aktivieren von Iceberg-Lesevorgängen in einer vorhandenen Tabelle.
try_url_decode-Funktion
Mit diesem Release wird die try_url_decode-Funktion eingeführt, die eine mit URL verschlüsselte Zeichenfolge entschlüsselt. Wenn die Zeichenfolge nicht das richtige Format hat, gibt die Funktion NULL zurück, anstatt einen Fehler zu auslösen.
Optionales Zulassen, dass der Optimierer auf nicht erzwungenen Fremdschlüsseleinschränkungen basiert
Um die Abfrageleistung zu verbessern, können Sie jetzt das Keyword RELY für FOREIGN KEY-Einschränkungen angeben, wenn Sie CREATE oder ALTER für eine Tabelle verwenden.
Parallelisierter Auftrag wird für selektive Überschreibungen ausgeführt
Selektive Überschreibungen mit replaceWhere führen jetzt Aufträge aus, die Daten löschen und neue Daten parallel einfügen, wodurch Abfrageleistung und Clusterauslastung verbessert werden.
Verbesserte Leistung für Änderungsdatenfeeds mit selektiven Überschreibungen
Selektive Überschreibungen mithilfe von replaceWhere in Tabellen mit Änderungsdatenfeed erzeugen keine separaten Änderungsdateien mehr für eingefügte Daten. Diese Vorgänge verwenden eine ausgeblendete _change_type-Spalte, die in den zugrunde liegenden Parquet-Datendateien vorhanden ist, um Änderungen ohne Schreibverstärkung aufzuzeichnen.
Verbesserte Abfragelatenz für den COPY INTO-Befehl
Diese Version enthält eine Änderung, die die Abfragelatenz für den COPY INTO-Befehl verbessert. Diese Verbesserung wird implementiert, indem das Laden des Zustands im RocksDB-Zustandsspeicher asynchron erfolgt. Dank dieser Änderung sollten Sie eine Verbesserung der Startzeiten für Abfragen mit umfangreichen Statusinformationen feststellen, wie Abfragen mit einer großen Anzahl bereits erfasster Dateien.
Unterstützung für das Löschen der Funktion zum Überprüfen von Einschränkungen in Tabellen
Sie können jetzt das checkConstraints-Tabellenfeature aus einer Delta-Tabelle mithilfe von ALTER TABLE table_name DROP FEATURE checkConstraints entfernen. Weitere Informationen finden Sie unter Deaktivieren von Überprüfungseinschränkungen.
Dedizierte Rechenleistung (vormals Einzelbenutzer-Compute) unterstützt differenzierte Zugriffssteuerung, materialisierte Ansichten und Streamingtabellen (Öffentliche Vorschau)
Wenn ein Arbeitsbereich für serverloses Computing aktiviert ist, fügt Databricks Runtime 15.4 LTS Unterstützung für eine differenzierte Zugriffssteuerung für dediziertes Computing hinzu. Wenn eine Abfrage auf eines der folgenden Objekte zugreift, übergibt die dedizierte Computeressource auf Databricks Runtime 15.4 LTS die Abfrage an den serverlosen Compute, um die Datenfilterung auszuführen:
- Ansichten, die über Tabellen definiert sind, für die der Benutzer nicht über die
SELECTBerechtigungen verfügt. - Dynamische Ansichten.
- Tabellen mit angewendeten Zeilenfiltern oder Spaltenmasken.
- Materialisierte Ansichten und Streamingtabellen.
Diese Abfragen werden für dedizierte Rechenressourcen, die mit Databricks Runtime 15.3 und darunter ausgeführt werden, nicht unterstützt.
Weitere Informationen finden Sie unter Feingranulare Zugriffssteuerung auf dedizierte Rechenleistung.
Erweiterte Unterstützung für Java- und Scala-Bibliotheken
Ab Databricks Runtime 15.4 LTS sind alle Java- und Scala-Bibliotheken, die mit Databricks Runtime gebündelt sind, in allen Computezugriffsmodi verfügbar, wenn Sie Unity-Katalog verwenden. Weitere Informationen zur Sprachunterstützung für Unity Catalog-fähige Compute finden Sie unter Standard compute requirements and limitations.
Erweiterte Unterstützung für Scala-Datasetvorgänge
Mit dieser Version unterstützen Unity Catalog-fähige Computeressourcen, die den Standardzugriffsmodus verwenden, die folgenden Scala-Dataset-Vorgänge unterstützen: map, mapPartitions, foreachPartition, flatMap, reduce und filter.
Scala ist für standardmäßige Unity Catalog-fähige Computeressourcen allgemein verfügbar
Mit dieser Version ist Scala allgemein verfügbar im Standardzugriffsmodus für Berechnungen mit Unity Catalog-Unterstützung, einschließlich Unterstützung für skalare benutzerdefinierte Funktionen (UDFs). Strukturiertes Streaming, Hive-UDFs und benutzerdefinierte Hive-Aggregatfunktionen werden nicht unterstützt. Eine vollständige Liste der Einschränkungen finden Sie unter Standard compute requirements and limitations.
Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mithilfe von Dienstanmeldeinformationen (Öffentliche Vorschau)
Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten mithilfe von Azure Managed Identities (MI) und Unity Catalog. Siehe Erstellen von Dienstanmeldeinformationen.
Fehlerkorrekturen
Verbesserungen der Bibliothek
- Aktualisierte Python-Bibliotheken:
- azure-core von 1.30.1 auf 1.30.2
- google-auth von 2.29.0 auf 2.31.0
- google-cloud-storage von 2.16.0 auf 2.17.0
- google-resumable-media von 2.7.0 auf 2.7.1
- googleapis-common-protos von 1.63.0 auf 1.63.2
- mlflow-skinny von 2.11.3 auf 2.11.4
- proto-plus von 1.23.0 auf 1.24.0
- s3transfer von 0.10.1 auf 0.10.2
- Aktualisierte R-Bibliotheken:
- Aktualisierte Java-Bibliotheken:
- com.databricks.databricks-sdk-java von 0.17.1 auf 0.27.0
- com.ibm.icu.icu4j von 72.1 auf 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider von 1.6.1-linux-x86_64 auf 1.6.2-linux-x86_64
Apache Spark
Databricks Runtime 15.4 LTS enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 15.3 (EoS)enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-48503] [DBRRM-1150][sc-172196][SQL] Gruppieren von Ausdrücken in skalaren Unterabfragen zulassen, wenn sie an äußere Zeilen gebunden sind
- [SPARK-48834] [BEHAVE-79][sc-170972][SQL] Deaktivieren der Varianteneingabe/-ausgabe für skalare Python-UDFs (benutzerdefinierte Funktionen), -UDTFs (benutzerdefinierte Tabellenfunktionen) und -UDAFs (benutzerdefinierte Aggregatfunktionen) während der Abfragekompilierung
- [SPARK-48441] [SC-170980][sql][WARMFIX] Korrektur des StringTrim-Verhaltens für Nicht-UTF8_BINARY-Sortierungen
- [SPARK-48440] [SC-170895][sql][WARMFIX] Korrektur des StringTranslate-Verhaltens für Nicht-UTF8_BINARY-Sortierungen
- [SPARK-48872] [SC-170866][python] Reduktion des Mehraufwands für _capture_call_site
-
[SPARK-48862] [SC-170845][python][CONNECT] Vermeiden Sie das Aufrufen
_proto_to_string, wenn die INFO-Ebene nicht aktiviert ist. - [SPARK-48852] [SC-170837][connect] Korrektur der Funktion zur Zeichenfolgenkürzung in Spark Connect
- [SPARK-48791] [SC-170658][core] Behebung der Leistungsregression, die durch den Akkumulatorenregistrierungsaufwand mithilfe von CopyOnWriteArrayList verursacht wurde.
-
[SPARK-48118] [SQL] Unterstützung von
SPARK_SQL_LEGACY_CREATE_HIVE_TABLEUmgebungsvariablen - [SPARK-48241] [SC-165811][sql] CSV-Analysefehler mit Spalten vom Typ Char/Varchar
- [SPARK-48168] [SC-166900][sql] Unterstützung für bitweise Verschiebungsoperatoren hinzufügen
- [SPARK-48148] [SC-165630][core] JSON-Objekte sollten beim Lesen als STRING nicht geändert werden
- [SPARK-46625] [SC-170561] CTE mit Identifier-Klausel als Referenz
-
[SPARK-48771] [SC-170546][sql] Beschleunigung von
LogicalPlanIntegrity.validateExprIdUniquenessfür große Abfragepläne -
[SPARK-48831] [BEHAVE-76][sc-170554][CONNECT] Herstellen der Kompatibilität des Standardspaltennamens von
castmit Spark Classic - [SPARK-48623] [SC-170544][core] Strukturierte Protokollierungsmigrationen [Teil 2]
-
[SPARK-48296] [SC-166138][sql] Codegen-Unterstützung für
to_xml - [SPARK-48027] [SC-165154][sql] Überprüfung des untergeordneten Verknüpfungstyps durch InjectRuntimeFilter für Verknüpfungen mit mehreren Ebenen
- [SPARK-48686] [SC-170365][sql] Verbessern der Leistung von ParserUtils.unescapeSQLString
-
[SPARK-48798] [SC-170588][python] Einführung von
spark.profile.renderfür SparkSession-basierte Profilerstellung - [SPARK-48048] [SC-169099] Rückgängigmachen von „[SC-164846][connect][SS] Unterstützung für clientseitige Listener für Scala hinzugefügt“
- [SPARK-47910] [SC-168929][core] Schließen des Datenstroms, wenn DiskBlockObjectWriter closeResources geschlossen wird, um Speicherverluste zu vermeiden
- [SPARK-48816] [SC-170547][sql] Shorthand für Intervallkonverter in UnivocityParser
- [SPARK-48589] [SC-170132][sql][SS] Hinzufügen von Option snapshotStartBatchId und snapshotPartitionId zum Zustand der Datenquelle
- [SPARK-48280] [SC-170293][sql] Verbesserung der Oberfläche für Sortierungstests durch Durchlaufen von Ausdrücken (Expression Walking)
- [SPARK-48837] [SC-170540][ml] Einmaliges Lesen von binären Parametern pro Transformation (nicht pro Zeile) in CountVectorizer
- [SPARK-48803] [SC-170541][SQL] Auslösen eines internen Fehlers in Orc(De)Serializer zur Ausrichtung an ParquetWriteSupport
- [SPARK-48764] [SC-170129][python] Herausfiltern von IPython-bezogenen Frames aus dem Stack des Benutzers
-
[SPARK-48818] [SC-170414][python] Vereinfachung von
percentile-Funktionen - [SPARK-48479] [SC-169079][sql] Unterstützung beim Erstellen von Skalar- und Tabellen-SQL-UDFs im Parser
- [SPARK-48697] [SC-170122][lc-4703][SQL] Hinzufügung von Zeichenfolgenfiltern mit Unterstützung für die Sortierung
- [SPARK-48800] [SC-170409][connect][SS] Vereinzelung von ClientStreamingQuerySuite
-
[SPARK-48738] [SC-169814][sql] Richtig seit der Version für den integrierten Funktionsalias
random,position,mod,cardinality,current_schema,user,session_user,char_length,character_length - [SPARK-48638] [ SC-169575][connect] Hinzufügen der ExecutionInfo-Unterstützung für DataFrame
- [SPARK-48064] [SC-164697][sql] Aktualisieren von Fehlermeldungen für routinebezogene Fehlerklassen
- [SPARK-48810] [CONNECT] Die Session Stop()-API sollte idempotent sein und nicht fehlschlagen, wenn die Sitzung bereits vom Server geschlossen wurde
- [SPARK-48650] [15.x][python] Anzeigen der richtigen Anrufwebsite aus dem IPython-Notizbuch
- [SPARK-48271] [SC-166076][sql] Änderung des Übereinstimmungsfehlers in RowEncoder in UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][sql] Behebung eines Konflikts bei der Auflösung des varchar-Typs für DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Korrektur der Regression für INSERT mit teilweiser Spaltenliste in einer Tabelle mit char/varchar
-
[SPARK-48767] [SC-170330][sql] Beheben einiger Fehleraufforderungen, wenn
variantTypdaten ungültig sind -
[SPARK-48719] [SC-170339][sql] Beheben Des Berechnungsfehlers von
RegrSlope&RegrInterceptwenn der erste Parameter null ist - [SPARK-48815] [SC-170334][connect] Umgebung aktualisieren beim Stoppen der Verbindungssitzung
- [SPARK-48646] [SC-169020][python] Optimierung der Hinweise für Dokumentzeichenfolgen (docstring) und Typen in der Python-Datenquellen-API
- [SPARK-48806] [SC-170310][sql] Gibt die tatsächliche Ausnahme an, wenn url_decode fehlschlägt.
- [SPARK-47777] [SC-168818] Fehlerbehebung beim Test der Verbindung für Python-Streaming-Datenquellen
-
[SPARK-48732] [SC-169793][sql] Bereinigung der Verwendung veralteter APIs im Zusammenhang mit
JdbcDialect.compileAggregate - [SPARK-48675] [SC-169538][sql] Korrektur der Zwischenspeicherung von Tabellen mit sortierter Spalte
- [SPARK-48623] [SC-169034][core] Strukturierte Protokollierungsmigrationen
- [SPARK-48655] [SC-169542][sql] SPJ: Hinzufügung von Tests zum zufälligen Überspringen von Aggregatabfragen
- [SPARK-48586] [SC-169808][ss] Entfernung des Sperrenabrufs in doMaintenance() durch Erstellen einer tiefen Kopie von Dateizuordnungen in RocksDBFileManager in load()
- [SPARK-48799] [Backport][15.x][SC-170283][ss] Umgestaltung der Versionsverwaltung für den Lese-/Schreibzugriff auf Operatormetadaten und Aufrufer
- [SPARK-48808] [SC-170309][sql] Korrektur von NPE, wenn ThriftServer über Hive 1.2.1 verbunden wird und das Ergebnisschema leer ist
- [SPARK-48715] [SC-170291][sql] Integration der UTF8String-Validierung in die Implementierungen von kollationsbewussten Zeichenfolgenfunktionen
- [SPARK-48747] [SC-170120][sql] Hinzufügen eines Codepunkt-Iterators zu UTF8String
- [SPARK-48748] [SC-170115][sql] Zwischenspeicherung von numChars in UTF8String
- [SPARK-48744] [SC-169817][Core] Protokolleintrag sollte nur einmal erstellt werden
-
[SPARK-46122] [SC-164313][sql]
spark.sql.legacy.createHiveTableByDefaultstandardmäßig auffalsesetzen - [SPARK-48765] [SC-170119][deploy] Verbessern der Standardwerteauswertung für SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][sql] Hinzufügung eines Migrationsdokuments für CREATE TABLE AS SELECT-Verhaltensänderung seit Spark 3.4
- [SPARK-48598] [SC-169484][python][CONNECT] Verteilen des zwischengespeicherten Schemas in Datenframevorgängen
-
[SPARK-48766] [SC-170126][python] Dokumentieren Sie den Verhaltensunterschied zwischen
extractionelement_atundtry_element_at -
[SPARK-48768] [ SC-170124][python][CONNECT] Sollte nicht zwischengespeichert werden
explain - [SPARK-48770] [Backport][15.x][SC-170133][ss] Änderung zum einmaligen Lesen von Operatormetadaten auf dem Treiber, um nach Informationen zu numColsPrefixKey zu suchen, die für Sitzungsfenster-Aggregatabfragen verwendet werden
-
[SPARK-48656] [SC-169529][core] Ausführen einer Längenüberprüfung und Auslösen des COLLECTION_SIZE_LIMIT_EXCEEDED-Fehlers in
CartesianRDD.getPartitions - [SPARK-48597] [SC-168817][sql] Einführung einer Markierung für die isStreaming-Eigenschaft in der Textdarstellung des logischen Plans
- [SPARK-48472] [SC-169044][sql] Aktivierung von Reflexionsausdrücken mit sortierten Zeichenfolgen
- [SPARK-48699] [SC-169597][sql] Verfeinerung der Sortierungs-API
- [SPARK-48682] [SC-169812][sql][BEHAVE-58] Verwendung von ICU im InitCap-Ausdruck für UTF8_BINARY-Zeichenfolgen
- [SPARK-48282] [SC-169813][sql] Änderung der Zeichenfolgensuchlogik für UTF8_BINARY_LCASE-Sortierung (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][sql] Aktivierung der Sortierungsunterstützung für den Mode-Ausdruck
- [SPARK-48320] [SPARK-48490] Synchronisierung des neuesten Protokollierungstraits und der Testfälle von OSS Spark
- [SPARK-48629] [SC-169479] Migrieren des Restcodes zum strukturierten Protokollierungsframework
- [SPARK-48681] [SC-169469][sql][BEHAVE-58] Verwendung von ICU in Lower/Upper-Ausdrücken für UTF8_BINARY-Zeichenfolgen
- [SPARK-48573] [15.x][sc-169582][SQL] Aktualisierung der ICU-Version
- [SPARK-48687] [Backport] [15.x] [SS] Hinzufügen einer Änderung zum Ausführen der Zustandsschemaüberprüfung und Aktualisierung des Treibers für zustandsbehaftete Abfragen
- [SPARK-47579] [15.x][sc-167310][CORE][part4] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48008] [SC-167363] [1/2] Unterstützung von UDAFs in Spark Connect
- [SPARK-48578] [SC-169505][sql] Funktionen zur Überprüfung von UTF8-Strings hinzufügen
- [SPARK-48670] [SC-169598][sql] Bereitstellen eines Vorschlags als Teil der Fehlermeldung, wenn ungültiger Sortiername angegeben wird
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPA... … RK-48291] Strukturiertes Protokollframework auf der Java-Seite
- [SPARK-47599] [15.x][sc-166000][MLLIB] MLLib: Migrieren von LogWarn mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48706] [SC-169589][python] Python-UDF in höheren Ordnungsfunktionen sollte keinen internen Fehler auslösen
- [SPARK-48498] [BEHAVE-38][sc-168060][SQL] Zeichenauffüllung in Prädikaten in allen Fällen (immer)
- [SPARK-48662] [SC-169533][sql] Korrektur des StructsToXml-Ausdrucks mit Sortierungen
- [SPARK-48482] [SC-167702][python][15.x] dropDuplicates und dropDuplicatesWIthinWatermark sollten Variable Längenargumente akzeptieren
- [SPARK-48678] [SC-169463][Kern] Leistungsoptimierungen für SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] Umbenennen von UTF8_BINARY_LCASE in UTF8_LCASE
- [SPARK-47927] [SC-164123][sql]: Korrigiere die Nullbarkeitsattribut im UDF-Dekoder
- [SPARK-47579] [SC-165297][core][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework (neu)
-
[SPARK-48695] [ SC-169473][python]
TimestampNTZType.fromInternalverwenden nicht die veralteten Methoden. - [SPARK-48431] [SC-167290][lc-4066][SQL] Keine Weiterleitung von Prädikaten für sortierte Spalten an Dateileser
- [SPARK-47579] Rückgängigmachen von “[SC-165297][core][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework”
- [SPARK-47585] [SC-164306][sql] SQL Core: Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48466] [SC-169042][sql] Erstellen eines dedizierten Knotens für EmptyRelation in AQE
- [SPARK-47579] [SC-165297][core][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48410] [SC-168320][sql] Korrektur des InitCap-Ausdrucks für UTF8_BINARY_LCASE- und ICU-Sortierungen
- [SPARK-48318] [SC-167709][sql] Unterstützung für Hash-Join bei allen Kollationen (komplexe Typen) aktivieren.
- [SPARK-48435] [ SC-168128][sql] UNICODE-Sortierung sollte keine binäre Gleichheit unterstützen
- [SPARK-48555] [SC-169041][sql][PYTHON][connect] Unterstützung mithilfe von Spalten als Parameter für mehrere Funktionen in pyspark/scala
-
[SPARK-48591] [ SC-169081][python] Hinzufügen einer Hilfsfunktion zur Vereinfachung
Column.py - [SPARK-48574] [SC-169043][sql] Korrektur der Unterstützung für StructTypes mit Sortierungen
- [SPARK-48305] [SC-166390][sql] Hinzufügen der Sortierunterstützung für CurrentLike-Ausdrücke
- [SPARK-48342] [ SC-168941][sql] Einführung in den SQL Scripting Parser
- [SPARK-48649] [SC-169024][sql] Fügen Sie "ignoreInvalidPartitionPaths" und "spark.sql.files.ignoreInvalidPartitionPaths"-Konfigurationen hinzu, damit ungültige Partitionspfade ignoriert werden können.
- [SPARK-48000] [SC-167194][sql] Unterstützung von Hash Joins für alle Zeichensatzkollationen aktivieren (StringType)
- [SPARK-48459] [SC-168947][connect][PYTHON] Implementieren von DataFrameQueryContext in Spark Connect
- [SPARK-48602] [SC-168692][sql] Erstellen eines CSV-Generators zur Unterstützung verschiedener Ausgabestile mit spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][sql] Ändern des Zeichenfolgenvergleichs für UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830][sql] Umgestaltung: Verwenden einer Hilfs-idMap anstelle von OP_ID_TAG
- [SPARK-48634] [SC-169021][python][CONNECT] Statische Initialisierung des Threadpools bei ExecutePlanResponseReattachableIterator vermeiden
- [SPARK-47911] [SC-164658][sql] Führt einen universellen BinaryFormatter ein, um die binäre Ausgabe konsistent zu machen.
- [SPARK-48642] [SC-168889][core] Falscher SparkOutOfMemoryError, der durch Beenden einer Aufgabe beim Überlauf verursacht wurde
- [SPARK-48572] [SC-168844][sql] Fix DateSub-, DateAdd-, WindowTime-, TimeWindow- und SessionWindow-Ausdrücke
- [SPARK-48600] [SC-168841][sql] Korrektur der impliziten Umwandlung von FrameLessOffsetWindowFunction-Ausdrücken
- [SPARK-48644] [SC-168933][sql] Ausführen einer Längenüberprüfung und Auslösen des COLLECTION_SIZE_LIMIT_EXCEEDED-Fehlers in „Hex.hex“
- [SPARK-48587] [SC-168824][Variante] Vermeiden der Speicherverstärkung beim Zugriff auf eine Untervariante
-
[SPARK-48647] [SC-168936][python][CONNECT] Verfeinern der Fehlermeldung für
YearMonthIntervalTypeindf.collect - [SPARK-48307] [SC-167802][sql] InlineCTE sollte nicht inlineierte Beziehungen im ursprünglichen WithCTE-Knoten beibehalten
- [SPARK-48596] [SC-168581][sql] Leistungsverbesserung für die Berechnung der Hexadezimalzeichenfolge für „long“
- [SPARK-48621] [SC-168726][sql] Korrektur der Like-Vereinfachung im Optimierer für sortierte Zeichenfolgen
- [SPARK-47148] [SC-164179][sql] Vermeidung der Materialisierung von AQE ExchangeQueryStageExec beim Abbruch
- [SPARK-48584] [SC-168579][sql] Leistungsverbesserung für unescapePathName
- [SPARK-48281] [SC-167260][sql] Ändern der Zeichenfolgensuchlogik für UTF8_BINARY_LCASE-Kollation (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][sql] Ersetzung ungültiger UTF-8-Byte-Sequenzen
-
[SPARK-48595] [SC-168580][Core] Bereinigung veralteter API-Verwendung im Zusammenhang mit
commons-compress - [SPARK-48030] [SC-164303][sql] SPJ: Zwischenspeicherung von rowOrdering und structType für InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][sql] WriteFilesExecBase-Merkmal für v1-Schreibvorgang hinzufügen
- [SPARK-48551] [SC-168438][sql] Leistungsverbesserung für escapePathName
- [SPARK-48565] [SC-168437][ui] Behebung der Anzeige von Thread-Dumps in der Benutzeroberfläche
- [SPARK-48364] [SC-166782][sql] Hinzufügung der AbstractMapType-Typumwandlung und Korrektur der RaiseError-Parameterzuordnung zur Verwendung mit sortierten Zeichenfolgen
- [SPARK-48421] [ SC-168689][sql] SPJ: Dokumentation hinzufügen
-
[SPARK-48604] [SC-168698][sql] Ersetzen Sie den veralteten Methodenaufruf
new ArrowType.Decimal(precision, scale) - [SPARK-46947] [SC-157561][core] Verzögern der Speicher-Manager-Initialisierung, bis das Treiber-Plug-In geladen wird
- [SPARK-48411] [SC-168576][ss][PYTHON] E2E-Test für DropDuplicateWithinWatermark hinzufügen
- [SPARK-48543] [SC-168697][ss] Nachverfolgen von Überprüfungsfehlern in Zustandszeilen mithilfe expliziter Fehlerklasse
- [SPARK-48221] [SC-167143][sql] Änderung der Suchlogik für Zeichenfolgen für die UTF8_BINARY_LCASE-Sortierung (Contains, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441][sql] Hinzufügen der Sortierunterstützung für Levenshtein-Ausdruck
- [SPARK-48593] [SC-168719][python][CONNECT] Korrektur der Zeichenfolgendarstellung einer Lambda-Funktion
- [SPARK-48622] [SC-168710][sql] beim Auflösen von Spaltennamen einmal SQLConf abrufen
-
[SPARK-48594] [SC-168685][python][CONNECT] Feld umbenennen
parentinchildColumnAlias - [SPARK-48403] [SC-168319][sql] Korrektur von Lower- und Upper-Ausdrücken für UTF8_BINARY_LCASE- und ICU-Sortierungen
- [SPARK-48162] [SC-166062][sql] Hinzufügen der Sortierunterstützung für MISC-Ausdrücke
- [SPARK-48518] [ SC-167718][core] Sorgen Sie dafür, dass LZF-Komprimierung parallel ausgeführt werden kann
-
[SPARK-48474] [SC-167447][core] Korrektur des Klassennamens der Anmeldung in
SparkSubmitArgumentsundSparkSubmit - [SPARK-48012] [SC-168267][sql] SPJ: Unterstützung für Transfrom-Ausdrücke für die einseitige zufällige Wiedergabe
- [SPARK-48552] [SC-168212][sql] Mehrzeilige CSV-Schemainferenz sollte auch den Fehler FAILED_READ_FILE ausgeben
- [SPARK-48560] [SC-168268][ss][PYTHON] StreamingQueryListener.spark konfigurierbar machen
- [SPARK-48569] [SC-168321][ss][CONNECT] Behandlung von Grenzfällen in query.name
- [SPARK-47260] [SC-167323][sql] Zuweisen des Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [ SC-168327][python][CONNECT] Zwischengespeichertes Schema in Set-Operationen weitergeben
- [SPARK-48155] [SC-165910][sql] Überprüfung durch AQEPropagateEmptyRelation für „join“, ob das verbleibende untergeordnete Element nur BroadcastQueryStageExec ist
- [SPARK-48506] [SC-167720][core] Kurznamen des Komprimierungscodecs sind nicht case-sensitiv, mit Ausnahme der Ereignisprotokollierung.
- [SPARK-48447] [SC-167607][ss] Überprüfen der Anbieterklasse des Statusspeichers vor dem Aufrufen des Konstruktors
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff und DateTimeUtils.timestampAdd sollten INTERNAL_ERROR Ausnahme nicht auslösen
- [SPARK-48513] [Backport][15.x][SC-168085][ss] Fügen Sie Fehlerklasse für die Zustandsschemakompatibilität und kleinere Umgestaltung hinzu.
- [SPARK-48413] [SC-167669][sql] ALTER COLUMN mit Sortierung
-
[SPARK-48561] [SC-168250][ps][CONNECT] Auslösen von
PandasNotImplementedErrorfür nicht unterstützte Zeichnungsfunktionen - [SPARK-48465] [SC-167531][sql] Vermeidung einer leeren Beziehungsverteilung ohne Vorgang (no-op)
- [SPARK-48553] [ SC-168166][python][CONNECT] Weitere Eigenschaften zwischenspeichern
- [SPARK-48540] [SC-168069][core] Vermeidung von Einstellungen für das Laden von Ivy-Ausgaben in StdOut
- [SPARK-48535] [SC-168057][ss] Aktualisierung der Konfigurationsdokumente, um auf die Möglichkeit von Datenverlust oder Datenbeschädigung hinzuweisen, wenn die Einstellung 'Nullwerte überspringen' für Stream-Stream-Verknüpfungen aktiviert ist.
- [SPARK-48536] [SC-168059][python][CONNECT] Benutzerdefiniertes Schema im Cache speichern in applyInPandas und applyInArrow
- [SPARK-47873] [SC-163473][sql] Schreiben von sortierten Zeichenfolgen in hive metastore mit dem regulären Zeichenfolgentyp
- [SPARK-48461] [SC-167442][sql] Ersetzung von NullPointerExceptions durch Fehlerklasse im AssertNotNull-Ausdruck
- [SPARK-47833] [SC-163191][sql][CORE] Bereitstellung einer Stapelüberwachung des Anrufers für checkAndGlobPathIfNecessary AnalysisException
- [SPARK-47898] [SC-163146][sql] Port HIVE-12270: Hinzufügen der DBTokenStore-Unterstützung zum HS2-Delegierungstoken
- [SPARK-47578] [SC-167497][r] Migrieren von RPackageUtils mit Variablen zum strukturierten Protokollierungsframework
-
[SPARK-47875] [ SC-162935][core] Entfernen
spark.deploy.recoverySerializer -
[SPARK-47552] [SC-160880][core] Festlegung von
spark.hadoop.fs.s3a.connection.establish.timeoutauf 30 Sekunden, wenn kein Timeout angegeben ist - [SPARK-47972] [SC-167692][sql] Einschränkung des CAST-Ausdrucks für Sortierungen
- [SPARK-48430] [SC-167489][sql] Behebung der Werteextraktion von Karten, wenn die Karte collatierte Zeichenfolgen enthält
- [SPARK-47318] [SC-162712][core][3.5] Fügt HKDF-Runde zur AuthEngine-Schlüsselableitung hinzu, um Standard-KEX-Praktiken zu befolgen
- [SPARK-48503] [BEHAVE-29][es-1135236][SQL] Korrektur ungültiger skalarer Unterabfragen mit „group-by“ für nicht gleichwertige Spalten, die falsch zulässig waren
-
[SPARK-48508] [SC-167695][connect][PYTHON] Vom Benutzer angegebenes Schema zwischenspeichern in
DataFrame.{to, mapInPandas, mapInArrow} - [SPARK-23015] [SC-167188][windows] Behebung eines Fehlers in Windows, bei dem das Starten mehrerer Spark-Instanzen innerhalb derselben Sekunde zu einem Fehler führt.
- [SPARK-45891] [SC-167608] Zurücksetzen „Schredderschema für Variante beschreiben“
- [SPARK-48391] [SC-167554][core]Verwendung von "addAll" anstelle von "add"-Funktion in der Methode "fromAccumulatorInfos" der "TaskMetrics"-Klasse
- [SPARK-48496] [SC-167600][core] Verwenden statischer regex-Musterinstanzen in JavaUtils.timeStringAs und JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][sql] Korrektur der NPE-Fehlermeldung für CSV-Dateien mit dem Trennzeichen NULL
- [SPARK-48489] [SC-167598][sql] Auslösung einer besseren, benutzerorientierten Fehlermeldung, wenn ein ungültiges Schema aus einer Textdatenquelle gelesen wird
- [SPARK-48471] [SC-167324][Core] Verbesserung der Dokumentation und des Benutzerhandbuchs für Historienserver
- [SPARK-45891] [SC-167597] Beschreibung des Zerlegungsschemas für Variante
-
[SPARK-47333] [SC-159043][sql] Verwenden Sie checkInputDataTypes, um die Parametertypen der Funktion zu überprüfen.
to_xml - [SPARK-47387] [SC-159310][sql] Entfernen Einiger nicht verwendeter Fehlerklassen
- [SPARK-48265] [ES-1131440][sql] Reduktion konstanter Ausdrücke bei InferWindowGroupLimit
- [SPARK-47716] [SC-167444][sql] Vermeiden von Ansichtsnamenkonflikten im semantischen Sortiertestfall in SQLQueryTestSuite
- [SPARK-48159] [SC-167141][sql] Erweitern der Unterstützung für sortierte Zeichenfolgen in Datetime-Ausdrücken
- [SPARK-48462] [SC-167271][sql][Tests] Verwendung mitSQLConf in Tests: Refactor HiveQuerySuite und HiveTableScanSuite
-
[SPARK-48392] [SC-167195][core] Gleichzeitiges Laden von
spark-defaults.conf, wenn--properties-fileangegeben ist - [SPARK-48468] [SC-167417] Hinzufügen der LogicalQueryStage-Schnittstelle im Katalysator
- [SPARK-47578] [SC-164988][core] Manueller Backport für Spark PR #46309: Migrieren der Protokollwarnung mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48415] [SC-167321] Rücknahme des "[PYTHON] Refactor TypeName zur Unterstützung von parametrisierten Datentypen"
- [SPARK-46544] [SC-151361][sql] Unterstützung von v2 DESCRIBE TABLE EXTENDED mit Tabellenstatistiken
- [SPARK-48325] [SC-166963][Core] Geben Sie immer Nachrichten in ExecutorRunner.killProcess an
- [SPARK-46841] [SC-167139][sql] Hinzufügung der Sortierunterstützung für ICU-Gebietsschemas und Sortierungsbezeichner
- [SPARK-47221] [SC-157870][sql] Verwendet Signaturen von CsvParser zu AbstractParser
-
[SPARK-47246] [SC-158138][sql] Ersetzen von
InternalRow.fromSeqdurchnew GenericInternalRow, um eine Sammlungskonvertierung zu sparen - [SPARK-47597] [SC-163932][Streaming] Manueller Backport für Spark PR #46192: Streaming: Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
-
[SPARK-48415] [SC-167130][python] Umgestalten
TypeNamezur Unterstützung parametrisierter Datentypen -
[SPARK-48434] [SC-167132][python][CONNECT] Erzwingen der Verwendung des zwischengespeicherten Schemas durch
printSchema - [SPARK-48432] [ES-1097114][sql] Vermeiden des Entpackens von Ganzzahlen im UnivocityParser
- [SPARK-47463] [SC-162840][sql] Verwenden von V2Predicate zum Umbrechen von Ausdrücken mit Rückgabetyp vom Typ boolean
- [SPARK-47781] [SC-162293][sql] Behandlung negativer Skalenzahlen für JDBC-Datenquellen
- [SPARK-48394] [SC-166966][core] Bereinigung von mapIdToMapIndex bei „mapoutput unregister“
- [SPARK-47072] [SC-156933][sql] Korrigieren die unterstützten Intervallformate in Fehlermeldungen.
- [SPARK-47001] [SC-162487][sql] Pushdownüberprüfung im Optimierer
-
[SPARK-48335] [SC-166387][python][CONNECT] Machen Sie
_parse_datatype_stringkompatibel mit Spark Connect -
[SPARK-48329] [SC-166518][sql] Standardmäßig aktivieren
spark.sql.sources.v2.bucketing.pushPartValues.enabled - [SPARK-48412] [SC-166898][python] Datentyp JSON-Parsing umstrukturieren
- [SPARK-48215] [SC-166781][sql] Erweiterte Unterstützung für kollatierte Zeichenfolgen im date_format-Ausdruck
- [SPARK-45009] [SC-166873][sql][FOLLOW UP] Hinzufügung einer Fehlerklasse und von Tests für die Dekorrelation von Prädikatunterabfragen in Join-Bedingungen, die auf beide untergeordnete Join-Elemente verweisen
- [SPARK-47960] [SC-165295][ss][15.x] Ermöglicht die Verkettung anderer zustandsbehafteter Operatoren nach dem transformWithState-Operator.
- [SPARK-48340] [SC-166468][python] Unterstützung für TimestampNTZ-Schemaableitung, wenn prefer_timestamp_ntz nicht angegeben ist
- [SPARK-48157] [SC-165902][sql] Hinzufügen der Sortierunterstützung für CSV-Ausdrücke
- [SPARK-48158] [SC-165652][sql] Hinzufügen der Sortierunterstützung für XML-Ausdrücke
- [SPARK-48160] [ SC-166064][sql] Hinzufügen der Sortierunterstützung für XPATH-Ausdrücke
- [SPARK-48229] [SC-165901][sql] Hinzufügen der Sortierunterstützung für inputFile-Ausdrücke
- [SPARK-48367] [SC-166487][connect] Korrigiere lint-scala für scalafmt, um Dateien korrekt zu erkennen und zu formatieren.
- [SPARK-47858] [SC-163095][spark-47852][PYTHON][sql] Umgestalten der Struktur für den DataFrame-Fehlerkontext
- [SPARK-48370] [SC-166787][connect] „Checkpoint“ und localCheckpoint im Scala Spark Connect-Client
- [SPARK-48247] [ SC-166028][python] Verwenden aller Werte in einem Dikt beim Ableiten des MapType-Schemas
-
[SPARK-48395] [SC-166794][python] Fix
StructType.treeStringfür parametrisierte Typen -
[SPARK-48393] [ SC-166784][python] Verschieben einer Gruppe von Konstanten in
pyspark.util -
[SPARK-48372] [ SC-166776][spark-45716][PYTHON] Implementieren
StructType.treeString - [SPARK-48258] [SC-166467][python][CONNECT] „Checkpoint“ und localCheckpoint in Spark Connect
Weitere Informationen finden Sie unter Wartungsupdates von Databricks Runtime 15.4 LTS.
Systemumgebung
-
Betriebssystem: Ubuntu 22.04.4 LTS
- Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
- Java: Zulu 8.78.0.19-CA-linux64
- Skala: 2.12.15
- Python: 3.11.11
- R: 4.3.2
- Delta Lake: 3.2.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | Azure Core | 1.30.2 |
| azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
| schwarz | 23.3.0 | Blinker | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | CacheWerkzeuge | 5.3.3 | certifi | 2023.7.22 |
| cffi | 1.15.1 | Chardet | 4.0.0 | Charset-Normalizer | 2.0.4 |
| click | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
| contourpy | 1.0.5 | Kryptografie | 41.0.3 | Fahrradfahrer | 0.11.0 |
| Cython | 0.29.32 | Databricks-SDK | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | Dekorateur | 5.1.1 | distlib | 0.3.8 |
| Einstiegspunkte | 0,4 | executing | 0.8.3 | Facettenübersicht | 1.1.1 |
| Dateisperrung | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
| google-cloud-core | 2.4.1 | Google Cloud-Speicher | 2.17.0 | google-crc32c | 1.5.0 |
| google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | GRPCIO | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | Jedi | 0.18.1 | jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | Schlüsselring | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
| more-itertools | 8.10.0 | mypy-Erweiterungen | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | Packen | 23.2 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Kissen | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
| plotly | 5.9.0 | Prompt-Toolkit | 3.0.36 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
| Pyasn1 | 0.4.8 | Pyasn1-Module | 0.2.8 | pyccolo | 0.0.52 |
| pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.39 |
| pyparsing | 3.0.9 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
| Pytz | 2022.7 | PyYAML | 6,0 | pyzmq | 23.2.0 |
| requests | 2.31.0 | rsa | 4,9 | s3transfer | 0.10.2 |
| scikit-learn | 1.3.0 | SciPy | 1.11.1 | Seegeboren | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
| Stapeldaten | 0.2.0 | StatistikModelle | 0.14.0 | Beharrlichkeit | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | Tornado | 6.3.2 |
| traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
| ujson | 5.4.0 | unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.26.16 |
| virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| Rad | 0.38.4 | zipp | 3.11.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 05.02.2024 installiert: https://packagemanager.posit.co/cran/2024-02-05/.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 14.0.0.2 | Askpass | 1.2.0 | prüfen, dass | 0.2.1 |
| backports | 1.4.1 | Basis | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-7 | Blob | 1.2.4 | boot | 1.3-28 |
| brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
| bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
| Caret | 6.0-94 | CellRanger | 1.1.0 | chron | 2.3-61 |
| class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
| clock | 0.7.0 | Gruppe | 2.1.4 | Codetools | 0.2-19 |
| colorspace | 2.1-0 | commonmark | 1.9.1 | Kompilierer | 4.3.2 |
| Konfiguration | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| Buntstift | 1.5.2 | Zugangsdaten | 2.0.1 | curl | 5.2.0 |
| data.table | 1.15.0 | Datensätze | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.34 |
| downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | Ellipse | 0.3.2 | Evaluieren | 0,23 |
| Fans | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| Fremd | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
| Zukunft | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
| Generika | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
| gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.2 | Kleber | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| Grafiken | 4.3.2 | grGeräte | 4.3.2 | grid | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
| g-Tabelle | 0.3.4 | hardhat | 1.3.1 | Hafen | 2.5.4 |
| highr | 0,10 | hms | 1.1.3 | HTML-Werkzeuge | 0.5.7 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | Ausweise | 1.0.1 | ini | 0.3.1 |
| IPRED | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-21 | knitr | 1,45 | Kennzeichnung | 0.4.3 |
| later | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
| Lebenszyklus | 1.0.4 | listenv | 0.9.1 | Schmiermittel | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
| Matrix | 1.5-4.1 | memoise | 2.0.1 | Methoden | 4.3.2 |
| mgcv | 1.8-42 | Mime-Kunst | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.1.1 | parallel | 4.3.2 |
| parallel dazu | 1.36.0 | Säule | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Prozessx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | Fortschritt | 1.2.3 |
| progressr | 0.14.0 | Versprechungen | 1.2.1 | proto | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.7.6 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reaktivierbar | 0.4.4 |
| reactR | 0.5.0 | READR | 2.1.5 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.3 |
| Rezepte | 1.0.9 | Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 |
| remotes | 2.4.2.1 | reprex | 2.1.0 | Umform2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions | 2.1.2 | RVEST | 1.0.3 | sass | 0.4.8 |
| scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.2 |
| shape | 1.4.6 | glänzend | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiken | 4.3.2 |
| Statistiken4 | 4.3.2 | Stringi | 1.8.3 | stringr | 1.5.1 |
| Überleben | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| Textgestaltung | 0.3.7 | Tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 |
| timeDate | 4032.109 | tinytex | 0.49 | Werkzeuge | 4.3.2 |
| Zeitzonendatenbank (tzdb) | 0.4.0 | URL-Prüfer | 1.0.1 | Nutze dies | 2.2.2 |
| utf8 | 1.2.4 | utils | 4.3.2 | Universelle eindeutige Kennung (UUID) | 1.2-0 |
| V8 | 4.4.1 | VCTRS | 0.6.5 | viridisLite | 0.4.2 |
| vroom | 1.6.5 | Waldo | 0.5.2 | whisker | 0.4.1 |
| Withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | xtable | 1.8-4 | YAML-Dateiformat | 2.3.8 |
| zeallot | 0.1.0 | zip | 2.3.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.610 |
| com.amazonaws | aws-java-sdk-core | 1.12.610 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
| com.amazonaws | aws-java-sdk-directory | 1.12.610 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
| com.amazonaws | aws-java-sdk-efs | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
| com.amazonaws | aws-java-sdk-emr | 1.12.610 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
| com.amazonaws | aws-java-sdk-glue | 1.12.610 |
| com.amazonaws | aws-java-sdk-iam | 1.12.610 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
| com.amazonaws | aws-java-sdk-kms | 1.12.610 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.610 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.610 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
| com.amazonaws | aws-java-sdk-rds | 1.12.610 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ses | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
| com.amazonaws | aws-java-sdk-sns | 1.12.610 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
| com.amazonaws | aws-java-sdk-sts | 1.12.610 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.610 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
| com.amazonaws | jmespath-java | 1.12.610 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Mitschüler | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | fehleranfällige_annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,25 |
| io.delta | delta-sharing-client_2.12 | 1.1.1 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | Netty Codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeil-Format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | Pfeil-Vektor | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Server | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Endgültig |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 8.11.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Test-Schnittstelle | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |