Freigeben über


Databricks Runtime 15.4 LTS

Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 15.4 LTS, die von Apache Spark 3.5.0 unterstützt wird.

Diese Version wurde von Databricks im August 2024 veröffentlicht.

Hinweis

LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.

Tipp

Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.

Änderungen des Verhaltens

Die Verwendung einer VARIANT als Eingabe- oder Ausgabetyps mit einem Python UDF, UDAF oder UDTF löst eine Ausnahme aus.

[Breaking change] In Databricks Runtime 15.3 und höher löst das Aufrufen einer benutzerdefinierten Funktion (UDF), einer benutzerdefinierten Aggregatfunktion (UDAF) oder einer benutzerdefinierten Tabellenfunktion (UDTF) in Python mit dem Typ VARIANT als Argument oder Rückgabewert eine Ausnahme aus. Mit dieser Änderung sollen Probleme verhindert werden, die aufgrund eines ungültigen Werts auftreten können, der von einer dieser Funktionen zurückgegeben wird. Weitere Informationen zum Typ VARIANT finden Sie unter Verwendung von VARIANTEN zum Speichern halbstrukturierter Daten.

spark.sql.legacy.cod.useNullCalendar ist jetzt standardmäßig aktiviert.

spark.sql.legacy.jdbc.useNullCalendar ist jetzt standardmäßig auf true "Festgelegt". Wenn diese Änderung Ihre Abfragen unterbricht (z. B. solche, die TIMESTAMP-Werte zurückgeben), setzen Sie den Wert in Ihrem Code auf false.

Wechseln zum Standardschema-Bindungsmodus für Ansichten

Ansichten passen sich jetzt an Schemaänderungen in der zugrunde liegenden Abfrage an, indem sie die Schemakompensierung mit regulären Umwandlungsregeln verwenden. Dies ist eine Änderung gegenüber dem vorherigen Standardmodus BINDING, der Fehler ausgelöst hat, wenn eine sichere Umwandlung beim Verweisen auf die Ansicht nicht ausgeführt werden konnte.

Siehe CREATE VIEW und cast Funktion.

Verbieten der Verwendung der nicht dokumentierten !-Syntax anstelle von NOT außerhalb boolescher Ausdrücke

Bei dieser Version ist die Verwendung von ! als Synonym für NOT außerhalb von booleschen Ausdrücken nicht mehr zulässig. Beispiel: Anweisungen wie die folgenden: CREATE ... IF ! EXISTS, IS ! NULL, eine ! NULL-Spalteneigenschaft oder -Feldeigenschaft, ! IN und ! BETWEEN muss ersetzt werden durch: CREATE ... IF NOT EXISTS, IS NOT NULL, eine NOT NULL-Spalten- oder Feldeigenschaft, NOT IN und NOT BETWEEN.

Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und macht SQL portierbarer.

Der boolesche Präfixoperator! (z. B. !is_mgr oder !(true AND false)) ist von dieser Änderung nicht betroffen.

Nicht dokumentierte Spaltendefinitionssyntax in Ansichten verbieten

Databricks unterstützt CREATE VIEW mit benannten Spalten und Spaltenkommentaren. Zuvor war die Spezifikation von Spaltentypen, NOT NULL-Einschränkungen oder DEFAULT zulässig. Bei dieser Version können Sie diese Syntax nicht mehr verwenden.

Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und unterstützt künftige Erweiterungen.

Konsistente Fehlerbehandlung für die Base64-Decodierung in Spark und Photon

Diese Version ändert die Art und Weise, wie Photon Base64-Dekodierungsfehler behandelt, um sie der Spark-Behandlung dieser Fehler anzupassen. Vor diesen Änderungen konnte der Photon- und Spark-Codegenerierungspfad manchmal keine Analyseausnahmen auslösen, während die Spark-Ausführung richtigerweise IllegalArgumentException oder ConversionInvalidInputError auslöste. Mit diesem Update wird sichergestellt, dass Photon bei Base64-Decodierungsfehlern konsistent dieselben Ausnahmen auslöst, was eine vorhersehbarere und zuverlässige Fehlerbehandlung ermöglicht.

Das Hinzufügen einer CHECK Einschränkung für eine ungültige Spalte gibt jetzt UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück

Um nützlichere Fehlermeldungen bereitzustellen, gibt in Databricks Runtime 15.3 und höher eine ALTER TABLE ADD CONSTRAINT Anweisung, die eine CHECK Einschränkung enthält, die auf einen ungültigen Spaltennamen verweist, die UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück. Zuvor wurde ein INTERNAL_ERROR Wert zurückgegeben.

spark.sql.legacy.cod.useNullCalendar ist jetzt standardmäßig aktiviert.

### spark.sql.legacy.jdbc.useNullCalendar ist jetzt als Standardeinstellung festgelegt true . Wenn diese Änderung Ihre Abfragen unterbricht (z. B. solche, die TIMESTAMP-Werte zurückgeben), setzen Sie den Wert in Ihrem Code auf false.

Pyodbc wird von 4.0.38 auf 4.0.39 aktualisiert.

Das Pyodbc-Paket wird von Version 4.0.38 auf Version 4.0.39 aktualisiert. Diese Änderung ist erforderlich, da ein Fehler in Version 4.0.38 gefunden wurde und diese Version aus PyPI entfernt wurde.

Neue Features und Verbesserungen

UTF-8-Gültigkeitsprüfungsfunktionen

In dieser Version werden die folgenden Funktionen zum Validieren von UTF-8-Zeichenketten eingeführt:

  • is_valid_utf8 überprüft, ob eine Zeichenfolge eine gültige UTF-8-Zeichenkette ist.
  • make_valid_utf8 konvertiert eine potenziell ungültige UTF-8-Zeichenkette in eine gültige UTF-8-Zeichenkette mit Ersetzungszeichen.
  • validate_utf8 löst einen Fehler aus, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.
  • try_validate_utf8 gibt NULL zurück, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.

Typisierte Dataset-APIs mit Scala-UDFs

Diese Version enthält zusätzliche Unterstützung für typisierte Dataset-APIs mit benutzerdefinierten Scala-Funktionen (mit Ausnahme von benutzerdefinierten Aggregatfunktionen) für Unity Catalog-fähiges Computing mit Standardzugriffsmodus (früher Zugriffsmodus „Freigegeben“). Weitere Informationen finden Sie unter Typisierte Dataset-APIs.

Aktivieren von UniForm Iceberg mithilfe von ALTER TABLE

Sie können UniForm Iceberg jetzt für vorhandene Tabellen aktivieren, ohne Datendateien neu zu schreiben. Siehe Aktivieren von Iceberg-Lesevorgängen in einer vorhandenen Tabelle.

try_url_decode-Funktion

Mit diesem Release wird die try_url_decode-Funktion eingeführt, die eine mit URL verschlüsselte Zeichenfolge entschlüsselt. Wenn die Zeichenfolge nicht das richtige Format hat, gibt die Funktion NULL zurück, anstatt einen Fehler zu auslösen.

Optionales Zulassen, dass der Optimierer auf nicht erzwungenen Fremdschlüsseleinschränkungen basiert

Um die Abfrageleistung zu verbessern, können Sie jetzt das Keyword RELY für FOREIGN KEY-Einschränkungen angeben, wenn Sie CREATE oder ALTER für eine Tabelle verwenden.

Parallelisierter Auftrag wird für selektive Überschreibungen ausgeführt

Selektive Überschreibungen mit replaceWhere führen jetzt Aufträge aus, die Daten löschen und neue Daten parallel einfügen, wodurch Abfrageleistung und Clusterauslastung verbessert werden.

Verbesserte Leistung für Änderungsdatenfeeds mit selektiven Überschreibungen

Selektive Überschreibungen mithilfe von replaceWhere in Tabellen mit Änderungsdatenfeed erzeugen keine separaten Änderungsdateien mehr für eingefügte Daten. Diese Vorgänge verwenden eine ausgeblendete _change_type-Spalte, die in den zugrunde liegenden Parquet-Datendateien vorhanden ist, um Änderungen ohne Schreibverstärkung aufzuzeichnen.

Verbesserte Abfragelatenz für den COPY INTO-Befehl

Diese Version enthält eine Änderung, die die Abfragelatenz für den COPY INTO-Befehl verbessert. Diese Verbesserung wird implementiert, indem das Laden des Zustands im RocksDB-Zustandsspeicher asynchron erfolgt. Dank dieser Änderung sollten Sie eine Verbesserung der Startzeiten für Abfragen mit umfangreichen Statusinformationen feststellen, wie Abfragen mit einer großen Anzahl bereits erfasster Dateien.

Unterstützung für das Löschen der Funktion zum Überprüfen von Einschränkungen in Tabellen

Sie können jetzt das checkConstraints-Tabellenfeature aus einer Delta-Tabelle mithilfe von ALTER TABLE table_name DROP FEATURE checkConstraints entfernen. Weitere Informationen finden Sie unter Deaktivieren von Überprüfungseinschränkungen.

Dedizierte Rechenleistung (vormals Einzelbenutzer-Compute) unterstützt differenzierte Zugriffssteuerung, materialisierte Ansichten und Streamingtabellen (Öffentliche Vorschau)

Wenn ein Arbeitsbereich für serverloses Computing aktiviert ist, fügt Databricks Runtime 15.4 LTS Unterstützung für eine differenzierte Zugriffssteuerung für dediziertes Computing hinzu. Wenn eine Abfrage auf eines der folgenden Objekte zugreift, übergibt die dedizierte Computeressource auf Databricks Runtime 15.4 LTS die Abfrage an den serverlosen Compute, um die Datenfilterung auszuführen:

  • Ansichten, die über Tabellen definiert sind, für die der Benutzer nicht über die SELECT Berechtigungen verfügt.
  • Dynamische Ansichten.
  • Tabellen mit angewendeten Zeilenfiltern oder Spaltenmasken.
  • Materialisierte Ansichten und Streamingtabellen.

Diese Abfragen werden für dedizierte Rechenressourcen, die mit Databricks Runtime 15.3 und darunter ausgeführt werden, nicht unterstützt.

Weitere Informationen finden Sie unter Feingranulare Zugriffssteuerung auf dedizierte Rechenleistung.

Erweiterte Unterstützung für Java- und Scala-Bibliotheken

Ab Databricks Runtime 15.4 LTS sind alle Java- und Scala-Bibliotheken, die mit Databricks Runtime gebündelt sind, in allen Computezugriffsmodi verfügbar, wenn Sie Unity-Katalog verwenden. Weitere Informationen zur Sprachunterstützung für Unity Catalog-fähige Compute finden Sie unter Standard compute requirements and limitations.

Erweiterte Unterstützung für Scala-Datasetvorgänge

Mit dieser Version unterstützen Unity Catalog-fähige Computeressourcen, die den Standardzugriffsmodus verwenden, die folgenden Scala-Dataset-Vorgänge unterstützen: map, mapPartitions, foreachPartition, flatMap, reduce und filter.

Scala ist für standardmäßige Unity Catalog-fähige Computeressourcen allgemein verfügbar

Mit dieser Version ist Scala allgemein verfügbar im Standardzugriffsmodus für Berechnungen mit Unity Catalog-Unterstützung, einschließlich Unterstützung für skalare benutzerdefinierte Funktionen (UDFs). Strukturiertes Streaming, Hive-UDFs und benutzerdefinierte Hive-Aggregatfunktionen werden nicht unterstützt. Eine vollständige Liste der Einschränkungen finden Sie unter Standard compute requirements and limitations.

Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mithilfe von Dienstanmeldeinformationen (Öffentliche Vorschau)

Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten mithilfe von Azure Managed Identities (MI) und Unity Catalog. Siehe Erstellen von Dienstanmeldeinformationen.

Fehlerkorrekturen

Verbesserungen der Bibliothek

  • Aktualisierte Python-Bibliotheken:
    • azure-core von 1.30.1 auf 1.30.2
    • google-auth von 2.29.0 auf 2.31.0
    • google-cloud-storage von 2.16.0 auf 2.17.0
    • google-resumable-media von 2.7.0 auf 2.7.1
    • googleapis-common-protos von 1.63.0 auf 1.63.2
    • mlflow-skinny von 2.11.3 auf 2.11.4
    • proto-plus von 1.23.0 auf 1.24.0
    • s3transfer von 0.10.1 auf 0.10.2
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • com.databricks.databricks-sdk-java von 0.17.1 auf 0.27.0
    • com.ibm.icu.icu4j von 72.1 auf 75.1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider von 1.6.1-linux-x86_64 auf 1.6.2-linux-x86_64

Apache Spark

Databricks Runtime 15.4 LTS enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 15.3 (EoS)enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-48503] [DBRRM-1150][sc-172196][SQL] Gruppieren von Ausdrücken in skalaren Unterabfragen zulassen, wenn sie an äußere Zeilen gebunden sind
  • [SPARK-48834] [BEHAVE-79][sc-170972][SQL] Deaktivieren der Varianteneingabe/-ausgabe für skalare Python-UDFs (benutzerdefinierte Funktionen), -UDTFs (benutzerdefinierte Tabellenfunktionen) und -UDAFs (benutzerdefinierte Aggregatfunktionen) während der Abfragekompilierung
  • [SPARK-48441] [SC-170980][sql][WARMFIX] Korrektur des StringTrim-Verhaltens für Nicht-UTF8_BINARY-Sortierungen
  • [SPARK-48440] [SC-170895][sql][WARMFIX] Korrektur des StringTranslate-Verhaltens für Nicht-UTF8_BINARY-Sortierungen
  • [SPARK-48872] [SC-170866][python] Reduktion des Mehraufwands für _capture_call_site
  • [SPARK-48862] [SC-170845][python][CONNECT] Vermeiden Sie das Aufrufen _proto_to_string , wenn die INFO-Ebene nicht aktiviert ist.
  • [SPARK-48852] [SC-170837][connect] Korrektur der Funktion zur Zeichenfolgenkürzung in Spark Connect
  • [SPARK-48791] [SC-170658][core] Behebung der Leistungsregression, die durch den Akkumulatorenregistrierungsaufwand mithilfe von CopyOnWriteArrayList verursacht wurde.
  • [SPARK-48118] [SQL] Unterstützung von SPARK_SQL_LEGACY_CREATE_HIVE_TABLE Umgebungsvariablen
  • [SPARK-48241] [SC-165811][sql] CSV-Analysefehler mit Spalten vom Typ Char/Varchar
  • [SPARK-48168] [SC-166900][sql] Unterstützung für bitweise Verschiebungsoperatoren hinzufügen
  • [SPARK-48148] [SC-165630][core] JSON-Objekte sollten beim Lesen als STRING nicht geändert werden
  • [SPARK-46625] [SC-170561] CTE mit Identifier-Klausel als Referenz
  • [SPARK-48771] [SC-170546][sql] Beschleunigung von LogicalPlanIntegrity.validateExprIdUniqueness für große Abfragepläne
  • [SPARK-48831] [BEHAVE-76][sc-170554][CONNECT] Herstellen der Kompatibilität des Standardspaltennamens von cast mit Spark Classic
  • [SPARK-48623] [SC-170544][core] Strukturierte Protokollierungsmigrationen [Teil 2]
  • [SPARK-48296] [SC-166138][sql] Codegen-Unterstützung für to_xml
  • [SPARK-48027] [SC-165154][sql] Überprüfung des untergeordneten Verknüpfungstyps durch InjectRuntimeFilter für Verknüpfungen mit mehreren Ebenen
  • [SPARK-48686] [SC-170365][sql] Verbessern der Leistung von ParserUtils.unescapeSQLString
  • [SPARK-48798] [SC-170588][python] Einführung von spark.profile.render für SparkSession-basierte Profilerstellung
  • [SPARK-48048] [SC-169099] Rückgängigmachen von „[SC-164846][connect][SS] Unterstützung für clientseitige Listener für Scala hinzugefügt“
  • [SPARK-47910] [SC-168929][core] Schließen des Datenstroms, wenn DiskBlockObjectWriter closeResources geschlossen wird, um Speicherverluste zu vermeiden
  • [SPARK-48816] [SC-170547][sql] Shorthand für Intervallkonverter in UnivocityParser
  • [SPARK-48589] [SC-170132][sql][SS] Hinzufügen von Option snapshotStartBatchId und snapshotPartitionId zum Zustand der Datenquelle
  • [SPARK-48280] [SC-170293][sql] Verbesserung der Oberfläche für Sortierungstests durch Durchlaufen von Ausdrücken (Expression Walking)
  • [SPARK-48837] [SC-170540][ml] Einmaliges Lesen von binären Parametern pro Transformation (nicht pro Zeile) in CountVectorizer
  • [SPARK-48803] [SC-170541][SQL] Auslösen eines internen Fehlers in Orc(De)Serializer zur Ausrichtung an ParquetWriteSupport
  • [SPARK-48764] [SC-170129][python] Herausfiltern von IPython-bezogenen Frames aus dem Stack des Benutzers
  • [SPARK-48818] [SC-170414][python] Vereinfachung von percentile-Funktionen
  • [SPARK-48479] [SC-169079][sql] Unterstützung beim Erstellen von Skalar- und Tabellen-SQL-UDFs im Parser
  • [SPARK-48697] [SC-170122][lc-4703][SQL] Hinzufügung von Zeichenfolgenfiltern mit Unterstützung für die Sortierung
  • [SPARK-48800] [SC-170409][connect][SS] Vereinzelung von ClientStreamingQuerySuite
  • [SPARK-48738] [SC-169814][sql] Richtig seit der Version für den integrierten Funktionsalias random, position, mod, cardinality, current_schema, user, session_user, char_length, character_length
  • [SPARK-48638] [ SC-169575][connect] Hinzufügen der ExecutionInfo-Unterstützung für DataFrame
  • [SPARK-48064] [SC-164697][sql] Aktualisieren von Fehlermeldungen für routinebezogene Fehlerklassen
  • [SPARK-48810] [CONNECT] Die Session Stop()-API sollte idempotent sein und nicht fehlschlagen, wenn die Sitzung bereits vom Server geschlossen wurde
  • [SPARK-48650] [15.x][python] Anzeigen der richtigen Anrufwebsite aus dem IPython-Notizbuch
  • [SPARK-48271] [SC-166076][sql] Änderung des Übereinstimmungsfehlers in RowEncoder in UNSUPPORTED_DATA_TYPE_FOR_ENCODER
  • [SPARK-48709] [SC-169603][sql] Behebung eines Konflikts bei der Auflösung des varchar-Typs für DataSourceV2 CTAS
  • [SPARK-48792] [SC-170335][SQL] Korrektur der Regression für INSERT mit teilweiser Spaltenliste in einer Tabelle mit char/varchar
  • [SPARK-48767] [SC-170330][sql] Beheben einiger Fehleraufforderungen, wenn variant Typdaten ungültig sind
  • [SPARK-48719] [SC-170339][sql] Beheben Des Berechnungsfehlers von RegrSlope & RegrIntercept wenn der erste Parameter null ist
  • [SPARK-48815] [SC-170334][connect] Umgebung aktualisieren beim Stoppen der Verbindungssitzung
  • [SPARK-48646] [SC-169020][python] Optimierung der Hinweise für Dokumentzeichenfolgen (docstring) und Typen in der Python-Datenquellen-API
  • [SPARK-48806] [SC-170310][sql] Gibt die tatsächliche Ausnahme an, wenn url_decode fehlschlägt.
  • [SPARK-47777] [SC-168818] Fehlerbehebung beim Test der Verbindung für Python-Streaming-Datenquellen
  • [SPARK-48732] [SC-169793][sql] Bereinigung der Verwendung veralteter APIs im Zusammenhang mit JdbcDialect.compileAggregate
  • [SPARK-48675] [SC-169538][sql] Korrektur der Zwischenspeicherung von Tabellen mit sortierter Spalte
  • [SPARK-48623] [SC-169034][core] Strukturierte Protokollierungsmigrationen
  • [SPARK-48655] [SC-169542][sql] SPJ: Hinzufügung von Tests zum zufälligen Überspringen von Aggregatabfragen
  • [SPARK-48586] [SC-169808][ss] Entfernung des Sperrenabrufs in doMaintenance() durch Erstellen einer tiefen Kopie von Dateizuordnungen in RocksDBFileManager in load()
  • [SPARK-48799] [Backport][15.x][SC-170283][ss] Umgestaltung der Versionsverwaltung für den Lese-/Schreibzugriff auf Operatormetadaten und Aufrufer
  • [SPARK-48808] [SC-170309][sql] Korrektur von NPE, wenn ThriftServer über Hive 1.2.1 verbunden wird und das Ergebnisschema leer ist
  • [SPARK-48715] [SC-170291][sql] Integration der UTF8String-Validierung in die Implementierungen von kollationsbewussten Zeichenfolgenfunktionen
  • [SPARK-48747] [SC-170120][sql] Hinzufügen eines Codepunkt-Iterators zu UTF8String
  • [SPARK-48748] [SC-170115][sql] Zwischenspeicherung von numChars in UTF8String
  • [SPARK-48744] [SC-169817][Core] Protokolleintrag sollte nur einmal erstellt werden
  • [SPARK-46122] [SC-164313][sql] spark.sql.legacy.createHiveTableByDefault standardmäßig auf false setzen
  • [SPARK-48765] [SC-170119][deploy] Verbessern der Standardwerteauswertung für SPARK_IDENT_STRING
  • [SPARK-48759] [SC-170128][sql] Hinzufügung eines Migrationsdokuments für CREATE TABLE AS SELECT-Verhaltensänderung seit Spark 3.4
  • [SPARK-48598] [SC-169484][python][CONNECT] Verteilen des zwischengespeicherten Schemas in Datenframevorgängen
  • [SPARK-48766] [SC-170126][python] Dokumentieren Sie den Verhaltensunterschied zwischen extractionelement_at und try_element_at
  • [SPARK-48768] [ SC-170124][python][CONNECT] Sollte nicht zwischengespeichert werden explain
  • [SPARK-48770] [Backport][15.x][SC-170133][ss] Änderung zum einmaligen Lesen von Operatormetadaten auf dem Treiber, um nach Informationen zu numColsPrefixKey zu suchen, die für Sitzungsfenster-Aggregatabfragen verwendet werden
  • [SPARK-48656] [SC-169529][core] Ausführen einer Längenüberprüfung und Auslösen des COLLECTION_SIZE_LIMIT_EXCEEDED-Fehlers in CartesianRDD.getPartitions
  • [SPARK-48597] [SC-168817][sql] Einführung einer Markierung für die isStreaming-Eigenschaft in der Textdarstellung des logischen Plans
  • [SPARK-48472] [SC-169044][sql] Aktivierung von Reflexionsausdrücken mit sortierten Zeichenfolgen
  • [SPARK-48699] [SC-169597][sql] Verfeinerung der Sortierungs-API
  • [SPARK-48682] [SC-169812][sql][BEHAVE-58] Verwendung von ICU im InitCap-Ausdruck für UTF8_BINARY-Zeichenfolgen
  • [SPARK-48282] [SC-169813][sql] Änderung der Zeichenfolgensuchlogik für UTF8_BINARY_LCASE-Sortierung (StringReplace, FindInSet)
  • [SPARK-47353] [SC-169599][sql] Aktivierung der Sortierungsunterstützung für den Mode-Ausdruck
  • [SPARK-48320] [SPARK-48490] Synchronisierung des neuesten Protokollierungstraits und der Testfälle von OSS Spark
  • [SPARK-48629] [SC-169479] Migrieren des Restcodes zum strukturierten Protokollierungsframework
  • [SPARK-48681] [SC-169469][sql][BEHAVE-58] Verwendung von ICU in Lower/Upper-Ausdrücken für UTF8_BINARY-Zeichenfolgen
  • [SPARK-48573] [15.x][sc-169582][SQL] Aktualisierung der ICU-Version
  • [SPARK-48687] [Backport] [15.x] [SS] Hinzufügen einer Änderung zum Ausführen der Zustandsschemaüberprüfung und Aktualisierung des Treibers für zustandsbehaftete Abfragen
  • [SPARK-47579] [15.x][sc-167310][CORE][part4] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48008] [SC-167363] [1/2] Unterstützung von UDAFs in Spark Connect
  • [SPARK-48578] [SC-169505][sql] Funktionen zur Überprüfung von UTF8-Strings hinzufügen
  • [SPARK-48670] [SC-169598][sql] Bereitstellen eines Vorschlags als Teil der Fehlermeldung, wenn ungültiger Sortiername angegeben wird
  • [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPA... … RK-48291] Strukturiertes Protokollframework auf der Java-Seite
  • [SPARK-47599] [15.x][sc-166000][MLLIB] MLLib: Migrieren von LogWarn mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48706] [SC-169589][python] Python-UDF in höheren Ordnungsfunktionen sollte keinen internen Fehler auslösen
  • [SPARK-48498] [BEHAVE-38][sc-168060][SQL] Zeichenauffüllung in Prädikaten in allen Fällen (immer)
  • [SPARK-48662] [SC-169533][sql] Korrektur des StructsToXml-Ausdrucks mit Sortierungen
  • [SPARK-48482] [SC-167702][python][15.x] dropDuplicates und dropDuplicatesWIthinWatermark sollten Variable Längenargumente akzeptieren
  • [SPARK-48678] [SC-169463][Kern] Leistungsoptimierungen für SparkConf.get(ConfigEntry)
  • [SPARK-48576] [SQL] Umbenennen von UTF8_BINARY_LCASE in UTF8_LCASE
  • [SPARK-47927] [SC-164123][sql]: Korrigiere die Nullbarkeitsattribut im UDF-Dekoder
  • [SPARK-47579] [SC-165297][core][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework (neu)
  • [SPARK-48695] [ SC-169473][python] TimestampNTZType.fromInternal verwenden nicht die veralteten Methoden.
  • [SPARK-48431] [SC-167290][lc-4066][SQL] Keine Weiterleitung von Prädikaten für sortierte Spalten an Dateileser
  • [SPARK-47579] Rückgängigmachen von “[SC-165297][core][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework”
  • [SPARK-47585] [SC-164306][sql] SQL Core: Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48466] [SC-169042][sql] Erstellen eines dedizierten Knotens für EmptyRelation in AQE
  • [SPARK-47579] [SC-165297][core][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48410] [SC-168320][sql] Korrektur des InitCap-Ausdrucks für UTF8_BINARY_LCASE- und ICU-Sortierungen
  • [SPARK-48318] [SC-167709][sql] Unterstützung für Hash-Join bei allen Kollationen (komplexe Typen) aktivieren.
  • [SPARK-48435] [ SC-168128][sql] UNICODE-Sortierung sollte keine binäre Gleichheit unterstützen
  • [SPARK-48555] [SC-169041][sql][PYTHON][connect] Unterstützung mithilfe von Spalten als Parameter für mehrere Funktionen in pyspark/scala
  • [SPARK-48591] [ SC-169081][python] Hinzufügen einer Hilfsfunktion zur Vereinfachung Column.py
  • [SPARK-48574] [SC-169043][sql] Korrektur der Unterstützung für StructTypes mit Sortierungen
  • [SPARK-48305] [SC-166390][sql] Hinzufügen der Sortierunterstützung für CurrentLike-Ausdrücke
  • [SPARK-48342] [ SC-168941][sql] Einführung in den SQL Scripting Parser
  • [SPARK-48649] [SC-169024][sql] Fügen Sie "ignoreInvalidPartitionPaths" und "spark.sql.files.ignoreInvalidPartitionPaths"-Konfigurationen hinzu, damit ungültige Partitionspfade ignoriert werden können.
  • [SPARK-48000] [SC-167194][sql] Unterstützung von Hash Joins für alle Zeichensatzkollationen aktivieren (StringType)
  • [SPARK-48459] [SC-168947][connect][PYTHON] Implementieren von DataFrameQueryContext in Spark Connect
  • [SPARK-48602] [SC-168692][sql] Erstellen eines CSV-Generators zur Unterstützung verschiedener Ausgabestile mit spark.sql.binaryOutputStyle
  • [SPARK-48283] [SC-168129][sql] Ändern des Zeichenfolgenvergleichs für UTF8_BINARY_LCASE
  • [SPARK-48610] [SC-168830][sql] Umgestaltung: Verwenden einer Hilfs-idMap anstelle von OP_ID_TAG
  • [SPARK-48634] [SC-169021][python][CONNECT] Statische Initialisierung des Threadpools bei ExecutePlanResponseReattachableIterator vermeiden
  • [SPARK-47911] [SC-164658][sql] Führt einen universellen BinaryFormatter ein, um die binäre Ausgabe konsistent zu machen.
  • [SPARK-48642] [SC-168889][core] Falscher SparkOutOfMemoryError, der durch Beenden einer Aufgabe beim Überlauf verursacht wurde
  • [SPARK-48572] [SC-168844][sql] Fix DateSub-, DateAdd-, WindowTime-, TimeWindow- und SessionWindow-Ausdrücke
  • [SPARK-48600] [SC-168841][sql] Korrektur der impliziten Umwandlung von FrameLessOffsetWindowFunction-Ausdrücken
  • [SPARK-48644] [SC-168933][sql] Ausführen einer Längenüberprüfung und Auslösen des COLLECTION_SIZE_LIMIT_EXCEEDED-Fehlers in „Hex.hex“
  • [SPARK-48587] [SC-168824][Variante] Vermeiden der Speicherverstärkung beim Zugriff auf eine Untervariante
  • [SPARK-48647] [SC-168936][python][CONNECT] Verfeinern der Fehlermeldung für YearMonthIntervalType in df.collect
  • [SPARK-48307] [SC-167802][sql] InlineCTE sollte nicht inlineierte Beziehungen im ursprünglichen WithCTE-Knoten beibehalten
  • [SPARK-48596] [SC-168581][sql] Leistungsverbesserung für die Berechnung der Hexadezimalzeichenfolge für „long“
  • [SPARK-48621] [SC-168726][sql] Korrektur der Like-Vereinfachung im Optimierer für sortierte Zeichenfolgen
  • [SPARK-47148] [SC-164179][sql] Vermeidung der Materialisierung von AQE ExchangeQueryStageExec beim Abbruch
  • [SPARK-48584] [SC-168579][sql] Leistungsverbesserung für unescapePathName
  • [SPARK-48281] [SC-167260][sql] Ändern der Zeichenfolgensuchlogik für UTF8_BINARY_LCASE-Kollation (StringInStr, SubstringIndex)
  • [SPARK-48577] [SC-168826][sql] Ersetzung ungültiger UTF-8-Byte-Sequenzen
  • [SPARK-48595] [SC-168580][Core] Bereinigung veralteter API-Verwendung im Zusammenhang mit commons-compress
  • [SPARK-48030] [SC-164303][sql] SPJ: Zwischenspeicherung von rowOrdering und structType für InternalRowComparableWrapper
  • [SPARK-48004] [SC-164005][sql] WriteFilesExecBase-Merkmal für v1-Schreibvorgang hinzufügen
  • [SPARK-48551] [SC-168438][sql] Leistungsverbesserung für escapePathName
  • [SPARK-48565] [SC-168437][ui] Behebung der Anzeige von Thread-Dumps in der Benutzeroberfläche
  • [SPARK-48364] [SC-166782][sql] Hinzufügung der AbstractMapType-Typumwandlung und Korrektur der RaiseError-Parameterzuordnung zur Verwendung mit sortierten Zeichenfolgen
  • [SPARK-48421] [ SC-168689][sql] SPJ: Dokumentation hinzufügen
  • [SPARK-48604] [SC-168698][sql] Ersetzen Sie den veralteten Methodenaufruf new ArrowType.Decimal(precision, scale)
  • [SPARK-46947] [SC-157561][core] Verzögern der Speicher-Manager-Initialisierung, bis das Treiber-Plug-In geladen wird
  • [SPARK-48411] [SC-168576][ss][PYTHON] E2E-Test für DropDuplicateWithinWatermark hinzufügen
  • [SPARK-48543] [SC-168697][ss] Nachverfolgen von Überprüfungsfehlern in Zustandszeilen mithilfe expliziter Fehlerklasse
  • [SPARK-48221] [SC-167143][sql] Änderung der Suchlogik für Zeichenfolgen für die UTF8_BINARY_LCASE-Sortierung (Contains, StartsWith, EndsWith, StringLocate)
  • [SPARK-47415] [SC-168441][sql] Hinzufügen der Sortierunterstützung für Levenshtein-Ausdruck
  • [SPARK-48593] [SC-168719][python][CONNECT] Korrektur der Zeichenfolgendarstellung einer Lambda-Funktion
  • [SPARK-48622] [SC-168710][sql] beim Auflösen von Spaltennamen einmal SQLConf abrufen
  • [SPARK-48594] [SC-168685][python][CONNECT] Feld umbenennen parent in childColumnAlias
  • [SPARK-48403] [SC-168319][sql] Korrektur von Lower- und Upper-Ausdrücken für UTF8_BINARY_LCASE- und ICU-Sortierungen
  • [SPARK-48162] [SC-166062][sql] Hinzufügen der Sortierunterstützung für MISC-Ausdrücke
  • [SPARK-48518] [ SC-167718][core] Sorgen Sie dafür, dass LZF-Komprimierung parallel ausgeführt werden kann
  • [SPARK-48474] [SC-167447][core] Korrektur des Klassennamens der Anmeldung in SparkSubmitArguments und SparkSubmit
  • [SPARK-48012] [SC-168267][sql] SPJ: Unterstützung für Transfrom-Ausdrücke für die einseitige zufällige Wiedergabe
  • [SPARK-48552] [SC-168212][sql] Mehrzeilige CSV-Schemainferenz sollte auch den Fehler FAILED_READ_FILE ausgeben
  • [SPARK-48560] [SC-168268][ss][PYTHON] StreamingQueryListener.spark konfigurierbar machen
  • [SPARK-48569] [SC-168321][ss][CONNECT] Behandlung von Grenzfällen in query.name
  • [SPARK-47260] [SC-167323][sql] Zuweisen des Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_3250
  • [SPARK-48564] [ SC-168327][python][CONNECT] Zwischengespeichertes Schema in Set-Operationen weitergeben
  • [SPARK-48155] [SC-165910][sql] Überprüfung durch AQEPropagateEmptyRelation für „join“, ob das verbleibende untergeordnete Element nur BroadcastQueryStageExec ist
  • [SPARK-48506] [SC-167720][core] Kurznamen des Komprimierungscodecs sind nicht case-sensitiv, mit Ausnahme der Ereignisprotokollierung.
  • [SPARK-48447] [SC-167607][ss] Überprüfen der Anbieterklasse des Statusspeichers vor dem Aufrufen des Konstruktors
  • [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff und DateTimeUtils.timestampAdd sollten INTERNAL_ERROR Ausnahme nicht auslösen
  • [SPARK-48513] [Backport][15.x][SC-168085][ss] Fügen Sie Fehlerklasse für die Zustandsschemakompatibilität und kleinere Umgestaltung hinzu.
  • [SPARK-48413] [SC-167669][sql] ALTER COLUMN mit Sortierung
  • [SPARK-48561] [SC-168250][ps][CONNECT] Auslösen von PandasNotImplementedError für nicht unterstützte Zeichnungsfunktionen
  • [SPARK-48465] [SC-167531][sql] Vermeidung einer leeren Beziehungsverteilung ohne Vorgang (no-op)
  • [SPARK-48553] [ SC-168166][python][CONNECT] Weitere Eigenschaften zwischenspeichern
  • [SPARK-48540] [SC-168069][core] Vermeidung von Einstellungen für das Laden von Ivy-Ausgaben in StdOut
  • [SPARK-48535] [SC-168057][ss] Aktualisierung der Konfigurationsdokumente, um auf die Möglichkeit von Datenverlust oder Datenbeschädigung hinzuweisen, wenn die Einstellung 'Nullwerte überspringen' für Stream-Stream-Verknüpfungen aktiviert ist.
  • [SPARK-48536] [SC-168059][python][CONNECT] Benutzerdefiniertes Schema im Cache speichern in applyInPandas und applyInArrow
  • [SPARK-47873] [SC-163473][sql] Schreiben von sortierten Zeichenfolgen in hive metastore mit dem regulären Zeichenfolgentyp
  • [SPARK-48461] [SC-167442][sql] Ersetzung von NullPointerExceptions durch Fehlerklasse im AssertNotNull-Ausdruck
  • [SPARK-47833] [SC-163191][sql][CORE] Bereitstellung einer Stapelüberwachung des Anrufers für checkAndGlobPathIfNecessary AnalysisException
  • [SPARK-47898] [SC-163146][sql] Port HIVE-12270: Hinzufügen der DBTokenStore-Unterstützung zum HS2-Delegierungstoken
  • [SPARK-47578] [SC-167497][r] Migrieren von RPackageUtils mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-47875] [ SC-162935][core] Entfernen spark.deploy.recoverySerializer
  • [SPARK-47552] [SC-160880][core] Festlegung von spark.hadoop.fs.s3a.connection.establish.timeout auf 30 Sekunden, wenn kein Timeout angegeben ist
  • [SPARK-47972] [SC-167692][sql] Einschränkung des CAST-Ausdrucks für Sortierungen
  • [SPARK-48430] [SC-167489][sql] Behebung der Werteextraktion von Karten, wenn die Karte collatierte Zeichenfolgen enthält
  • [SPARK-47318] [SC-162712][core][3.5] Fügt HKDF-Runde zur AuthEngine-Schlüsselableitung hinzu, um Standard-KEX-Praktiken zu befolgen
  • [SPARK-48503] [BEHAVE-29][es-1135236][SQL] Korrektur ungültiger skalarer Unterabfragen mit „group-by“ für nicht gleichwertige Spalten, die falsch zulässig waren
  • [SPARK-48508] [SC-167695][connect][PYTHON] Vom Benutzer angegebenes Schema zwischenspeichern in DataFrame.{to, mapInPandas, mapInArrow}
  • [SPARK-23015] [SC-167188][windows] Behebung eines Fehlers in Windows, bei dem das Starten mehrerer Spark-Instanzen innerhalb derselben Sekunde zu einem Fehler führt.
  • [SPARK-45891] [SC-167608] Zurücksetzen „Schredderschema für Variante beschreiben“
  • [SPARK-48391] [SC-167554][core]Verwendung von "addAll" anstelle von "add"-Funktion in der Methode "fromAccumulatorInfos" der "TaskMetrics"-Klasse
  • [SPARK-48496] [SC-167600][core] Verwenden statischer regex-Musterinstanzen in JavaUtils.timeStringAs und JavaUtils.byteStringAs
  • [SPARK-48476] [SC-167488][sql] Korrektur der NPE-Fehlermeldung für CSV-Dateien mit dem Trennzeichen NULL
  • [SPARK-48489] [SC-167598][sql] Auslösung einer besseren, benutzerorientierten Fehlermeldung, wenn ein ungültiges Schema aus einer Textdatenquelle gelesen wird
  • [SPARK-48471] [SC-167324][Core] Verbesserung der Dokumentation und des Benutzerhandbuchs für Historienserver
  • [SPARK-45891] [SC-167597] Beschreibung des Zerlegungsschemas für Variante
  • [SPARK-47333] [SC-159043][sql] Verwenden Sie checkInputDataTypes, um die Parametertypen der Funktion zu überprüfen. to_xml
  • [SPARK-47387] [SC-159310][sql] Entfernen Einiger nicht verwendeter Fehlerklassen
  • [SPARK-48265] [ES-1131440][sql] Reduktion konstanter Ausdrücke bei InferWindowGroupLimit
  • [SPARK-47716] [SC-167444][sql] Vermeiden von Ansichtsnamenkonflikten im semantischen Sortiertestfall in SQLQueryTestSuite
  • [SPARK-48159] [SC-167141][sql] Erweitern der Unterstützung für sortierte Zeichenfolgen in Datetime-Ausdrücken
  • [SPARK-48462] [SC-167271][sql][Tests] Verwendung mitSQLConf in Tests: Refactor HiveQuerySuite und HiveTableScanSuite
  • [SPARK-48392] [SC-167195][core] Gleichzeitiges Laden von spark-defaults.conf, wenn --properties-file angegeben ist
  • [SPARK-48468] [SC-167417] Hinzufügen der LogicalQueryStage-Schnittstelle im Katalysator
  • [SPARK-47578] [SC-164988][core] Manueller Backport für Spark PR #46309: Migrieren der Protokollwarnung mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48415] [SC-167321] Rücknahme des "[PYTHON] Refactor TypeName zur Unterstützung von parametrisierten Datentypen"
  • [SPARK-46544] [SC-151361][sql] Unterstützung von v2 DESCRIBE TABLE EXTENDED mit Tabellenstatistiken
  • [SPARK-48325] [SC-166963][Core] Geben Sie immer Nachrichten in ExecutorRunner.killProcess an
  • [SPARK-46841] [SC-167139][sql] Hinzufügung der Sortierunterstützung für ICU-Gebietsschemas und Sortierungsbezeichner
  • [SPARK-47221] [SC-157870][sql] Verwendet Signaturen von CsvParser zu AbstractParser
  • [SPARK-47246] [SC-158138][sql] Ersetzen von InternalRow.fromSeq durch new GenericInternalRow, um eine Sammlungskonvertierung zu sparen
  • [SPARK-47597] [SC-163932][Streaming] Manueller Backport für Spark PR #46192: Streaming: Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48415] [SC-167130][python] Umgestalten TypeName zur Unterstützung parametrisierter Datentypen
  • [SPARK-48434] [SC-167132][python][CONNECT] Erzwingen der Verwendung des zwischengespeicherten Schemas durch printSchema
  • [SPARK-48432] [ES-1097114][sql] Vermeiden des Entpackens von Ganzzahlen im UnivocityParser
  • [SPARK-47463] [SC-162840][sql] Verwenden von V2Predicate zum Umbrechen von Ausdrücken mit Rückgabetyp vom Typ boolean
  • [SPARK-47781] [SC-162293][sql] Behandlung negativer Skalenzahlen für JDBC-Datenquellen
  • [SPARK-48394] [SC-166966][core] Bereinigung von mapIdToMapIndex bei „mapoutput unregister“
  • [SPARK-47072] [SC-156933][sql] Korrigieren die unterstützten Intervallformate in Fehlermeldungen.
  • [SPARK-47001] [SC-162487][sql] Pushdownüberprüfung im Optimierer
  • [SPARK-48335] [SC-166387][python][CONNECT] Machen Sie _parse_datatype_string kompatibel mit Spark Connect
  • [SPARK-48329] [SC-166518][sql] Standardmäßig aktivieren spark.sql.sources.v2.bucketing.pushPartValues.enabled
  • [SPARK-48412] [SC-166898][python] Datentyp JSON-Parsing umstrukturieren
  • [SPARK-48215] [SC-166781][sql] Erweiterte Unterstützung für kollatierte Zeichenfolgen im date_format-Ausdruck
  • [SPARK-45009] [SC-166873][sql][FOLLOW UP] Hinzufügung einer Fehlerklasse und von Tests für die Dekorrelation von Prädikatunterabfragen in Join-Bedingungen, die auf beide untergeordnete Join-Elemente verweisen
  • [SPARK-47960] [SC-165295][ss][15.x] Ermöglicht die Verkettung anderer zustandsbehafteter Operatoren nach dem transformWithState-Operator.
  • [SPARK-48340] [SC-166468][python] Unterstützung für TimestampNTZ-Schemaableitung, wenn prefer_timestamp_ntz nicht angegeben ist
  • [SPARK-48157] [SC-165902][sql] Hinzufügen der Sortierunterstützung für CSV-Ausdrücke
  • [SPARK-48158] [SC-165652][sql] Hinzufügen der Sortierunterstützung für XML-Ausdrücke
  • [SPARK-48160] [ SC-166064][sql] Hinzufügen der Sortierunterstützung für XPATH-Ausdrücke
  • [SPARK-48229] [SC-165901][sql] Hinzufügen der Sortierunterstützung für inputFile-Ausdrücke
  • [SPARK-48367] [SC-166487][connect] Korrigiere lint-scala für scalafmt, um Dateien korrekt zu erkennen und zu formatieren.
  • [SPARK-47858] [SC-163095][spark-47852][PYTHON][sql] Umgestalten der Struktur für den DataFrame-Fehlerkontext
  • [SPARK-48370] [SC-166787][connect] „Checkpoint“ und localCheckpoint im Scala Spark Connect-Client
  • [SPARK-48247] [ SC-166028][python] Verwenden aller Werte in einem Dikt beim Ableiten des MapType-Schemas
  • [SPARK-48395] [SC-166794][python] Fix StructType.treeString für parametrisierte Typen
  • [SPARK-48393] [ SC-166784][python] Verschieben einer Gruppe von Konstanten in pyspark.util
  • [SPARK-48372] [ SC-166776][spark-45716][PYTHON] Implementieren StructType.treeString
  • [SPARK-48258] [SC-166467][python][CONNECT] „Checkpoint“ und localCheckpoint in Spark Connect

Weitere Informationen finden Sie unter Wartungsupdates von Databricks Runtime 15.4 LTS.

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.4 LTS
    • Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
  • Java: Zulu 8.78.0.19-CA-linux64
  • Skala: 2.12.15
  • Python: 3.11.11
  • R: 4.3.2
  • Delta Lake: 3.2.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
asttokens 2.0.5 astunparse 1.6.3 Azure Core 1.30.2
azure-storage-blob 12.19.1 azure-storage-file-datalake 12.14.0 backcall 0.2.0
schwarz 23.3.0 Blinker 1.4 boto3 1.34.39
botocore 1.34.39 CacheWerkzeuge 5.3.3 certifi 2023.7.22
cffi 1.15.1 Chardet 4.0.0 Charset-Normalizer 2.0.4
click 8.0.4 cloudpickle 2.2.1 comm 0.1.2
contourpy 1.0.5 Kryptografie 41.0.3 Fahrradfahrer 0.11.0
Cython 0.29.32 Databricks-SDK 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 Dekorateur 5.1.1 distlib 0.3.8
Einstiegspunkte 0,4 executing 0.8.3 Facettenübersicht 1.1.1
Dateisperrung 3.13.4 fonttools 4.25.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth 2.31.0
google-cloud-core 2.4.1 Google Cloud-Speicher 2.17.0 google-crc32c 1.5.0
google-resumable-media 2.7.1 googleapis-common-protos 1.63.2 GRPCIO 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 Jedi 0.18.1 jeepney 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 Schlüsselring 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-skinny 2.11.4
more-itertools 8.10.0 mypy-Erweiterungen 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 Packen 23.2
Pandas 1.5.3 parso 0.8.3 pathspec 0.10.3
patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Kissen 9.4.0 pip 23.2.1 platformdirs 3.10.0
plotly 5.9.0 Prompt-Toolkit 3.0.36 proto-plus 1.24.0
protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 14.0.1
Pyasn1 0.4.8 Pyasn1-Module 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.39
pyparsing 3.0.9 Python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
Pytz 2022.7 PyYAML 6,0 pyzmq 23.2.0
requests 2.31.0 rsa 4,9 s3transfer 0.10.2
scikit-learn 1.3.0 SciPy 1.11.1 Seegeboren 0.12.2
SecretStorage 3.3.1 setuptools 68.0.0 six 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id 5.11
Stapeldaten 0.2.0 StatistikModelle 0.14.0 Beharrlichkeit 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 Tornado 6.3.2
traitlets 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
ujson 5.4.0 unbeaufsichtigte Aktualisierungen 0,1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 wcwidth 0.2.5
Rad 0.38.4 zipp 3.11.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 05.02.2024 installiert: https://packagemanager.posit.co/cran/2024-02-05/.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 14.0.0.2 Askpass 1.2.0 prüfen, dass 0.2.1
backports 1.4.1 Basis 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 Blob 1.2.4 boot 1.3-28
brew 1.0-10 brio 1.1.4 broom 1.0.5
bslib 0.6.1 cachem 1.0.8 callr 3.7.3
Caret 6.0-94 CellRanger 1.1.0 chron 2.3-61
class 7.3-22 cli 3.6.2 clipr 0.8.0
clock 0.7.0 Gruppe 2.1.4 Codetools 0.2-19
colorspace 2.1-0 commonmark 1.9.1 Kompilierer 4.3.2
Konfiguration 0.3.2 conflicted 1.2.0 cpp11 0.4.7
Buntstift 1.5.2 Zugangsdaten 2.0.1 curl 5.2.0
data.table 1.15.0 Datensätze 4.3.2 DBI 1.2.1
dbplyr 2.4.0 desc 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.34
downlit 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 Ellipse 0.3.2 Evaluieren 0,23
Fans 1.0.6 farver 2.1.1 fastmap 1.1.1
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
Fremd 0.8-85 forge 0.2.0 fs 1.6.3
Zukunft 1.33.1 future.apply 1.11.1 gargle 1.5.2
Generika 0.1.3 gert 2.0.1 ggplot2 3.4.4
gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.2 Kleber 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
Grafiken 4.3.2 grGeräte 4.3.2 grid 4.3.2
gridExtra 2.3 gsubfn 0,7 gt 0.10.1
g-Tabelle 0.3.4 hardhat 1.3.1 Hafen 2.5.4
highr 0,10 hms 1.1.3 HTML-Werkzeuge 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 Ausweise 1.0.1 ini 0.3.1
IPRED 0.9-14 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 knitr 1,45 Kennzeichnung 0.4.3
later 1.3.2 lattice 0.21-8 lava 1.7.3
Lebenszyklus 1.0.4 listenv 0.9.1 Schmiermittel 1.9.3
magrittr 2.0.3 markdown 1.12 MASS 7.3-60
Matrix 1.5-4.1 memoise 2.0.1 Methoden 4.3.2
mgcv 1.8-42 Mime-Kunst 0,12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.1.1 parallel 4.3.2
parallel dazu 1.36.0 Säule 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 pROC 1.18.5 Prozessx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 Fortschritt 1.2.3
progressr 0.14.0 Versprechungen 1.2.1 proto 1.0.0
Stellvertreter 0.4-27 P.S. 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reaktivierbar 0.4.4
reactR 0.5.0 READR 2.1.5 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.3
Rezepte 1.0.9 Rückspiel 2.0.0 Rückspiel2 2.1.2
remotes 2.4.2.1 reprex 2.1.0 Umform2 1.4.4
rlang 1.1.3 rmarkdown 2,25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 RVEST 1.0.3 sass 0.4.8
scales 1.3.0 selectr 0.4-2 Sitzungsinformationen 1.2.2
shape 1.4.6 glänzend 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 spatial 7.3-15 splines 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 Statistiken 4.3.2
Statistiken4 4.3.2 Stringi 1.8.3 stringr 1.5.1
Überleben 3.5-5 swagger 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
Textgestaltung 0.3.7 Tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 Zeitumstellung 0.3.0
timeDate 4032.109 tinytex 0.49 Werkzeuge 4.3.2
Zeitzonendatenbank (tzdb) 0.4.0 URL-Prüfer 1.0.1 Nutze dies 2.2.2
utf8 1.2.4 utils 4.3.2 Universelle eindeutige Kennung (UUID) 1.2-0
V8 4.4.1 VCTRS 0.6.5 viridisLite 0.4.2
vroom 1.6.5 Waldo 0.5.2 whisker 0.4.1
Withr 3.0.0 xfun 0,41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 YAML-Dateiformat 2.3.8
zeallot 0.1.0 zip 2.3.1

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws AWS-Java-SDK-Config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-Protokolle 1.12.610
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.610
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Mitschüler 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone fehleranfällige_annotationen 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe Konfiguration 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,25
io.delta delta-sharing-client_2.12 1.1.1
io.dropwizard.metrics Metrikanmerkung 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics Metrik-Servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty Netty Codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammler 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow Pfeil-Format 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow Pfeil-Vektor 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper Tierpfleger 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty Jetty-Client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty Jetty-HTTP 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-Plus 9.4.52.v20230823
org.eclipse.jetty Jetty-Proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty Jetty-Server 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-Webanwendung 9.4.52.v20230823
org.eclipse.jetty Jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Endgültig
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap shims 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Test-Schnittstelle 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1