Freigeben über


Databricks Runtime 13.3 LTS

Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 13.3 LTS, die von Apache Spark 3.4.1 unterstützt wird.

Diese Version wurde von Databricks im August 2023 veröffentlicht.

Hinweis

LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.

Tipp

Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.

Neue Features und Verbesserungen

Scala-Unterstützung für freigegebene Cluster

Freigegebene Cluster mit Unity Catalog-Unterstützung unterstützen jetzt Scala, wenn Databricks Runtime 13.3 und höher verwendet wird.

Die Zulassungsliste für init-Skripts, JARs und Maven-Koordinaten für Unity-Katalog-Standardcluster (ehemals freigegebene Cluster) befindet sich in der öffentlichen Vorschau

Sie können jetzt den Unity-Katalog allowlist verwenden, um die Installation von Init-Skripts, JARs und Maven-Koordinaten für die Berechnung mit standardzugriffsmodus zu steuern, in dem Databricks Runtime 13.3 und höher ausgeführt wird. Weitere Informationen finden Sie unter Setzen von Bibliotheken und Inititalisierungsskripts auf Computeressourcen im Standardzugriffsmodus (ehemals freigegebener Zugriffsmodus) auf die Positivliste.

Volumes unterstützen Initialisierungsskripts und JARs in Public Preview

Sie können jetzt Unity-Katalogvolumes verwenden, um init-Skripts und JARs auf compute mit dedizierten oder standardzugriffsmodi zu speichern, die Databricks Runtime 13.3 und höher ausführen. Weitere Informationen finden Sie unter Wo können Initialisierungsskripts installiert werden? und Bibliotheken im Computebereich.

Sichere Umwandlungen sind für Delta Lake-Vorgänge standardmäßig aktiviert

Delta-UPDATE- und MERGE-Vorgänge führen jetzt zu einem Fehler, wenn Werte nicht sicher in den Typ im Schema der Zieltabelle umgewandelt werden können. Alle impliziten Umwandlungen in Delta folgen jetzt spark.sql.storeAssignmentPolicy statt spark.sql.ansi.enabled. Weitere Informationen finden Sie unter ANSI-Konformität in Databricks Runtime.

Einführung von Tags mit Unity Catalog

Mit Databricks Runtime 13.3 LTS und höher können Sie Tags auf Ihre sicherungsfähigen Objekte anwenden. Tags helfen Ihnen dabei, sicherungsfähige Objekte zu organisieren und die Suche und Ermittlung Ihrer Datenressourcen zu vereinfachen. Weitere Informationen finden Sie unter Anwenden von Tags auf sicherungsfähige Unity Catalog-Objekte.

Databricks Runtime gibt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und -aufrufung geändert wird

Databricks Runtime-Abfragen geben jetzt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und Aufruf aktualisiert wird. Vor dieser Änderung las Databricks Runtime eine Datei zwischen diesen Phasen, was gelegentlich zu unvorhersehbaren Ergebnissen führte.

Überschreiben des Blockschemas bei Verwendung von dynamischen Partitionsüberschreibungen

Sie können overwriteSchema in Kombination mit dynamischen Partitionsüberschreibungen in Delta Lake nicht auf true festlegen. Dadurch wird eine mögliche Tabellenbeschädigung aufgrund von Schemakonflikten verhindert. Weitere Informationen finden Sie unter dynamische Partitionsüberschreibungen.

Integrieren der copyFile-API in dbutils.fs.cp

Der Befehl dbutils copy, dbutils.fs.cp, ist jetzt für schnelleres Kopieren optimiert. Mit dieser Verbesserung können Kopiervorgänge je nach Dateigröße bis zu 100-mal schneller sein. Das Feature ist für alle Dateisysteme verfügbar, auf die in Azure Databricks zugegriffen werden kann, einschließlich für Unity-Katalogvolumes und Databricks File System-Einbindungen.

Databricks ODBC/JDBC-Treiberunterstützung

Azure Databricks unterstützt ODBC- und JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie den neuesten Treiber unter ODBC-Treiber herunterladen und JDBC-Treiber herunterladen herunter.

Unterstützung für nicht benannte (positionale) Parametermarker

Die SparkSession.sql()-API unterstützt jetzt parametrisierte Abfragen mithilfe der ?-Syntax zusätzlich zu parametrisierten Abfragen mithilfe der :parm-Syntax. Weitere Informationen finden Sie unter Parametermarker.

Aktivieren der Bezeichnung von Zeitreihenspalten

Sie können jetzt Zeitreihenspalten bezeichnen, wenn Sie Primärschlüsseleinschränkungen erstellen.

Neue Bitmap SQL-Funktionen

Azure Databricks hat jetzt eine Reihe von Funktionen bereitgestellt, mit denen integrale numerische Werte einer Bitmap zugeordnet und aggregiert werden können. Dies kann verwendet werden, um die Anzahl unterschiedlicher Werte vorab zu berechnen.

Verbesserte Verschlüsselungsfunktionen

Die Funktionen aes_encrypt, aes_decrypt und try_aes_decrypt wurden mit Unterstützung für Initialisierungsvektoren (IV) und authentifizierte zusätzliche Daten (AAD) verbessert.

Unity-Katalogunterstützung für REFRESH FOREIGN

Sie können jetzt fremde Kataloge, Schemas und Tabellen in Unity Catalog mithilfe von REFRESH FOREIGN CATALOG, REFRESH FOREIGN SCHEMA und REFRESH FOREIGN TABLE aktualisieren. Siehe REFRESH FOREIGN (CATALOG, SCHEMAund TABLE).

INSERT NAMENTLICH

Wenn Sie Zeilen in eine Tabelle einfügen, können Sie jetzt Azure Databricks die Spalten und Felder in der Quellabfrage automatisch anhand ihrer Namen den Spalten der Tabelle zuordnen lassen. Siehe INSERT INTO.

Freigeben materialisierter Ansichten mit Delta Sharing

Die ALTER SHARE Anweisung unterstützt jetzt materialisierte Ansichten.

Aktuelle Änderungen

Änderungen an impliziter Umwandlung beim Speichern von Zeilen in einer Tabelle mit MERGE INTO und UPDATE

Azure Databricks folgt nun der Konfiguration „spark.sql.storeAssignmentPolicy“ für die implizite Umwandlung beim Speichern von Zeilen in einer Tabelle. Der Standardwert „ANSI“ löst einen Fehler aus, wenn Werte gespeichert werden, die überlaufen. Zuvor wurden Werte standardmäßig als NULL gespeichert.

Wie im folgenden Beispiel können Sie Überläufe beheben, indem Sie die Tabelle umschreiben, um einen breiteren Typ für die Spalte zu verwenden, die den Fehler verursacht.

-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
    'delta.minReaderVersion' = '2',
    'delta.minWriterVersion' = '5',
    'delta.columnMapping.mode' = 'name'
  )

-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT

-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old

-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old

Parquet Schema Rückschlussänderungen

Beim Ableiten von Schemas aus Parquet-Dateien, die nicht von Spark geschrieben wurden, werden int64 Zeitstempelspalten, die mit isAdjustedToUTC=false Anmerkungen versehen sind, jetzt standardmäßig als TIMESTAMP_NTZ Typ festgelegt. Bisher wurden diese als TIMESTAMP Typ abgeleitet. Dieses Update verbessert die Genauigkeit der Zuordnung von Parquet-Typen zu Spark SQL-Typen.

Daher kann das Lesen von Daten aus externen Parquet-Dateien in eine Delta-Tabelle zu einem Fehler führen, wenn das timestampNtz Feature nicht aktiviert ist. Der Fehler wird wie folgt angezeigt:

Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.

Um das vorherige Verhalten beizubehalten und diesen Fehler zu verhindern, können Sie den Spark-Konfigurationsparameter von spark.sql.parquet.inferTimestampNTZ.enabled auf false setzen.

Bibliotheksupgrades

  • Aktualisierte Python-Bibliotheken:
    • debugpy von 1.5.1 auf 1.6.0
    • distlib von 0.3.6 auf 0.3.7
    • fastjsonschema von 2.16.3 auf 2.18.0
    • filelock von 3.12.0 auf 3.12.2
  • Aktualisierte R-Bibliotheken:
    • SparkR von 3.4.0 auf 3.4.1
  • Aktualisierte Java-Bibliotheken:
    • org.apache.orc.orc-core von 1.8.3-shaded-protobuf auf 1.8.4-shaded-protobuf
    • org.apache.orc.orc-mapreduce von 1.8.3-shaded-protobuf auf 1.8.4-shaded-protobuf
    • org.apache.orc.orc-shims von 1.8.3 auf 1.8.4
    • org.eclipse.jetty.jetty-client von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-continuation von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-http von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-io von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-jndi von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-plus von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-proxy von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-security von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-server von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-servlet von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-servlets von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-util von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-util-ajax von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-webapp von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.jetty-xml von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-api von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-client von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-common von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-server von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-servlet von 9.4.50.v20221201 auf 9.4.51.v20230217
    • org.xerial.snappy.snappy-java von 1.1.8.4 auf 1.1.10.1

Apache Spark

Databricks Runtime 13.3 enthält Apache Spark 3.4.1. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 13.2 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen, die an Spark vorgenommen wurden:

  • Sie können jetzt die Clusterumgebungsvariable SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12 festlegen, um Spark-snowflake-Connector v2.12.0 zu verwenden.
  • [SPARK-43380] [DBRRM-383] Revert "[SC-133100][sql] Fix Avro-Datentypenkonvertierung..."
  • [SPARK-44504] [Backport][13.2][13.x][13.3] Entladen des Anbieters, wodurch die DB-Instanz zum Schließen und Freigeben von Ressourcen bei Wartungsaufgabenfehler gezwungen wird
  • [SPARK-44059] [SC-137023] Hinzufügen der Analyseunterstützung benannter Argumente für integrierte Funktionen
  • [SPARK-44485] [SC-137653][sql] Optimize TreeNode.generateTreeString
  • [SPARK-42944] [ SC-137164][ss][PYTHON] Streaming ForeachBatch in Python
  • [SPARK-44446] [ SC-136994][python] Fügen Sie Überprüfungen für erwartete Listentyp-Sonderfälle hinzu.
  • [SPARK-44439] [SC-136973][connect][SS] Problem mit listListeners behoben, sodass nur IDs an den Client zurückgesendet werden.
  • [SPARK-44216] [SC-136941] [PYTHON] AssertSchemaEqual-API öffentlich machen
  • [SPARK-44201] [SC-136778][connect][SS]Unterstützung für Streaming Listener in Scala für Spark Connect hinzufügen
  • [SPARK-43915] [SC-134766][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2438-2445] zu.
  • [SPARK-43798] Rückgängig machen von “[SC-133990][sql][PYTHON] Unterstützung von benutzerdefinierten Python-Tabellenfunktionen”
  • [SPARK-44398] [SC-136720][connect] Scala foreachBatch-API
  • [SPARK-44476] [SC-137169][core][CONNECT] Fehler bei der Befüllung von Artefakten für einen JobArtifactState ohne zugehörige Artefakte beheben.
  • [SPARK-44269] [SC-135817][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2310-2314] zu.
  • [SPARK-44395] [SC-136744][sql] Aktualisierung der TVF-Argumente, sodass Klammern um den Bezeichner nach dem Schlüsselwort erforderlich sind.
  • [SPARK-43915] [SC-134766][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2438-2445] zu.
  • [SPARK-43995] [SC-136794][spark-43996][CONNECT] Hinzufügen von Unterstützung für UDFRegistration zum Connect Scala Client
  • [SPARK-44109] [SC-134755][core] Entfernen der doppelt vorhandenen bevorzugten Speicherorte jeder RDD-Partition
  • [SPARK-44169] [SC-135497][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2300-2304] zu.
  • [SPARK-41487] [SC-135636][sql] Weisen Sie _LEGACY_ERROR_TEMP_1020 einen Namen zu
  • [SPARK-44398] [SC-136720][connect] Scala foreachBatch-API
  • [SPARK-44153] [SC-134977][core][UI] Heap Histogram Spalte im Executors Tab unterstützen
  • [SPARK-44044] [ SC-135695][ss] Fehlermeldung für Fensterfunktionen mit Streaming verbessern
  • [SPARK-43914] [SC-135414][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2433-2437] zu.
  • [SPARK-44217] [ SC-136805][python] Zulassen der benutzerdefinierten Genauigkeit für die ca. Gleichheit von fp
  • [SPARK-44370] [SC-136575][connect] Migration der Buf-Remotegeneration-Alpha zu Remote-Plugins
  • [SPARK-44410] [SC-136930][python][CONNECT] Aktive Sitzung beim Erstellen festlegen, nicht nur bei getOrCreate.
  • [SPARK-44348] [SAS-1910][sc-136644][13.X][core][CONNECT][python] Test_Artifact mit relevanten Änderungen wieder aktivieren
  • [SPARK-44145] [ SC-136698][sql] Rückruf, wenn sie zur Ausführung bereit ist
  • [SPARK-44264] [SC-136870][python][ML] FunctionPickler-Klasse
  • [SPARK-43986] [SC-135623][sql] Fehlerklassen für HyperLogLog-Funktionsaufruffehler erstellen
  • [SPARK-44139] [ SC-134967][sql] Verwerfen vollständig heruntergedrückter Filter in gruppenbasierten MERGE-Vorgängen
  • [SPARK-44338] [SC-136718][sql] Fehlermeldung für Ansichtsschema-Mismatch beheben
  • [SPARK-44208] [SC-135505][Core][SQL] Weisen Sie eindeutige Fehlerklassennamen für eine Logik zu, die direkt Ausnahmen verwendet
  • [SPARK-44364] [SC-136773] [PYTHON] Hinzufügen der Unterstützung für den Datentyp List[Row] für erwartet
  • [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils sollte ResolveTimeZone anwenden
  • [SPARK-43389] [SC-136772][sql] Es wurde eine NULL-Prüfung für lineSep-Option hinzugefügt.
  • [SPARK-44388] [SC-136695][connect] Behebung eines Protobuf-Konvertierungsproblems bei Aktualisierung der UDF-Instanz
  • [SPARK-44352] [ SC-136373][connect] Setzen Sie sameType und Freunde in DataType zurück.
  • [SPARK-43975] [SC-134265][sql] DataSource V2: Umgang mit UPDATE Befehlen für gruppenbasierte Quellen
  • [SPARK-44360] [SC-136461][sql] Unterstützung der Schemabereinigung in deltabasierten MERGE-Vorgängen
  • [SPARK-44138] [SC-134907][sql] Verbieten von nicht deterministischen Ausdrücken, Unterabfragen und Aggregaten in MERGE-Bedingungen
  • [SPARK-43321] [SC-136678][connect][Followup] Bessere Namen für APIs, die in Scala Client joinWith verwendet werden
  • [SPARK-44263] [SC-136447][connect] Unterstützung für Custom Interceptors
  • [SPARK-39851] [SC-123383][sql] Verbesserung der Join-Statistiken, wenn eine Seite die Einzigartigkeit beibehalten kann
  • [SPARK-44390] [ SC-136677][core][SQL] Umbenennen SparkSerDerseUtils in SparkSerDeUtils
  • [SPARK-44004] [SC-134751][sql] Namen zuweisen und Fehlermeldung für häufige LEGACY-Fehler verbessern.
  • [SPARK-44322] [SC-136204][connect] Parser so ändern, dass SqlApiConf statt SQLConf verwendet wird.
  • [SPARK-44271] [SC-136347][sql] Verschieben von Standardwertfunktionen von StructType zu ResolveDefaultColumns
  • [SPARK-44332] [SC-136413][core][WEBUI] Behebung des Sortierfehlers in der Executor-ID-Spalte auf der Executors-Benutzeroberflächenseite
  • [SPARK-44282] [SC-135948][connect] Vorbereiten der DataType-Analyse für die Verwendung in Spark Connect Scala Client
  • [SPARK-44349] [ SC-136581][r] Hinzufügen mathematischer Funktionen zu SparkR
  • [SPARK-44397] [SC-136647][python] assertDataFrameEqual in pyspark.testing.utils verfügbar machen
  • [SPARK-42981] [ SC-136620][connect] Direkte Pfeil serialisierung hinzufügen
  • [SPARK-44373] [SC-136577][sql] Mit 'withActive' die Dataset-API mit Parse-Logik umschließen, um parserbezogene Konfigurationen funktionsfähig zu machen.
  • [SPARK-44340] [SC-136574][sql] Definieren der Computerlogik über die PartitionEvaluator-API und verwenden sie in WindowGroupLimitExec
  • [SPARK-43665] [SC-136573][connect][PS] Aktivieren Von PandasSQLStringFormatter.vformat für die Arbeit mit Spark Connect
  • [SPARK-44325] [SC-136572][sql] Verwenden der PartitionEvaluator-API in SortMergeJoinExec
  • [SPARK-44315] [SC-136171][sql][CONNECT] Verschiebe DefinedByConstructorParams zu sql/api
  • [SPARK-44275] [SC-136184][connect] Hinzufügen eines konfigurierbaren Wiederholungsmechanismus zu Scala Spark Connect
  • [SPARK-44326] [SC-136208][sql][CONNECT] Verschiebe Hilfsprogramme, die vom Scala-Client verwendet werden, in die gemeinsamen Module.
  • [SPARK-43321] [ SC-136156][connect] Dataset#Joinwith
  • [SPARK-44343] [SC-136372][connect] Bereite ScalaReflection auf den Wechsel zu SQL/API vor
  • [SPARK-44313] [SC-136081][sql] Korrigieren der Überprüfung des generierten Spaltenausdrucks, wenn im Schema eine Char/Varchar-Spalte vorhanden ist
  • [SPARK-43963] [SC-134145][sql] DataSource V2: Behandeln von MERGE-Befehlen für gruppenbasierte Quellen
  • [SPARK-44363] [SC-136433] [PYTHON] Anzeigen in Prozent der ungleichen Zeilen im DataFrame-Vergleich
  • [SPARK-44251] [SC-136432][sql] Setzen Sie die Nullfähigkeit für den koaleszierten Join-Schlüssel in einer vollständigen Outer-USING-Verknüpfung korrekt fest.
  • [SPARK-43948] [SC-133366][sql] Namen der Fehlerklasse LEGACY_ERROR_TEMP[0050|0057|0058|0059] zuweisen
  • [SPARK-44329] [SC-136326][connect][PYTHON] Hinzufügen von hll_sketch_agg, hll_union_agg, to_varchar, try_aes_decrypt zu Scala und Python
  • [SPARK-44351] [ SC-136353][sql] Machen Sie eine syntaktische Vereinfachung
  • [SPARK-44281] [SC-135963][sql] Verschiebe den von DataType verwendeten QueryCompilation-Fehler zu sql/api als DataTypeErrors.
  • [SPARK-44283] [SC-136109][connect] Ursprung in SQL/API verschieben
  • [SPARK-43926] [SC-135590][connect][PYTHON] Add arrayagg, array_size, Kardinalität, count_min_sketch,mask,named_struct,json* to Scala and Python
  • [SPARK-44327] [SC-136187][sql][CONNECT] Funktionen any und len zu Scala hinzufügen
  • [SPARK-44290] [ SC-136300][connect] Sitzungsbasierte Dateien und Archive in Spark Connect
  • [SPARK-44061] [ SC-136299][python] Funktion "assertDataFrameEqual util" hinzufügen
  • [SPARK-44331] [SC-136324][connect][PYTHON] Hinzufügen von Bitmapfunktionen zu Scala und Python
  • [SPARK-44342] [SC-136334][sql] Ersetzen von SQLContext durch SparkSession für GenTPCDSData
  • [SPARK-42583] [SC-124190][sql] Entfernen Sie die äußere Verknüpfung, wenn sie alle unterschiedlichen Aggregatfunktionen sind
  • [SPARK-44333] [SC-136206][connect][SQL] Verschieben von EnhancedLogicalPlan aus ParserUtils
  • [SPARK-43824] [SC-132655][spark-43825] [SQL] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_128[1-2] zu.
  • [SPARK-43939] [SC-134602][connect][PYTHON] Fügen Sie try_* Funktionen zu Scala und Python hinzu
  • [SPARK-44193] [SC-135886][connect] Implementierung des Abfangens von GRPC-Ausnahmen für die Konvertierung
  • [SPARK-44284] [SC-136107][connect] Erstellen eines einfachen Konf-Systems für sql/api
  • [SPARK-43913] [SC-133368][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2426-2432] zu.
  • [SPARK-44291] Änderung rückgängig machen “[SC-135924][spark-43416][CONNECT] Korrigieren eines falschen Schemas für die Bereichsabfrage”
  • [SPARK-44312] [SC-136185][connect][PYTHON] Zulassen, dass ein Benutzer-Agent mit einer Umgebungsvariablen festgelegt werden kann
  • [SPARK-44154] [SC-136060] Implementieren von Bitmapfunktionen
  • [SPARK-43885] [SC-133996][sql] DataSource V2: Behandeln von MERGE-Befehlen für deltabasierte Quellen
  • [SPARK-43924] [SC-135161][connect][PYTHON] Hinzufügen von misc-Funktionen zu Scala und Python
  • [SPARK-43969] [SC-134556][sql] Umgestalten und Zuweisen von Namen zur Fehlerklasse _LEGACY_ERROR_TEMP_1170
  • [SPARK-44185] [SC-135730][sql] Behebung der inkonsistenten Pfadqualifizierung zwischen Katalog- und Datenvorgängen
  • [SPARK-44073] [SC-134562][sql][PYTHON][connect] Datums- und Zeitfunktionen hinzufügen zu Scala, Python und Connect - Teil 2
  • [SPARK-43942] [SC-134527][connect][PYTHON] Hinzufügen von Zeichenfolgenfunktionen zu Scala und Python – Teil 1
  • [SPARK-44266] [SC-135813][sql] Verschieben Util.truncatedString nach sql/api
  • [SPARK-44195] [ SC-135722][r] Hinzufügen von JobTag-APIs zu SparkR SparkContext
  • [SPARK-44200] [SC-135736][sql] Unterstützungsargumentparserregel TABLE für TableValuedFunction
  • [SPARK-44254] [SC-135709][sql] Verschiebe QueryExecutionErrors, die von DataType verwendet werden, in sql/api als DataTypeErrors.
  • [SPARK-44291] [SC-135924][spark-43416][CONNECT] Korrigieren eines falschen Schemas für die Bereichsabfrage
  • [SPARK-43922] [SC-135612][sql] Hinzufügen der Unterstützung benannter Parameter in Parser für Funktionsaufrufe
  • [SPARK-44300] [SC-135882][connect] Korrektur der Artefaktbereinigung, um den Löschbereich auf sitzungsspezifische Artefakte zu beschränken
  • [SPARK-44293] [SC-135849][connect] Beheben ungültiger URI für benutzerdefinierte JARs in Spark Connect
  • [SPARK-44215] [SC-135850][shuffle] Wenn die Anzahl der Blöcke 0 ist, sollte der Server eine RuntimeException auslösen.
  • [SPARK-44245] [SC-135851][python] pyspark.sql.dataframe sample() doctests sollten nur illustrativ sein
  • [SPARK-44274] [SC-135814][connect] Verschieben von Hilfsfunktionen, die vom ArtifactManager verwendet werden, zu common/utils.
  • [SPARK-44194] [SC-135815][python][CORE] Hinzufügen von JobTag-APIs zu PySpark SparkContext
  • [SPARK-42828] [SC-135733][python][SQL] Explizitere Python-Typanmerkungen für GroupedData
  • [SPARK-44079] [SC-135486][sql] Fehler beheben ArrayIndexOutOfBoundsException, wenn Arrays im PERMISSIVE-Modus mit fehlerhaften Datensätzen verarbeitet werden
  • [SPARK-44255] [SC-135809][sql] Verschieben von StorageLevel auf gemeinsame/utils
  • [SPARK-42169] [SC-135795] [SQL] Implementieren der Codegenerierung für to_csv-Funktion (StructsToCsv)
  • [SPARK-44249] [SC-135719][sql][PYTHON] Refactor PythonUDTFRunner, um den Rückgabetyp separat zu senden
  • [SPARK-43353] [SC-132734][python] Migriere verbleibende Sitzungsfehler in Fehlerklasse
  • [SPARK-44211] [ SC-135718][python][CONNECT] Implementieren von SparkSession.is_stopped
  • [SPARK-42784] [SC-135691] sollte weiterhin subDir erstellen, wenn die Anzahl von subDir im Mergeverzeichnis kleiner ist als conf
  • [SPARK-41599] [SC-135616] Speicherverlust in FileSystem.CACHE beim Übermitteln von Apps an einen sicheren Cluster mithilfe von InProcessLauncher
  • [SPARK-44241] [SC-135613][Core] Legen Sie "io.connectionTimeout/connectionCreationTimeout" auf Null oder negativ fest, was zu unauffälligen Vollstreckungsausführern führt.
  • [SPARK-44133] [ SC-134795][13.x][PYTHON] Upgrade MyPy von 0.920 auf 0,982
  • [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde im JSON-Format
  • [SPARK-44188] [SC-135173][Core] Entfernen sie nutzlose resetAllPartitions Methode in ActiveJob
  • [SPARK-43757] [SC-135418][connect] Ändern der Kundenkompatibilität von der Erlaubnisliste zum Ablehnungsregister
  • [SPARK-43474] [SC-135521] [SS] [CONNECT] Hinzufügen eines Spark Connect-Zugriffs auf Laufzeitdatenframes nach ID.
  • [SPARK-44183] [ SC-135209][python] Mindestversion auf PyArrow 4.0.0 erhöhen
  • [SPARK-44248] [SC-135554][ss][SQL][kafka] Hinzufügen eines bevorzugten Speicherorts in der Kafka-Quelle v2
  • [SPARK-43929] [SC-134510][sql][PYTHON][connect] Hinzufügen von Datumszeitfunktionen zu Scala, Python und Connect API – Teil 1
  • [SPARK-44161] [SC-135326][connect] Verarbeitung von Zeileninput für UDFs
  • [SPARK-44227] [SC-135520][sql] Extrahieren von SchemaUtils aus StructField
  • [SPARK-44064] [SC-135116][Core][SQL] Hinzufügen einer neuen apply Funktion zu NonFateSharingCache
  • [SPARK-44171] [SC-135269][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2279-2282] zu und löschen Sie einige nicht verwendete Fehlerklassen.
  • [SPARK-44056] [SC-134758][sql] Schließen Sie UDF-Namen in UDF-Ausführungsfehlerfehlermeldung ein, wenn verfügbar
  • [SPARK-44205] [ SC-135422][sql] Katalysatorcode aus DecimalType extrahieren
  • [SPARK-44220] [ SC-135484][sql] StringConcat in sql/api verschieben
  • [SPARK-44146] [SC-135230][connect] Isolieren von Spark Connect Session Jars und Classfiles
  • [SPARK-44206] [ SC-135411][sql] DataSet.selectExpr scope Session.active
  • [SPARK-40850] [SC-135417][sql] Behebung des Testfalls, dass interpretierte Abfragen Codegen ausführen können
  • [SPARK-44204] [SC-135253][sql][HIVE] Fügen Sie fehlenden recordHiveCall für getPartitionNames hinzu.
  • [SPARK-44237] [ SC-135485][core] Vereinfachen der DirectByteBuffer-Konstruktor-Suchlogik
  • [SPARK-44189] [ SC-135170][connect][PYTHON] Unterstützen Positionsparameter nach sql()
  • [SPARK-44140] [SC-134893][sql][PYTHON] Unterstützen Positionsparameter in Python sql()
  • [SPARK-44164] [SC-135158][sql] Extrahiere die Methode toAttribute von StructField in die Util-Klasse
  • [SPARK-44178] [SC-135113][connect] Positionsparameter unterstützen in sql()
  • [SPARK-43208] [SC-128955][sql][HIVE] IsolatedClassLoader sollte die Barriereklasse InputStream nach dem Lesen schließen
  • [SPARK-43063] [SC-128382][sql] df.show handle null sollte NULL statt null anzeigen
  • [SPARK-42539] [SC-124464][sql][HIVE] Entfernen Sie den separaten Classloader bei Verwendung der "builtin"-Version von Hive für den Metadatenclient
  • [SPARK-43992] [ SC-133645][sql][PYTHON][connect] Fügen Sie optionales Muster für Catalog.listFunctions hinzu.
  • [SPARK-44066] [SC-134878][sql] Unterstützen von Positionsparametern in Scala/Java sql()
  • [SPARK-44078] [SC-134869][connect][CORE] Unterstützung für Classloader-/Ressourcen-Isolation hinzufügen
  • [SPARK-43470] [SC-135187][core] Hinzufügen von Betriebssystem-, Java- und Python-Versionsinformationen zum Anwendungsprotokoll
  • [SPARK-43136] [SC-135238][connect][Followup] Hinzufügen von Tests für KeyAs
  • [SPARK-39740] [SC-135093][ui]: Aktualisiere vis timeline auf 7.7.2, um CVE-2020-28487 zu beheben
  • [SPARK-42298] [SC-133952][sql] Name zuweisen für _LEGACY_ERROR_TEMP_2132
  • [SPARK-43961] [SC-133459][sql][PYTHON][connect] Fügen Sie optionales Muster für Catalog.listTables hinzu.
  • [SPARK-44026] [SC-135181] Bereitstellen des Anfangswerts für SQLMetrics zulassen
  • [SPARK-44202] [SC-135244][core] Hinzufügen von JobTag-APIs zu JavaSparkContext
  • [SPARK-44030] [SC-135237][sql] Implementieren von DataTypeExpression zum Anbieten von "Unapply" für Ausdrücke
  • [SPARK-43876] "[SC-134603][sql] Schnelle Hashmap für unterschiedliche Abfragen aktivieren" wiederherstellen
  • [SPARK-40082] [SC-126437] MergeFinalize planen, wenn Pushen der Zusammenführung von shuffleMapStage neu versucht wird, aber keine ausgeführten Tasks vorhanden sind
  • [SPARK-43888] [SC-132893][core] Verlagern der Protokollierung zu gemeinsamen Dienstprogrammen
  • [SPARK-43474] [SC-134400] [SS] [CONNECT] Hinzufügen von SessionHolder zu SparkConnectPlanner
  • [SPARK-43944] [SC-134490][connect][PYTHON] Hinzufügen von Zeichenfolgenfunktionen zu Scala und Python – Teil 2
  • [SPARK-44134] [SC-134954][core] Behebt das Festlegen der Ressourcen (GPU/FPGA) auf 0, wenn sie in spark-defaults.conf eingestellt sind.
  • [SPARK-44142] [SC-134947][python] Ersetzen Sie den Typ durch tpe im Hilfsprogramm, um Python-Typen in Spark-Typen zu konvertieren.
  • [SPARK-43952] [SC-134695][core][CONNECT][sql] Fügen Sie SparkContext-APIs für die Abbruch von Abfragen nach Tag hinzu
  • [SPARK-44000] [SC-133634][sql] Hinzufügen eines Hinweises zur Vermeidung der Übertragung und Replikation einer Seite der Verknüpfung
  • [SPARK-43937] [SC-134362][connect][PYTHON] Fügen Sie ifnull,isnotnull,equal_null,nullif,nvl,nvl,nvl,nvl2 zu Scala und Python hinzu.
  • [SPARK-43624] [13.x][sc-134557][PS][connect] Zu SparkConnectPlanner hinzufügen EWM .
  • [SPARK-44040] [SC-134366][sql] Berechnung von Statistiken korrigieren, wenn der AggregateExec-Knoten über dem QueryStageExec liegt
  • [SPARK-43485] [SC-131264][sql] Beheben Sie die Fehlermeldung für das unit Argument der Datetime-Add-/Diff-Funktionen.
  • [SPARK-43794] [SC-132561][sql] Ordnen Sie der Fehlerklasse mit dem Namen _LEGACY_ERROR_TEMP_1335 einen neuen Namen zu.
  • [SPARK-43511] [SC-134749][connect][SS]Implementierte MapGroupsWithState- und FlatMapGroupsWithState-APIs für Spark Connect
  • [SPARK-43529] [SQL] Unterstützung von CREATE/REPLACE TABLE OPTIONS-Ausdrücken + Codebereinigung
  • [SPARK-44106] [SC-134750][python][CONNECT] Einfügen __repr__ für GroupedData
  • [SPARK-42299] [SC-133190] Name für _LEGACY_ERROR_TEMP_2206 zuweisen
  • [SPARK-43290] [SC-134388][sql] Fügt Unterstützung für aes_encrypt IVs und AAD hinzu
  • [SPARK-43932] [SC-134138][sql][PYTHON][connect] Fügen Sie current ähnliche Funktionen zu Scala und Python hinzu
  • [SPARK-43934] [SC-134108][sql][PYTHON][connect] Fügen Sie regexp_*-Funktionen zu Scala und Python hinzu.
  • [SPARK-44107] [SC-134746][connect][PYTHON] Ausblenden nicht unterstützter Spaltenmethoden aus automatischer Vervollständigung
  • [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde im JSON-Format
  • [SPARK-43773] [SC-132659][connect][PYTHON] Implementieren von Funktionen von "levenshtein(str1, str2[, threshold])" in Python-Client
  • [SPARK-44125] [SC-134745][r] Unterstützung von Java 21 in SparkR
  • [SPARK-43919] [SC-133374][sql] Extrahierung der JSON-Funktionalität aus Zeile
  • [SPARK-43769] [SC-132520][connect] Implementieren von Funktionen "levenshtein(str1, str2[, threshold])"
  • [SPARK-44012] [SC-134662][ss] KafkaDataConsumer zum Drucken eines Lesestatus
  • [SPARK-43876] [SC-134603][sql] Schnelle Hashmap für unterschiedliche Abfragen aktivieren
  • [SPARK-44024] [SC-134497][sql] Ändern, um map zu verwenden, wenn unzip nur zum Extrahieren eines einzelnen Elements verwendet wird
  • [SPARK-43928] [SC-134467][sql][PYTHON][connect] Fügen Sie Bitvorgänge zu Scala, Python und Connect-API hinzu
  • [SPARK-44092] [ SC-134506][core] Hinzufügen Utils.isJavaVersionAtLeast21 und Erstellen eines core Moduldurchlaufs mit Java 21
  • [SPARK-44018] [SC-134512][sql] Verbessern Sie den HashCode und toString für einige DS V2-Ausdrücke
  • [SPARK-44105] [SC-134582][sql] LastNonNull sollte träge aufgelöst werden
  • [SPARK-44081] [SC-134434] Gewisse Vereinfachung der PartitionedFileUtil-API
  • [SPARK-43791] [SC-132531][sql] Fehlerklasse _LEGACY_ERROR_TEMP_1336 einen Namen zuweisen.
  • [SPARK-44071] [SC-134435] Definieren und Verwenden von Unresolved[Leaf|Unary]Node-Eigenschaften.
  • [SPARK-43852] [ SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_2418-2425 zu.
  • [SPARK-43742] [ SC-132684][sql] Standardspaltenwertauflösung umgestalten
  • [SPARK-43493] [SC-132063][sql] Fügen Sie der Funktion levenshtein() ein Argument für den maximalen Abstand hinzu.
  • [SPARK-44075] [SC-134382][connect] Faul machen transformStatCorr
  • [SPARK-43925] [SC-134381][sql][PYTHON][connect] Fügen Sie some, bool_or, bool_and, every zu Scala, Python und Connect hinzu.
  • [SPARK-43931] [SC-134158][sql][PYTHON][connect] Fügen Sie make_*-Funktionen zu Scala und Python hinzu.
  • [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_24[06-10] zu.
  • [SPARK-43962] [SC-133367][sql] Verbessern von Fehlermeldungen: CANNOT_DECODE_URL, CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE, CANNOT_PARSE_DECIMAL, CANNOT_READ_FILE_FOOTER, CANNOT_RECOGNIZE_HIVE_TYPE.
  • [SPARK-43938] [ SC-133887][connect][PYTHON] Fügen Sie to_*-Funktionen zu Scala und Python hinzu.
  • [SPARK-44055] [ SC-134321][Kern] Entfernen redundanter override Funktionen aus CheckpointRDD
  • [SPARK-43802] [SC-132597][sql] Fixcodegen für unhex und unbase64 mit failOnError=true
  • [SPARK-43798] [SC-133990][sql][PYTHON] Unterstützen von benutzerdefinierten Python-Tabellenfunktionen
  • [SPARK-43941] [SC-134286][sql][PYTHON][connect] Fügen Sie any_value, approx_percentile, count_if, first_value, histogram_numeric, last_value, reduce zur Scala-, Python- und Connect-API hinzu.
  • [SPARK-43380] [SC-133100][sql] Beheben von Avro-Datentypkonvertierungsproblemen, um falsche Ergebnisse zu vermeiden
  • [SPARK-43803] [SC-133729] [SS] [CONNECT] Verbessern von awaitTermination(), um client disconnects () zu verarbeiten
  • [SPARK-43179] [SC-129070][shuffle] Ermöglicht es Anwendungen, zu steuern, ob ihre Metadaten durch den External Shuffle Service in der Datenbank gespeichert werden.

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Siehe Databricks Runtime 13.3 Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.2 LTS
    • Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
  • Java: Zulu 8.70.0.23-CA-linux64
  • Skala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
Appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 Attrs 21.4.0 Backcall 0.2.0
beautifulsoup4 4.11.1 schwarz 22.6.0 Bleichmittel 4.1.0
Blinker 1.4 Boto3 1.24.28 Botocore 1.27.28
Zertifizieren 2022.9.14 CFFI 1.15.1 Chardet 4.0.0
Charset-Normalizer 2.0.4 Klicken 8.0.4 Kryptographie 37.0.1
Fahrradfahrer 0.11.0 Cython 0.29.32 Databricks-SDK 0.1.6
dbus-python 1.2.18 debugpy 1.6.0 Dekorateur 5.1.1
defusedxml 0.7.1 Distlib 0.3.7 Docstring zu Markdown 0,12
Einstiegspunkte 0,4 ausführen 1.2.0 Übersicht der Facetten 1.0.3
fastjsonschema 2.18.0 Dateisperrung 3.12.2 fonttools 4.25.0
googleapis-common-protos 1.56.4 GRPCIO 1.48.1 grpcio-status 1.48.1
httplib2 0.20.2 idna 3.3 importlib-metadata 4.6.4
ipykernel 6.17.1 ipython 8.10.0 ipython-genutils 0.2.0
ipywidgets 7.7.2 Jedi 0.18.1 jeepney 0.7.1
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.2.0
jsonschema 4.16.0 Jupyter-Client 7.3.4 jupyter_core 4.11.2
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 Schlüsselring 23.5.0
kiwisolver 1.4.2 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 MarkupSafe 2.0.1 matplotlib 3.5.2
matplotlib-inline 0.1.6 Mccabe 0.7.0 verstimmen 0.8.4
more-itertools 8.10.0 mypy-Erweiterungen 0.4.3 nbclient 0.5.13
nbconvert 6.4.4 nbformat 5.5.0 nest-asyncio 1.5.5
nodeenv 1.8.0 Notebook 6.4.12 numpy 1.21.5
oauthlib 3.2.0 Packen 21,3 Pandas 1.4.4
Pandocfilter 1.5.0 Parso 0.8.3 Pfadangabe 0.9.0
Sündenbock 0.5.2 pexpect 4.8.0 Pickleshare 0.7.5
Kissen 9.2.0 Kern 22.2.2 platformdirs 2.5.2
Handlung 5.9.0 plugin-fähig 1.0.0 prometheus-client 0.14.1
Prompt-Toolkit 3.0.36 protobuf 3.19.4 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 8.0.0 Pycparser 2.21 Pydantisch 1.10.6
Pyflakes 3.0.1 Pygments 2.11.2 PyGObject 3.42.1
PyJWT 2.3.0 Pyodbc 4.0.32 Pyparsing 3.0.9
Pyright 1.1.294 Pyristent 0.18.0 Python-dateutil 2.8.2
python-lsp-jsonrpc 1.0.0 Python-LSP-Server 1.7.1 pytoolconfig 1.2.2
Pytz 2022.1 pyzmq 23.2.0 Anforderungen 2.28.1
Seil 1.7.0 s3transfer 0.6.0 scikit-lernen 1.1.1
SciPy 1.9.1 Seegeboren 0.11.2 SecretStorage 3.3.1
Send2Trash 1.8.0 setuptools 63.4.1 sechs 1.16.0
Sieb für Suppe 2.3.1 ssh-import-id 5.11 Stapeldaten 0.6.2
StatistikModelle 0.13.2 Hartnäckigkeit 8.1.0 terminado 0.13.1
Testpfad 0.6.0 Threadpoolctl 2.2.0 tokenize-rt 4.2.1
tomli 2.0.1 Tornado 6.1 Traitlets 5.1.1
typing_extensions 4.3.0 ujson 5.4.0 unbeaufsichtigte Aktualisierungen 0,1
urllib3 1.26.11 virtualenv 20.16.3 Wadllib 1.3.6
wcwidth 0.2.5 Webkodierungen 0.5.1 Was ist neu im Patch 1.0.2
Rad 0.37.1 widgetsnbextension 3.6.1 yapf 0.31.0
ZIPP 1.0.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus dem CRAN-Snapshot des Posit-Paket-Managers am 2023-02-10 installiert: https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 10.0.1 Askpass 1.1 prüfen, dass 0.2.1
Backports 1.4.1 Basis 4.2.2 base64enc 0.1-3
Bit 4.0.5 Bit64 4.0.5 Blob 1.2.3
Boot 1.3-28 brauen 1,0 - 8 Brio 1.1.3
Besen 1.0.3 bslib 0.4.2 cachem 1.0.6
Callr 3.7.3 Caret 6.0-93 CellRanger 1.1.0
Chron 2.3-59 Klasse 7.3-21 cli 3.6.0
Schermaschine 0.8.0 Uhr 0.6.1 Gruppe 2.1.4
Codetools 0.2-19 Farbraum 2.1-0 Commonmark 1.8.1
Kompilierer 4.2.2 Konfiguration 0.3.1 cpp11 0.4.3
Buntstift 1.5.2 Anmeldeinformationen 1.3.2 Locke 5.0.0
data.table 1.14.6 Datensätze 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Beschreibung 1.4.2 devtools 2.4.5
diffobj 0.3.5 verdauen 0.6.31 Nach unten gerichtete Beleuchtung 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
Ellipse 0.3.2 Evaluieren 0,20 Fans 1.0.4
Farben 2.1.1 fastmap 1.1.0 fontawesome 0.5.0
Sträflinge 1.0.0 Foreach 1.5.2 Fremd 0.8-82
schmieden 0.2.0 Fs 1.6.1 Zukunft 1.31.0
future.apply 1.10.0 gurgeln 1.3.0 Generika 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 Globale Werte 0.16.2
Klebstoff 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 Grafiken 4.2.2 grGeräte 4.2.2
Raster 4.2.2 gridExtra 2.3 gsubfn 0,7
g-Tabelle 0.3.1 Schutzhelm 1.2.0 Hafen 2.5.1
Highr 0,10 HMS 1.1.2 HTML-Werkzeuge 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Ausweise 1.0.1 ini 0.3.1 IPRED 0.9-13
Isobande 0.2.7 Iteratoren 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 Knitr 1.42
Etikettierung 0.4.2 später 1.3.0 Gitter 0.20-45
Lava 1.7.1 Lebenszyklus 1.0.3 „listenv“ 0.9.0
Schmiermittel 1.9.1 magrittr 2.0.3 Abschlag 1.5
MASSE 7.3-58.2 Matrix 1.5-1 Zwischenspeichern 2.0.1
Methodik 4.2.2 mgcv 1.8-41 Mime-Kunst 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 Modellierer 0.1.10
munsell 0.5.0 nlme 3.1-162 NNET 7.3-18
numDeriv 2016.8 bis 1.1 OpenSSL 2.0.5 parallel 4.2.2
parallel dazu 1.34.0 Säule 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
PLOGR 0.2.0 plyr 1.8.8 loben 1.0.0
prettyunits 1.1.1 Proc 1.18.0 Prozessx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Fortschritt 1.2.2
progressr 0.13.0 Versprechungen 1.2.0.1 Prototyp 1.0.0
Stellvertreter 0.4-27 P.S. 1.7.2 schnurren 1.0.1
r2d3 0.2.6 R6 2.5.1 Ragg 1.2.5
randomForest (Zufälliger Wald) 4.7-1.1 Rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrauer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
READR 2.1.3 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.2 Rezepte 1.0.4
Rückspiel 1.0.1 Rückspiel2 2.1.2 fernbedienungen 2.4.2
reproduzierbares Beispiel 2.0.2 Umform2 1.4.4 rlang 1.0.6
RMarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
RVEST 1.0.3 Sass 0.4.5 Waage 1.2.1
Auswahl 0.4-2 Sitzungsinformationen 1.2.2 Gestalt 1.4.6
glänzend 1.7.4 sourcetools 0.1.7-1 Sparklyr 1.7.9
SparkR 3.4.1 räumlich 7.3-15 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 Statistiken 4.2.2
Statistiken4 4.2.2 Stringi 1.7.12 stringr 1.5.0
Überleben 3.5-3 sys 3.4.1 systemfonts 1.0.4
TCLTK 4.2.2 testthat 3.1.6 Textgestaltung 0.3.6
Tibble 3.1.8 Räumter 1.3.0 aufräumen 1.2.0
aufräumen 1.3.2 Zeitumstellung 0.2.0 timeDatum 4022.108
tinytex 0.44 Tools 4.2.2 Zeitzonendatenbank (tzdb) 0.3.0
URL-Prüfer 1.0.1 Nutze dies 2.1.6 utf8 1.2.3
Dienstprogramme und Funktionen 4.2.2 Universelle eindeutige Kennung (UUID) 1.1-0 VCTRS 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
Backenbart 0.4.1 Withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML-Dateiformat 2.3.7 schwirren 2.2.2

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws aws-java-sdk-Autoskalierung 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws AWS-Java-SDK-Config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-db 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-Protokolle 1.12.390
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.390
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.2.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-schattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone fehleranfällige Annotationen 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guave 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-servers 11.2.2.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tduning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe Konfiguration 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,21
io.delta delta-sharing-spark_2.12 0.7.1
io.dropwizard.metrics Metrics-Kernbibliothek 4.2.10
io.dropwizard.metrics Metrics-Graphit 4.2.10
io.dropwizard.metrics Metrik-Gesundheitschecks 4.2.10
io.dropwizard.metrics Metrics-Jetty9 4.2.10
io.dropwizard.metrics Metrics-JMX 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics Metrik-Servlets 4.2.10
io.netty nett-all 4.1.87.Final
io.netty Netty-Buffer 4.1.87.Final
io.netty Netty Codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty Netty-Codec-Socken 4.1.87.Final
io.netty Netty-common 4.1.87.Final
io.netty Netty-Handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty Netty-Resolver 4.1.87.Final
io.netty Netty-Transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammlung 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv Super-CSV 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.Schneeflocke Snowflake-JDBC 3.13.33
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant Ant-Launcher 1.9.16
org.apache.arrow Pfeilformat 11.0.0
org.apache.arrow Pfeilspeicherkern 11.0.0
org.apache.arrow Arrow-Memory-Netty 11.0.0
org.apache.arrow Pfeil-Vektor 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.10.0
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator Kurator-Framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-silk 2.3.9
org.apache.hive hive-llap-Client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-speicher-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-Anpassungen-Common 2.3.9
org.apache.hive.shims Hive-Shims-Scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Efeu 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos Mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.4-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.4-shaded-protobuf
org.apache.orc Orc-Shims 1.8.4
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,22
org.apache.yetus Benutzergruppenanmerkungen 0.13.0
org.apache.zookeeper Tierpfleger 3.6.3
org.apache.zookeeper Zookeeper-Jute 3.6.3
org.checkerframework Prüferqualifikation 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.51.v20230217
org.eclipse.jetty Jetty-Fortsetzung 9.4.51.v20230217
org.eclipse.jetty Jetty-HTTP 9.4.51.v20230217
org.eclipse.jetty Jetty-io 9.4.51.v20230217
org.eclipse.jetty Jetty-jndi 9.4.51.v20230217
org.eclipse.jetty Jetty-Plus 9.4.51.v20230217
org.eclipse.jetty Jetty-Proxy 9.4.51.v20230217
org.eclipse.jetty Jetty-Sicherheit 9.4.51.v20230217
org.eclipse.jetty Jetty Server 9.4.51.v20230217
org.eclipse.jetty Jetty-Servlet 9.4.51.v20230217
org.eclipse.jetty Jetty-Servlets 9.4.51.v20230217
org.eclipse.jetty Jetty-Util 9.4.51.v20230217
org.eclipse.jetty Jetty-util-ajax 9.4.51.v20230217
org.eclipse.jetty Jetty-Webanwendung 9.4.51.v20230217
org.eclipse.jetty Jetty-xml 9.4.51.v20230217
org.eclipse.jetty.websocket WebSocket-API 9.4.51.v20230217
org.eclipse.jetty.websocket WebSocket-Client 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-common 9.4.51.v20230217
org.eclipse.jetty.websocket WebSocket-Server 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-servlet 9.4.51.v20230217
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core Jersey-Client 2,36
org.glassfish.jersey.core jersey-common 2,36
org.glassfish.jersey.core Jersey-Server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator Ruhezustands-Validator 6.1.7.Endgültig
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.aspx mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis Objenese 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Klemmstücke 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten 3ten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel Katzen-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-servers 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.1
org.yaml Schlangenyaml 1,33
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1