Freigeben über


Databricks Runtime 15.1 (EoS)

Hinweis

Der Support für diese Databricks Runtime Version ist beendet. Das Datum des Supportendes finden Sie im Verlauf zum Supportende. Alle unterstützten Databricks Runtime-Versionen finden Sie unter Databricks Runtime-Versionshinweise – Versionen und Kompatibilität.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 15.1, unterstützt von Apache Spark 3.5.0.

Databricks hat diese Version im April 2024 veröffentlicht.

Aktuelle Änderungen

Der Support für Databricks Runtime 15.0 und Databricks Runtime 15.0 für Machine Learning wird am 31. Mai 2024 eingestellt, da ein Upgrade der Pandas-Bibliothek von 1.5.3 auf 2.0.3 in der Version 15.0 einen Breaking Change in mehreren Apache Spark-APIs zur Folge hatte. Ausführliche Informationen zu den Breaking Changes finden Sie unter Herabstufung der Pandas-Python-Bibliothek auf 1.5.3. Zur Behebung dieser Inkompatibilität wurden Databricks Runtime 15.1 und Databricks Runtime 15.1 für Machine Learning veröffentlicht. Die von diesen Versionen unterstützten Funktionen sind identisch mit dem Release 15.0. Lediglich die Pandas-Version wurde auf 1.5.3 herabgestuft.

Alle bereits vorhandenen Cluster oder Aufträge, die Databricks Runtime 15.0-Releases verwenden, funktionieren weiterhin, erhalten aber keine Produkt- oder Sicherheitsupdates mehr. Über die Databricks-Benutzeroberfläche können keine neuen Computeressourcen mehr konfiguriert werden, die Databricks Runtime 15.0 oder Databricks Runtime 15.0 ML verwenden. Wenn Sie keine Features oder APIs verwenden, die mindestens Pandas 2.0 erfordern, empfiehlt Databricks, diese Workloads auf Databricks Runtime 15.1 umzustellen.

Wenn Sie Features oder APIs verwenden, die erst ab Pandas 2.0 verfügbar sind und keine von dieser Version betroffenen Funktionen verwenden, empfiehlt Databricks, auf Databricks Runtime 15.1 umzustellen und das Pandas-Standardpaket mit Bibliotheken für Cluster oder Notebooks upzugraden. Verwenden Sie beispielsweise den folgenden Befehl, um die Pandas-Bibliothek in einem Databricks-Notebook zu aktualisieren:

%pip install pandas==2.0.3

Die Python-Bibliothek von pandas wurde auf 1.5.3 herabgestuft.

In dieser Version wird die Pandas-Bibliothek von der Version 2.0.3 auf 1.5.3 herabgestuft. Diese Herabstufung war erforderlich, da Inkompatibilitäten in der Pandas-Version 2.0.3 zu Fehlern in einigen Pandas-APIs für Spark-Funktionen geführt haben. Im Anschluss sind die Funktionen aufgeführt, die von der Pandas-Version 2.0.3 betroffen sind:

  • pyspark.date_range: Der Parameter closed fehlt, was zu Fehlern führt, wenn diese Funktion von bestehendem Code aufgerufen wird.
  • Die Funktionalität von GroupBy mit MultiIndex-Spalten wurde geändert, was zu unerwartetem Verhalten führt.
  • Einige datetime-Attribute von DatetimeIndex (z. B. day, month, year usw.) geben int32-Datentypen anstelle von int64-Datentypen zurück.

Die PySpark-Funktion spark.sql() schlägt jetzt für ungültige Argumenttypen fehl

In Databricks Runtime 15.1 und höher muss der args Parameter für benannte oder positionale Parameter, die an die spark.sql()-Funktion übergeben werden, ein Wörterbuch oder eine Liste sein. Wenn ein anderer Objekttyp übergeben wird, wird der folgende Fehler ausgelöst: PySparkTypeError: [INVALID_TYPE] Argument `args` should not be a <arg_type>.

Das Speichern von Bibliotheken im DBFS-Root ist veraltet und standardmäßig deaktiviert

Um die Sicherheit von Bibliotheken in einem Azure Databricks-Arbeitsbereich zu verbessern, ist das Speichern von Bibliotheksdateien im DBFS-Stamm ab Databricks Runtime 15.1 standardmäßig veraltet und deaktiviert. Databricks empfiehlt, alle Bibliotheken (einschließlich Python-Bibliotheken, JAR-Dateien und Spark-Connectors) in Arbeitsbereichsdateien oder auf Unity Catalog-Volumes hochzuladen oder ein Paketrepository zu verwenden. Weitere Informationen unter Empfehlungen für das Hochladen von Bibliotheken.

Um das Speichern von Bibliotheken im DBFS-Stamm neu zu aktivieren, legen Sie den folgenden Spark-Konfigurationsparameter fest: spark.databricks.driver.dbfsLibraryInstallationAllowed true.

Die Python-Standardversion wird von 3.10 auf 3.11 aktualisiert.

Bei Databricks Runtime 15.1 ist die Python-Standardversion 3.11.0. Die Liste der aktualisierten Python-Bibliotheken finden Sie unter Library Upgrades.

JDK 11 wurde entfernt

Wie bereits angekündigt, wird JDK 11 aus Databricks Runtime 15.1 und höher entfernt. Databricks empfiehlt ein Upgrade auf JDK 17, wenn ein Upgrade auf Databricks Runtime 15.1 oder eine höhere Version durchgeführt wird. Siehe Databricks SDK für Java.

Die Python-REPL wird jetzt ordnungsgemäß beendet.

Mit Databricks Runtime 15.1 wird der Python REPL-Prozess des Notebooks jetzt beim Beenden ordnungsgemäß beendet. Dies sorgt dafür, dass alle atexit-Hooks berücksichtigt werden. Beispielsweise werden in einem Workflow mit mehreren Python-Notebookaufgaben atexit-Hooks, die in der ersten Aufgabe registriert sind, vor der zweiten Python-Notebookaufgabe ausgeführt.

Neue Features und Verbesserungen

Die * (Stern)-Klausel wird jetzt in der WHERE-Klausel unterstützt.

Sie können nun die Sternklausel (*) in der WHERE-Klausel verwenden, um auf alle Spalten aus der Liste SELECT zu verweisen. Beispiel: SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*).

Die spark.sql.json.enablePartialResults-Konfiguration ist jetzt standardmäßig aktiviert

Die Spark-Konfiguration spark.sql.json.enablePartialResults ist jetzt standardmäßig aktiviert, sodass der JSON-Parser Analysefehler für komplexe Typen wie Struktur, Zuordnung und Array ordnungsgemäß verarbeitet, ohne die verbleibenden Felder zu löschen. Diese Änderung behebt ein Konsistenzproblem für JSON-Datenquellen mit Spalten-Pruning.

Clusterbibliotheken unterstützen jetzt requirements.txt-Dateien

Sie können jetzt Clusterbibliotheken mithilfe einer requirements.txt-Datei installieren, die in einer Arbeitsbereichsdatei oder einem Unity-Katalogvolume gespeichert ist. In Clustern des dedizierten und Standard-Zugangsmodus kann die Datei auf andere Dateien verweisen. In den Zugriffsmodusclustern Keine Isolation, freigegebenen werden nur PyPI-Pakete unterstützt. Siehe Bibliotheken im Bereich der Computer.

Databricks CLI ist jetzt im Webterminal verfügbar

Sie können nun die Databricks CLI aus dem Webterminal im Notebook verwenden. Das Notizbuch muss an einen Cluster im Modus Dediziert oder Kein isolierter gemeinsam genutzter Zugriff angefügt werden. Ausführliche Informationen finden Sie unter Verwendung des Webterminals und der Databricks CLI.

Hinzufügen von Standard-Python-Repositorys zu Clusterkonfigurationen

In Databricks Runtime 15.1 und höher können Sie globale pip index-url- und extra-index-url-Parameter für die Installation von Cluster- und Notebookbibliotheken konfigurieren, wenn Sie ein Cluster konfigurieren oder eine Clusterrichtlinie definieren. Legen Sie dazu die Umgebungsvariablen DATABRICKS_PIP_INDEX_URL und DATABRICKS_PIP_EXTRA_INDEX_URLfest.

Webterminal auf Standardclustern verfügbar

In Databricks Runtime 15.1 und höher können Sie Webterminal auf Clustern mit Standardzugriffsmodus verwenden.

Passthrough für Anmeldeinformationen und die Hive-Metastore-Tabellenzugriffssteuerung sind veraltet

Passthrough für Anmeldeinformationen und die Hive-Metastore-Tabellenzugriffssteuerung sind Legacymodelle für Daten-Governance. Nehmen Sie ein Upgrade auf Unity Catalog vor, um die Sicherheit und Governance Ihrer Daten durch die Bereitstellung eines zentralen Ortes zum Verwalten und Überwachen des Datenzugriffs über mehrere Arbeitsbereiche in Ihrem Konto hinweg zu vereinfachen. Siehe Was ist Unity Catalog?.

Die Unterstützung für die Passthrough- und Hive-Metastore-Tabellenzugriffssteuerelemente für Anmeldeinformationen wird in einer bevorstehenden DBR-Version entfernt.

Bibliotheksupgrades

  • Aktualisierte Python-Bibliotheken:
    • black von 22.6.0 auf 23.3.0
    • boto3 von 1.24.28 auf 1.34.39
    • botocore von 1.27.96 auf 1.34.39
    • certifi von 2022.12.7 auf 2023.7.22
    • cryptography von 39.0.1 auf 41.0.3
    • databricks-sdk von 0.1.6 auf 0.20.0
    • distlib von 0.3.7 auf 0.3.8
    • googleapis-common-protos von 1.62.0 auf 1.63.0
    • grpcio von 1.48.2 auf 1.60.0
    • grpcio-status von 1.48.1 auf 1.60.0
    • importlib-metadata from 4.6.4 auf 6.0.0
    • ipykernel von 6.25.0 auf 6.25.1
    • ipython von 8.14.0 auf 8.15.0
    • ipywidgets von 7.7.2 auf 8.0.4
    • jupyter_core von 5.2.0 auf 5.3.0
    • jupyterlab-widgets von 1.0.0 auf 3.0.5
    • matplotlib von 3.7.0 auf 3.7.2
    • pip von 22.3.1 auf 23.2.1
    • platformdirs von 2.5.2 auf 3.10.0
    • protobuf von 4.24.0 auf 4.24.1
    • pyarrow von 8.0.0 auf 14.0.1
    • Pygments von 2.11.2 auf 2.15.1
    • pyodbc von 4.0.32 auf 4.0.38
    • requests von 2.28.1 auf 2.31.0
    • s3transfer von 0.6.2 auf 0.10.0
    • scikit-learn von 1.1.1 auf 1.3.0
    • scipy von 1.10.0 auf 1.11.1
    • setuptools von 65.6.3 auf 68.0.0
    • statsmodels von 0.13.5 auf 0.14.0
    • tenacity von 8.1.0 auf 8.2.2
    • tornado von 6.1 auf 6.3.2
    • typing_extensions von 4.4.0 auf 4.7.1
    • urllib3 von 1.26.14 auf 1.26.16
    • virtualenv von 20.16.7 auf 20.24.2
    • widgetsnbextension von 3.6.1 auf 4.0.5
    • zipp von 1.0.0 auf 3.11.0
  • Aktualisierte R-Bibliotheken:
    • arrow von 12.0.1 auf 14.0.0.2
    • askpass von 1.1 auf 1.2.0
    • base von 4.3.1 auf 4.3.2
    • brew von 1.0-8 auf 1.0-10
    • brio von 1.1.3 auf 1.1.4
    • bslib von 0.5.0 auf 0.6.1
    • cli von 3.6.1 auf 3.6.2
    • commonmark von 1.9.0 auf 1.9.1
    • compiler von 4.3.1 auf 4.3.2
    • config von 0.3.1 auf 0.3.2
    • cpp11 von 0.4.4 auf 0.4.7
    • credentials von 1.3.2 auf 2.0.1
    • curl von 5.0.1 auf 5.2.0
    • data.table von 1.14.8 auf 1.15.0
    • datasets von 4.3.1 auf 4.3.2
    • DBI von 1.1.3 auf 1.2.1
    • dbplyr von 2.3.3 auf 2.4.0
    • desc von 1.4.2 auf 1.4.3
    • digest von 0.6.33 auf 0.6.34
    • dplyr von 1.1.2 auf 1.1.4
    • e1071 von 1.7-13 auf 1.7-14
    • evaluate von 0.21 auf 0.23
    • fansi von 1.0.4 auf 1.0.6
    • fontawesome von 0.5.1 auf 0.5.2
    • fs von 1.6.2 auf 1.6.3
    • future von 1.33.0 auf 1.33.1
    • future.apply von 1.11.0 auf 1.11.1
    • gargle von 1.5.1 auf 1.5.2
    • gert von 1.9.2 auf 2.0.1
    • ggplot2 von 3.4.2 auf 3.4.4
    • glmnet von 4.1-7 auf 4.1-8
    • glue von 1.6.2 auf 1.7.0
    • graphics von 4.3.1 auf 4.3.2
    • grDevices von 4.3.1 auf 4.3.2
    • grid von 4.3.1 auf 4.3.2
    • gtable von 0.3.3 auf 0.3.4
    • hardhat von 1.3.0 auf 1.3.1
    • haven von 2.5.3 auf 2.5.4
    • htmltools von 0.5.5 auf 0.5.7
    • htmlwidgets von 1.6.2 auf 1.6.4
    • httpuv von 1.6.11 auf 1.6.14
    • httr von 1.4.6 auf 1.4.7
    • httr2 von 0.2.3 bis 1.0.0
    • jsonlite von 1.8.7 auf 1.8.8
    • knitr von 1.43 auf 1.45
    • labeling von 0.4.2 auf 0.4.3
    • later von 1.3.1 auf 1.3.2
    • lava von 1.7.2.1 auf 1.7.3
    • lifecycle von 1.0.3 auf 1.0.4
    • listenv von 0.9.0 auf 0.9.1
    • lubridate von 1.9.2 auf 1.9.3
    • markdown von 1.7 auf 1.12
    • methods von 4.3.1 auf 4.3.2
    • openssl von 2.0.6 auf 2.1.1
    • parallel von 4.3.1 auf 4.3.2
    • pkgbuild von 1.4.2 auf 1.4.3
    • pkgload von 1.3.2.1 auf 1.3.4
    • plyr von 1.8.8 auf 1.8.9
    • prettyunits von 1.1.1 bis 1.2.0
    • pROC von 1.18.4 auf 1.18.5
    • processx von 3.8.2 auf 3.8.3
    • prodlim von 2023.03.31 auf 2023.08.28
    • progress von 1.2.2 auf 1.2.3
    • progressr von 0.13.0 auf 0.14.0
    • promises von 1.2.0.1 auf 1.2.1
    • ps von 1.7.5 auf 1.7.6
    • purrr von 1.0.1 auf 1.0.2
    • ragg von 1.2.5 auf 1.2.7
    • Rcpp von 1.0.11 auf 1.0.12
    • RcppEigen von 0.3.3.9.3 auf 0.3.3.9.4
    • readr von 2.1.4 auf 2.1.5
    • recipes von 1.0.6 auf 1.0.9
    • rematch von 1.0.1 auf 2.0.0
    • remotes von 2.4.2 auf 2.4.2.1
    • reprex von 2.0.2 bis 2.1.0
    • rlang von 1.1.1 auf 1.1.3
    • rmarkdown von 2.23 auf 2.25
    • RODBC von 1.3-20 auf 1.3-23
    • roxygen2 von 7.2.3 auf 7.3.1
    • rprojroot von 2.0.3 auf 2.0.4
    • Rserve von 1.8-11 auf 1.8-13
    • RSQLite von 2.3.1 auf 2.3.5
    • sass von 0.4.6 auf 0.4.8
    • scales von 1.2.1 bis 1.3.0
    • shiny von 1.7.4.1 auf 1.8.0
    • sparklyr von 1.8.1 auf 1.8.4
    • splines von 4.3.1 auf 4.3.2
    • stats von 4.3.1 auf 4.3.2
    • stats4 von 4.3.1 auf 4.3.2
    • stringi von 1.7.12 auf 1.8.3
    • stringr von 1.5.0 auf 1.5.1
    • systemfonts von 1.0.4 bis 1.0.5
    • tcltk von 4.3.1 auf 4.3.2
    • testthat von 3.1.10 auf 3.2.1
    • Textshaping von 0.3.6 auf 0.3.7
    • tidyr von 1.3.0 auf 1.3.1
    • timechange von 0.2.0 auf 0.3.0
    • timeDate von 4022.108 auf 4032.109
    • tinytex von 0.45 auf 0.49
    • tools von 4.3.1 auf 4.3.2
    • utf8 von 1.2.3 auf 1.2.4
    • utils von 4.3.1 auf 4.3.2
    • uuid von 1.1-0 auf 1.2-0
    • vctrs von 0.6.3 auf 0.6.5
    • vroom von 1.6.3 auf 1.6.5
    • waldo von 0.5.1 auf 0.5.2
    • withr von 2.5.0 auf 3.0.0
    • xfun von 0.39 auf 0.41
    • xml2 von 1.3.5 auf 1.3.6
    • yaml von 2.3.7 auf 2.3.8
    • zip von 2.3.0 auf 2.3.1
  • Aktualisierte Java-Bibliotheken:
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 von 2.15.1 auf 2.16.0
    • com.google.flatbuffers.flatbuffers-java von 1.12.0 auf 23.5.26
    • com.typesafe.config von 1.2.1 auf 1.4.3
    • org.apache.ant.ant von 1.9.16 auf 1.10.11
    • org.apache.ant.ant-jsch von 1.9.16 auf 1.10.11
    • org.apache.ant.ant-launcher von 1.9.16 auf 1.10.11
    • org.apache.arrow.arrow-format von 12.0.1 auf 15.0.0
    • org.apache.arrow.arrow-memory-core von 12.0.1 auf 15.0.0
    • org.apache.arrow.arrow-memory-netty von 12.0.1 auf 15.0.0
    • org.apache.arrow.arrow-vector von 12.0.1 auf 15.0.0
    • org.apache.avro.avro von 1.11.2 auf 1.11.3
    • org.apache.avro.avro-ipc von 1.11.2 auf 1.11.3
    • org.apache.avro.avro-mapred von 1.11.2 auf 1.11.3
    • org.apache.logging.log4j.log4j-1.2-api von 2.20.0 auf 2.22.1
    • org.apache.logging.log4j.log4j-api von 2.20.0 auf 2.22.1
    • org.apache.logging.log4j.log4j-core von 2.20.0 auf 2.22.1
    • org.apache.logging.log4j.log4j-slf4j2-impl von 2.20.0 auf 2.22.1
    • org.postgresql.postgresql von 42.6.0 auf 42.6.1

Apache Spark

Databricks Runtime 15.1 enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 14.3 LTS enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-45527] [DBRRM-805][es-1073714] Revertieren Sie „[SC-151626][core] Verwenden Sie den Bruchteil, um die Ressourcen zu berechnen“
  • [SPARK-47102] [ DBRRM-803][sc-158253][SQL] Hinzufügen des COLLATION_ENABLED Konfigurationsflags
  • [SPARK-46973] [SC-158140][dbrrm-777][SQL] Überspringen der V2-Tabellensuche, wenn sich eine Tabelle im V1-Tabellencache befindet
  • [SPARK-46808] [SC-154113][python] Fehlerklassen in Python mit automatischer Sortierfunktion verfeinern
  • [SPARK-47251] [SC-158291][python] Blockieren ungültiger Typen aus dem args Argument für sql Befehl
  • [SPARK-47251] [SC-158121][python] Ungültige Typen aus dem args Argument für sql Befehl blockieren
  • [SPARK-47108] [SC-157204][core] Setze derby.connection.requireAuthentication bis false explizit in CLIs
  • [SPARK-45599] [SC-157537][Core] Verwenden der Objektgleichheit in OpenHashSet
  • [SPARK-47099] [SC-157352][sql] Wird verwendet ordinalNumber , um den Wert paramIndex für die Fehlerklasse einheitlich festzulegen. UNEXPECTED_INPUT_TYPE
  • [SPARK-46558] [SC-151363][connect] Extrahieren Sie eine Hilfsfunktion, um den doppelten Code MessageParameters zu eliminieren, der von ErrorParams in GrpcExceptionConverter abgerufen wird.
  • [SPARK-43117] [SC-156177][connect] ProtoUtils.abbreviate soll wiederholte Felder unterstützen
  • [SPARK-46342] [ SC-150283][sql] Ersetzen IllegalStateException durch SparkException.internalError in sql
  • [SPARK-47123] [SC-157412][core] JDBCRDD behandelt Fehler in getQueryOutputSchema nicht ordnungsgemäß.
  • [SPARK-47189] [SC-157667][sql] Spaltenfehlernamen und Text anpassen
  • [SPARK-45789] [SC-157101][sql] Support DESCRIBE TABLE für das Clustering von Spalten
  • [SPARK-43256] [SC-157699][sql] Fehlerklasse _LEGACY_ERROR_TEMP_2021 entfernen
  • [SPARK-47201] [ SC-157782][python][CONNECT] sameSemantics überprüft Eingabetypen
  • [SPARK-47183] [SC-157660][python] Beheben der Fehlerklasse für sameSemantics
  • [SPARK-47179] [SC-157663][sql] Verbessern der Fehlermeldung von SparkThrowableSuite zur besseren Debugbarkeit
  • [SPARK-46965] [SC-155791][Kern] logType in Utils.getLog überprüfen
  • [SPARK-46832] [SC-156774][sql] Einführung der Ausdrücke Collate und Collation
  • [SPARK-46946] [SC-155721][sql] Unterstützen der Übertragung mehrerer Filterschlüssel in DynamicPruning
  • [SPARK-47079] [ VARIANT-22][sc-157598][PYTHON][sql][CONNECT] Hinzufügen von Variant-Typinformationen zu PySpark
  • [SPARK-47101] [SC-157360][sql] Das Verwenden von Kommas in Spaltennamen der obersten Ebene zulassen und die Überprüfung von geschachtelten Typdefinitionen entfernen HiveExternalCatalog.verifyDataSchema
  • [SPARK-47173] [SC-157571][ss][UI] Beheben eines Tippfehlers in der Erklärung der Streaming-UI
  • [SPARK-47113] [SC-157348][core] Rückgängigmachung der S3A-Endpunkt-Korrekturlogik von SPARK-35878
  • [SPARK-47130] [SC-157462][core] Verwenden von listStatus zum Umgehen von Blockortinformationen beim Bereinigen von Treiberprotokollen
  • [SPARK-43259] [SC-157368][sql] Weisen Sie der Fehlerklasse _LEGACY_ERROR_TEMP_2024 einen Namen zu
  • [SPARK-47104] [SC-157355][sql] TakeOrderedAndProjectExec sollte die unsichere Projektion initialisieren.
  • [SPARK-47137] [SC-157463][python][CONNECT] Hinzufügen von getAll zu spark.conf für featureparität mit Scala
  • [SPARK-46924] [SC-154905][core] Korrigiert die Load New Schaltfläche in Master/HistoryServer Log UI
  • [SPARK-47069] [SC-157370][python][CONNECT] Einführung von spark.profile.show/dump für die SparkSession-basierte Profilerstellung
  • [SPARK-46812] [SC-157075][sql][PYTHON] MapInPandas / mapInArrow Support ResourceProfile machen
  • [SPARK-46833] [SC-155866][sql] Sortations – Einführung in CollationFactory, das Vergleichs- und Hashregeln für unterstützte Sortierungen bereitstellt
  • [SPARK-47057] [SC-157036] [PYTHON] Reeanble MyPy-Datentest
  • [SPARK-46934] [SC-157084][sql] Read/write roundtrip für Struct-Typ mit Sonderzeichen mit HMS
  • [SPARK-46727] [SC-153472][sql] Port classifyException() in JDBC-Dialekten bei Fehlerklassen
  • [SPARK-46964] [SC-155740][sql] Ändern der Signatur des hllInvalidLgK-Abfrageausführungsfehlers zur Annahme einer ganzen Zahl als viertes Argument.
  • [SPARK-46949] [SC-155719][sql] Unterstützen Sie CHAR/VARCHAR durch ResolveDefaultColumns
  • [SPARK-46972] [SC-155888][sql] Korrektur der asymmetrischen Ersetzung für char/varchar in V2SessionCatalog.createTable
  • [SPARK-47014] [SC-156778][python][CONNECT] Implementieren von Methoden dumpPerfProfiles und dumpMemoryProfiles von SparkSession
  • [SPARK-46689] [SC-156221] [SPARK-46690] [PYTHON] [CONNECT] Unterstützung von v2-Profilerstellung in group/cogroup applyInPandas/applyInArrow
  • [SPARK-47040] [SC-156773][connect] Warten des Spark Connect-Serverskripts zulassen
  • [SPARK-46688] [SC-156113] [SPARK-46691] [PYTHON] [CONNECT] Unterstützung der v2-Profilerstellung in aggregierten Pandas UDFs
  • [SPARK-47004] [SC-156499][connect] Zusätzliche Tests zu ClientStreamingQuerySuite hinzugefügt, um die Skala-Clienttestabdeckung zu erhöhen
  • [SPARK-46994] [SC-156169][python] Refactor PythonWrite zur Vorbereitung auf die Unterstützung des Python-Datenquellenstreaming-Schreibvorgangs
  • [SPARK-46979] [SC-156587][ss] Unterstützung für die separate Angabe von Kodierern für Schlüssel und Werte sowie für jede Spaltenfamilie im RocksDB-Statusspeicher-Anbieter hinzufügen.
  • [SPARK-46960] [SC-155940][ss] Testen mehrerer Eingabedatenströme mit transformWithState-Operator
  • [SPARK-46966] [SC-156112][python] Fügen Sie UDTF-API für die Methode "analyse" hinzu, um die Teilmenge der auszuwählenden Eingabetabellenspalten anzugeben.
  • [SPARK-46895] [SC-155950][core] Timer durch einen geplanten Einzelthread-Executor ersetzen
  • [SPARK-46967] [SC-155815][core][UI] Thread Dump und Heap Histogram von Dead Executors in Executors UI ausblenden
  • [SPARK-46512] [SC-155826][Core] Optimieren Sie den Lesevorgang beim Shuffle, wenn sowohl Sortieren als auch Kombinieren verwendet werden.
  • [SPARK-46958] [SC-155942][sql] Fügen Sie fehlende Zeitzone hinzu, um Standardwerte zu koerzen
  • [SPARK-46754] [SC-153830][sql][AVRO] Korrektur der Komprimierungscode-Auflösung in der Avro-Tabellendefinition und den Schreiboptionen
  • [SPARK-46728] [SC-154207][python] Pandas-Installation ordnungsgemäß überprüfen
  • [SPARK-43403] [SC-154216][ui] Stellen Sie sicher, dass die alte SparkUI im HistoryServer getrennt wurde, bevor eine neue geladen wird.
  • [SPARK-39910] [SC-156203][sql] Delegierung der Pfadqualifizierung an das Dateisystem während des DataSource-Dateipfad-Globbing
  • [SPARK-47000] [SC-156123] Rückgängigmache von "[SC-156123][core] Use getTotalMemorySize...
  • [SPARK-46819] [SC-154560][Core] Verschieben von Fehlerkategorien und -zuständen in JSON
  • [SPARK-46997] [SC-156175][core] Standardmäßig aktivieren spark.worker.cleanup.enabled
  • [SPARK-46865] [SC-156168][ss] Hinzufügen der Batchunterstützung für den TransformWithState-Operator
  • [SPARK-46987] [SC-156040][connect] ProtoUtils.abbreviate vermeiden unnötige Vorgänge setField
  • [SPARK-46970] [SC-155816][core] Umschreiben OpenHashSet#hasher mit pattern matching
  • [SPARK-46984] [SC-156024] [PYTHON] Pyspark.copy_func entfernen
  • [SPARK-47000] [SC-156123][core] Verwenden Sie getTotalMemorySize in WorkerArguments
  • [SPARK-46980] [SC-155914][sql][MINOR] Vermeiden Sie die Verwendung interner APIs in End-to-End-Tests im Dataframe
  • [SPARK-46931] Zurücksetzen von "[SC-155661][PS] Implementieren von {Frame, Series}.to_hdf"
  • [SPARK-46618] [SC-153828][sql] Verbesserung der Fehlermeldungen für den "DATA_SOURCE_NOT_FOUND" Fehler.
  • [SPARK-46849] [SC-154586][sql] Optimierer für CREATE TABLE Spaltenstandardwerte ausführen
  • [SPARK-46911] [SC-155724][ss] Hinzufügen von deleteIfExists-Operator zu StatefulProcessorHandleImpl
  • [SPARK-43273] [SQL] Unterstützung des lz4raw-Codecs zur Komprimierung für Parquet
  • [SPARK-47002] [SC-156223][python] Gibt eine bessere Fehlermeldung zurück, wenn die UDTF-Methode "orderBy" versehentlich eine Liste von Zeichenfolgen zurückgibt.
  • [SPARK-46890] [SC-155802][sql] Beheben eines CSV-Analysefehlers mit bestehenden Standardwerten und Beschneiden von Spalten
  • [SPARK-46977] [SC-155892][core] Eine fehlgeschlagene Anforderung zum Abrufen eines Tokens von einem NameNode sollte nachfolgende Tokenanforderungen nicht überspringen
  • [SPARK-46608] [ SC-151806][sql] Abwärtskompatibilität wiederherstellen JdbcDialect.classifyException
  • [SPARK-46908] [SC-155702][sql] Unterstützung der Stern-Klausel in der WHERE-Klausel
  • [SPARK-46908] [SC-155702][sql] Unterstützung der Stern-Klausel in der WHERE-Klausel
  • [SPARK-46852] [SC-155665][ss] Entfernen Sie die Verwendung expliziter Schlüsselgeber, und übergeben Sie ihn implizit an den Operator für den transformWithState-Operator.
  • [SPARK-46864] [SC-155669][ss] Einbindung von Arbitrary StateV2 in das neue Fehlerklassen-Framework
  • [SPARK-45807] [SC-155706][sql] Rückgabeansicht nach dem Aufrufen von replaceView(.)
  • [SPARK-46899] [SC-154651][core] POST APIs aus MasterWebUI entfernen, wenn spark.ui.killEnabledfalse ist
  • [SPARK-46868] [SC-154539][core] Unterstützung für die Spark Worker Log UI
  • [SPARK-46931] [SC-155661][ps] Implementieren {Frame, Series}.to_hdf
  • [SPARK-46940] [SC-155667][Kern] Nicht verwendete updateSparkConfigFromProperties und isAbsoluteURI entfernen in o.a.s.u.Utils
  • [SPARK-46929] [SC-155659][core][CONNECT][ss] Verwenden von ThreadUtils.shutdown zum Schließen von Threadpools
  • [SPARK-46400] [SC-155658][core][SQL] Wenn beschädigte Dateien im lokalen Maven-Repository vorhanden sind, überspringen Sie diesen Cache, und versuchen Sie es erneut.
  • [SPARK-46932] [SC-155655] Bereinigung der Importe in pyspark.pandas.test_*
  • [SPARK-46683] [SC-154120] Schreiben eines Unterabfrage-Generators, der Unterabfragen generiert, um die Testabdeckung zu erhöhen
  • [SPARK-46914] [SC-154776][ui] Kürzen des App-Namens in der Zusammenfassungstabelle auf der Verlaufsseite
  • [SPARK-46831] [SC-154699][sql] Kollationen - Erweiterung von StringType und PhysicalStringType um das Feld collationId
  • [SPARK-46816] [SC-154415] [SS] Hinzufügen der Basisunterstützung für den neuen Operator für die Verwaltung beliebiger Zustände, einzelner valueState-Typen, mehrerer Zustandsvariablen und zugrunde liegende Unterstützung für Spaltenfamilien für RocksDBStateStoreProvider mit/ohne Änderungsprotokollprüfpunkten
  • [SPARK-46925] [SC-154890][python][CONNECT] Fügen Sie eine Warnung hinzu, die anweist, memory_profiler für die Speicherprofilerstellung zu installieren.
  • [SPARK-46927] [SC-154904] [PYTHON] assertDataFrameEqual ordnungsgemäß zum Laufen bekommen ohne PyArrow
  • [SPARK-46021] [SC-148987][core] Unterstützung der Annulierung zukünftiger Jobs, die zu einer Job-Gruppe gehören
  • [SPARK-46747] [SC-154789][sql] Vermeide den Scan in "getTableExistsQuery" für JDBC-Dialekte
  • [SPARK-46904] [SC-154704] [UI] Beheben des Anzeigeproblems der Verlaufs-UI-Zusammenfassung
  • [SPARK-46870] [SC-154541][core] Unterstützung der Spark Master Log UI
  • [SPARK-46893] [SC-154780][ui] Entfernen von Inlineskripts aus Benutzeroberflächenbeschreibungen
  • [SPARK-46910] [SC-154760][python] Entfernen der JDK-Anforderung in der PySpark-Installation
  • [SPARK-46907] [SC-154736][core] Standort des Treiberprotokolls im Spark History Server anzeigen
  • [SPARK-46902] [SC-154661][ui] Korrektur der Benutzeroberfläche des Spark History Servers zur Verwendung von nicht exportierten setAppLimit-Einstellungen
  • [SPARK-46687] [SC-154725][python][CONNECT] Grundlegende Unterstützung von SparkSession-basierten Speicherprofiler
  • [SPARK-46623] [SC-153831][core][MLLIB][sql] Ersetzen Von SimpleDateFormat durch DateTimeFormatter
  • [SPARK-46875] [SC-154627][sql] Wenn der mode Null ist, sollte ein NullPointException ausgelöst werden not
  • [SPARK-46872] [SC-154543][core] Zurücksetzen log-view.js als Nicht-Modul
  • [SPARK-46883] [SC-154629][core] Unterstützung der /json/clusterutilization API
  • [SPARK-46886] [SC-154630][core] Standardmäßig aktivieren spark.ui.prometheus.enabled
  • [SPARK-46873] [SC-154638] [SS] Neuen StreamingQueryManager für dieselbe Spark-Sitzung nicht neu erstellen
  • [SPARK-46829] [SC-154419][core] Remove createExecutorEnv from SparkEnv
  • [SPARK-46827] [SC-154280][core] RocksDBPersistenceEngine Den Support für einen symbolischen Link einführen
  • [SPARK-46903] [SC-154662][core] Support Spark Historie Server Log UI
  • [SPARK-46874] [SC-154646] [PYTHON] Entfernen der pyspark.pandas-Abhängigkeit von assertDataFrameEqual
  • [SPARK-46889] [SC-154639][core] Validiere spark.master.ui.decommission.allow.mode Einstellung
  • [SPARK-46850] [ SC-154443][sql] Konvertieren _LEGACY_ERROR_TEMP_2102 in UNSUPPORTED_DATATYPE
  • [SPARK-46704] [SC-153323][core][UI] Korrektur MasterPage um Running Drivers Tabelle nach Duration Spalte korrekt zu sortieren
  • [SPARK-46796] [ SC-154279][ss] Stellen Sie sicher, dass die richtigen Remotedateien (in metadata.ziperwähnt) beim Laden der RocksDB-Version verwendet werden.
  • [SPARK-46888] [SC-154636][core] Korrigiert, Masterdass /workers/kill/ Anfragen abgelehnt werden, wenn die Stilllegung deaktiviert ist
  • [SPARK-46818] [SC-154422][sql] Verbesserung der Fehlermeldungen für Bereiche mit nicht faltbaren Eingaben
  • [SPARK-46898] [SC-154649] [CONNECT] Vereinfachen der Protobuf-Funktionstransformation in Planner
  • [SPARK-46828] [SC-154413][sql] Entfernen der ungültigen Assertion des Remotemodus für spark sql shell
  • [SPARK-46733] [SC-154274][core] Vereinfachen Sie den BlockManager, indem der Beendigungsvorgang nur vom Interrupt-Thread abhängt.
  • [SPARK-46777] [SC-154016][ss] Katalysatorstruktur umgestalten, um mehr im Einklang mit der Version im Batch-Betrieb zu stehen
  • [SPARK-46515] [SC-151716] Hinzufügen der MONTHNAME-Funktion
  • [SPARK-46823] [SC-154276] [CONNECT] [PYTHON] LocalDataToArrowConversion sollte die Nullbarkeit überprüfen
  • [SPARK-46787] [SC-154404] [CONNECT] bloomFilter-Funktion sollte für ungültige Eingaben AnalysisException auslösen
  • [SPARK-46779] [SC-154045][sql] InMemoryRelation Instanzen desselben zwischengespeicherten Plans sollten semantisch gleichwertig sein.
  • [SPARK-45827] [SC-153973] Partitionierung in Variant-Spalte nicht zulassen
  • [SPARK-46797] [ SC-154085][core] Umbenennen spark.deploy.spreadOut in spark.deploy.spreadOutApps
  • [SPARK-46094] [SC-153421] Executor JVM Profiling unterstützen
  • [SPARK-46746] [SC-153557][sql][AVRO] Fügen Sie Codec-Erweiterung an avro-Datenquellendateien an
  • [SPARK-46698] [SC-153288][core] Ersetzen des Timers durch einen zeitgesteuerten Single-Thread-Executor für ConsoleProgressBar.
  • [SPARK-46629] [SC-153835] Fix für STRUCT-Typ DDL ohne Nullbarkeit und Kommentar
  • [SPARK-46750] [ SC-153772][connect][PYTHON] DataFrame-APIs-Code bereinigen
  • [SPARK-46769] [SC-153979][sql] Zeitstempelbezogenes Schema verfeinern
  • [SPARK-46765] [SC-153904][python][CONNECT] Geben Sie shuffle den Datentyp von seed
  • [SPARK-46579] [SC-151481][sql] Redact JDBC url in Fehlern und Protokollen
  • [SPARK-46686] [SC-153875][python][CONNECT] Grundlegende Unterstützung von SparkSession-basierten Python-UDF-Profilern
  • [SPARK-46748] Revert "[SC-153800][core] Entfernen von *slav**.sh scri...
  • [SPARK-46707] [SC-153833][sql] Feld „throwable“ zu Ausdrücken hinzugefügt, um den Prädikat-Pushdown zu verbessern
  • [SPARK-46519] [SC-151278][sql] Löschen nicht verwendeter Fehlerklassen aus error-classes.json Datei
  • [SPARK-46677] [SC-153426][sql][CONNECT] Fix dataframe["*"] Auflösung
  • [SPARK-46317] [SC-150184][PYTHON][CONNECT] Abgleich mit dem Mindestverhalten in SparkSession bei vollständiger Testabdeckung
  • [SPARK-46748] [SC-153800][core] *slav**.sh Skripte entfernen
  • [SPARK-46663] [SC-153490] [PYTHON] Deaktivieren des Speicherprofilers für Pandas UDFs mit Iteratoren
  • [SPARK-46410] [SC-150776][sql] Zuweisung von Fehlerklassen/Unterklassen zu JdbcUtils.classifyException
  • [SPARK-46277] [SC-150126][python] Überprüfen der Start-URLs mit der festgelegten Konfiguration
  • [SPARK-46612] [SC-153536][sql] Die von einem JDBC-Treiber abgerufene Array-Typ-Zeichenfolge nicht konvertieren.
  • [SPARK-46254] [SC-149788] [PYTHON] Entfernen veralteter Python 3.8/3.7 Versionsprüfung
  • [SPARK-46490] [SC-151335][sql] Erfordern Fehlerklassen in SparkThrowable Unterklassen
  • [SPARK-46383] [SC-153274] [SC-147443] [WARMFIX] Reduzieren der Treiber Heap-Nutzung durch Reduzierung der Lebensdauer von TaskInfo.accumulables()
  • [SPARK-46541] [SC-153109][sql][CONNECT] Beheben Sie den mehrdeutigen Spaltenverweis bei der Selbstverknüpfung
  • [SPARK-46381] [SC-150495][sql] Migrieren von Unterklassen AnalysisException zu Fehlerklassen
  • [SPARK-46351] [SC-150335][sql] Erfordert eine Fehlerklasse in AnalysisException
  • [SPARK-46220] [ SC-149689][sql] Einschränken von Zeichenmengen in decode()
  • [SPARK-46369] [SC-150340][core] Link kill von RELAUNCHING Treibern in MasterPage entfernen
  • [SPARK-46052] [SC-153284][core] Funktion TaskScheduler.killAllTaskAttempts entfernen
  • [SPARK-46536] [SC-153164][sql] Unterstützung GROUP BY calendar_interval_type
  • [SPARK-46675] [SC-153209][sql] Entfernung des nicht verwendeten inferTimestampNTZ in ParquetReadSupport
  • [SPARK-46717] [SC-153423][core] Vereinfachung ReloadingX509TrustManager durch die Exit-Operation nur von Interrupt-Thread abhängig.
  • [SPARK-46722] [SC-153438][connect] Fügen Sie einen Test zur Abwärtskompatibilitätsprüfung für StreamingQueryListener in Spark Connect (Scala/PySpark) hinzu.
  • [SPARK-46187] [SC-149580][sql] Ausrichten von codegener und nicht-codegener Implementierung von StringDecode
  • [SPARK-46258] [SC-149799][core] Hinzufügen von RocksDBPersistenceEngine
  • [SPARK-46216] [SC-149676][core] Verbessern FileSystemPersistenceEngine um Datenkomprimierungen zu unterstützen
  • [SPARK-46189] [SC-149567][ps][SQL] Führen Sie Vergleiche und Arithmetik zwischen denselben Typen in verschiedenen Pandas-Aggregatfunktionen durch, um Fehler im interpretierten Modus zu vermeiden
  • [SPARK-46184] [SC-149563][core][SQL][connect][MLLIB] Reduzieren der Stapeltiefe, indem Option.isDefined durch Option.isEmpty ersetzt wird.
  • [SPARK-46700] [SC-153329][core] Zählen der letzten Verschüttung für die Metrik der Verschüttung von Datenträgern in Bytes
  • [SPARK-45642] [SC-150286][core][SQL] Behebung FileSystem.isFile & FileSystem.isDirectory is deprecated
  • [SPARK-46640] [SC-153272][sql] Fix RemoveRedundantAlias durch Ausschließen von Unterabfrageattributen
  • [SPARK-46681] [SC-153287][Core] ExecutorFailureTracker#maxNumExecutorFailures umgestalten, um die Berechnung von defaultMaxNumExecutorFailures zu vermeiden, wenn MAX_EXECUTOR_FAILURES konfiguriert ist
  • [SPARK-46695] [SC-153289][sql][HIVE] hive.execution.engine immer auf 'mr' festlegen
  • [SPARK-46325] [SC-150228][connect] Entfernen unnötiger überschreibender Funktionen beim Konstruieren WrappedCloseableIterator in ResponseValidator#wrapIterator
  • [SPARK-46232] [SC-149699][python] Alle verbleibenden ValueError in das PySpark-Fehlerframework migrieren.
  • [SPARK-46547] [SC-153174] [SS] Verschwinden lassen einer nicht schwerwiegenden Ausnahme bei Wartungsaufgaben, um Deadlock zwischen Wartungsthread und Streamingaggregationsoperator zu vermeiden
  • [SPARK-46169] [SC-149373][ps] Weisen Sie geeignete JIRA-Nummern für fehlende Parameter aus der DataFrame API zu.
  • [SPARK-45857] [SC-148096][sql] Erzwingt die Fehlerklassen in Unterklassen von AnalysisException

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Wartungsupdates

Weitere Informationen finden Sie unter Databricks Runtime 15.1-Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.4 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Skala: 2.12.15
  • Python: 3.11.0
  • R: 4.3.2
  • Delta Lake: 3.1.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
asttokens 2.0.5 astunparse 1.6.3 azure-core 1.30.1
azure-storage-blob 12.19.1 azure-storage-file-datalake 12.14.0 backcall 0.2.0
schwarz 23.3.0 Blinker 1.4 boto3 1.34.39
botocore 1.34.39 CacheWerkzeuge 5.3.3 certifi 2023.7.22
cffi 1.15.1 chardet 4.0.0 Charset-Normalizer 2.0.4
click 8.0.4 cloudpickle 2.2.1 comm 0.1.2
contourpy 1.0.5 cryptography 41.0.3 Fahrradfahrer 0.11.0
Cython 0.29.32 Databricks-SDK 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 Dekorateur 5.1.1 distlib 0.3.8
Einstiegspunkte 0.4 executing 0.8.3 Übersicht der Facetten 1.1.1
Dateisperrung 3.13.1 fonttools 4.25.0 gitdb 4.0.11
GitPython 3.1.42 google-api-core 2.17.1 google-auth 2.28.2
google-cloud-core 2.4.1 Google Cloud-Speicher 2.15.0 google-crc32c 1.5.0
google-resumable-media 2.7.0 googleapis-common-protos 1.63.0 grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipywidgets 8.0.4 isodate 0.6.1
Jedi 0.18.1 jeepney 0.7.1 jmespath 0.10.0
joblib 1.2.0 jupyter_client 7.4.9 jupyter_core 5.3.0
jupyterlab-widgets 3.0.5 Schlüsselring 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-skinny 2.11.1
more-itertools 8.10.0 mypy-Erweiterungen 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 Packen 23.2
Pandas 1.5.3 parso 0.8.3 pathspec 0.10.3
patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Kissen 9.4.0 pip 23.2.1 platformdirs 3.10.0
plotly 5.9.0 prompt-toolkit 3.0.36 protobuf 4.24.1
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 14.0.1 Pyasn1 0.4.8
Pyasn1-Module 0.2.8 pyccolo 0.0.52 pycparser 2.21
pydantic 1.10.6 Pygments 2.15.1 PyGObject 3.42.1
PyJWT 2.3.0 pyodbc 4.0.38 pyparsing 3.0.9
Python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 pytz 2022.7
PyYAML 6.0 pyzmq 23.2.0 requests 2.31.0
rsa 4,9 s3transfer 0.10.0 scikit-learn 1.3.0
scipy 1.11.1 Seegeboren 0.12.2 SecretStorage 3.3.1
setuptools 68.0.0 six 1.16.0 smmap 5.0.1
sqlparse 0.4.4 ssh-import-id 5.11 Stapeldaten 0.2.0
StatistikModelle 0.14.0 Hartnäckigkeit 8.2.2 threadpoolctl 2.2.0
tokenize-rt 4.2.1 Tornado 6.3.2 traitlets 5.7.1
typing_extensions 4.7.1 tzdata 2022.1 ujson 5.4.0
unbeaufsichtigte Aktualisierungen 0.1 urllib3 1.26.16 virtualenv 20.24.2
wadllib 1.3.6 wcwidth 0.2.5 Rad 0.38.4
widgetsnbextension 4.0.5 zipp 3.11.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2023-02-10installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 14.0.0.2 Askpass 1.2.0 assertthat 0.2.1
backports 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 Blob 1.2.4 boot 1.3-28
brew 1.0-10 brio 1.1.4 broom 1.0.5
bslib 0.6.1 cachem 1.0.8 callr 3.7.3
caret 6.0-94 CellRanger 1.1.0 chron 2.3-61
class 7.3-22 cli 3.6.2 clipr 0.8.0
clock 0.7.0 cluster 2.1.4 Codetools 0.2-19
colorspace 2.1-0 commonmark 1.9.1 Kompilierer 4.3.2
config 0.3.2 conflicted 1.2.0 cpp11 0.4.7
Buntstift 1.5.2 credentials 2.0.1 curl 5.2.0
data.table 1.15.0 Datensätze 4.3.2 DBI 1.2.1
dbplyr 2.4.0 desc 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.34
downlit 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 Ellipse 0.3.2 Evaluieren 0,23
Fans 1.0.6 farver 2.1.1 fastmap 1.1.1
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
foreign 0.8-85 forge 0.2.0 fs 1.6.3
Zukunft 1.33.1 future.apply 1.11.1 gargle 1.5.2
Generika 0.1.3 gert 2.0.1 ggplot2 3.4.4
gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.2 Klebstoff 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
Grafiken 4.3.2 grDevices 4.3.2 grid 4.3.2
gridExtra 2.3 gsubfn 0,7 gt 0.10.1
gtable 0.3.4 hardhat 1.3.1 Hafen 2.5.4
highr 0,10 hms 1.1.3 HTML-Werkzeuge 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 ids 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 knitr 1.45 Etikettierung 0.4.3
later 1.3.2 lattice 0.21-8 lava 1.7.3
Lebenszyklus 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.12 MASS 7.3-60
Matrix 1.5-4.1 memoise 2.0.1 Methoden 4.3.2
mgcv 1.8-42 Mime-Kunst 0,12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.1.1 parallel 4.3.2
parallelly 1.36.0 Säule 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 Fortschritt 1.2.3
progressr 0.14.0 Versprechungen 1.2.1 proto 1.0.0
proxy 0.4-27 P.S. 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reaktivierbar 0.4.4
reactR 0.5.0 readr 2.1.5 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.3
Rezepte 1.0.9 Rückspiel 2.0.0 Rückspiel2 2.1.2
remotes 2.4.2.1 reprex 2.1.0 reshape2 1.4.4
rlang 1.1.3 rmarkdown 2,25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1,8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 rvest 1.0.3 sass 0.4.8
scales 1.3.0 selectr 0.4-2 Sitzungsinformationen 1.2.2
shape 1.4.6 glänzend 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 spatial 7.3-15 splines 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 Statistiken 4.3.2
Statistiken4 4.3.2 stringi 1.8.3 stringr 1.5.1
Überleben 3.5-5 swagger 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
Textgestaltung 0.3.7 Tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 Zeitumstellung 0.3.0
timeDate 4032.109 tinytex 0.49 Werkzeuge 4.3.2
Zeitzonendatenbank (tzdb) 0.4.0 URL-Prüfer 1.0.1 Nutze dies 2.2.2
utf8 1.2.4 utils 4.3.2 Universelle eindeutige Kennung (UUID) 1.2-0
V8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
vroom 1.6.5 Waldo 0.5.2 whisker 0.4.1
withr 3.0.0 xfun 0,41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
zeallot 0.1.0 zip 2.3.1

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws AWS-Java-SDK-Config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-Protokolle 1.12.390
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.390
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.17.1
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone fehleranfällige Annotationen 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,25
io.delta delta-sharing-client_2.12 1.0.4
io.dropwizard.metrics Metrikanmerkung 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics Metrik-Servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty Netty Codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammlung 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow Pfeilformat 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow Pfeil-Vektor 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper Tierpfleger 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty Jetty-Client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty Jetty-HTTP 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-Plus 9.4.52.v20230823
org.eclipse.jetty Jetty-Proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty Jetty Server 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-Webanwendung 9.4.52.v20230823
org.eclipse.jetty Jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Endgültig
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap shims 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1