Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Der Support für diese Databricks Runtime Version ist beendet. Das Datum des Supportendes finden Sie im Verlauf zum Supportende. Alle unterstützten Databricks Runtime-Versionen finden Sie unter Databricks Runtime-Versionshinweise – Versionen und Kompatibilität.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 15.1, unterstützt von Apache Spark 3.5.0.
Databricks hat diese Version im April 2024 veröffentlicht.
Aktuelle Änderungen
Der Support für Databricks Runtime 15.0 und Databricks Runtime 15.0 für Machine Learning wird am 31. Mai 2024 eingestellt, da ein Upgrade der Pandas-Bibliothek von 1.5.3 auf 2.0.3 in der Version 15.0 einen Breaking Change in mehreren Apache Spark-APIs zur Folge hatte. Ausführliche Informationen zu den Breaking Changes finden Sie unter Herabstufung der Pandas-Python-Bibliothek auf 1.5.3. Zur Behebung dieser Inkompatibilität wurden Databricks Runtime 15.1 und Databricks Runtime 15.1 für Machine Learning veröffentlicht. Die von diesen Versionen unterstützten Funktionen sind identisch mit dem Release 15.0. Lediglich die Pandas-Version wurde auf 1.5.3 herabgestuft.
Alle bereits vorhandenen Cluster oder Aufträge, die Databricks Runtime 15.0-Releases verwenden, funktionieren weiterhin, erhalten aber keine Produkt- oder Sicherheitsupdates mehr. Über die Databricks-Benutzeroberfläche können keine neuen Computeressourcen mehr konfiguriert werden, die Databricks Runtime 15.0 oder Databricks Runtime 15.0 ML verwenden. Wenn Sie keine Features oder APIs verwenden, die mindestens Pandas 2.0 erfordern, empfiehlt Databricks, diese Workloads auf Databricks Runtime 15.1 umzustellen.
Wenn Sie Features oder APIs verwenden, die erst ab Pandas 2.0 verfügbar sind und keine von dieser Version betroffenen Funktionen verwenden, empfiehlt Databricks, auf Databricks Runtime 15.1 umzustellen und das Pandas-Standardpaket mit Bibliotheken für Cluster oder Notebooks upzugraden. Verwenden Sie beispielsweise den folgenden Befehl, um die Pandas-Bibliothek in einem Databricks-Notebook zu aktualisieren:
%pip install pandas==2.0.3
Die Python-Bibliothek von pandas wurde auf 1.5.3 herabgestuft.
In dieser Version wird die Pandas-Bibliothek von der Version 2.0.3 auf 1.5.3 herabgestuft. Diese Herabstufung war erforderlich, da Inkompatibilitäten in der Pandas-Version 2.0.3 zu Fehlern in einigen Pandas-APIs für Spark-Funktionen geführt haben. Im Anschluss sind die Funktionen aufgeführt, die von der Pandas-Version 2.0.3 betroffen sind:
-
pyspark.date_range: Der Parameterclosedfehlt, was zu Fehlern führt, wenn diese Funktion von bestehendem Code aufgerufen wird. - Die Funktionalität von
GroupBymitMultiIndex-Spalten wurde geändert, was zu unerwartetem Verhalten führt. - Einige
datetime-Attribute vonDatetimeIndex(z. B.day,month,yearusw.) gebenint32-Datentypen anstelle vonint64-Datentypen zurück.
Die PySpark-Funktion spark.sql() schlägt jetzt für ungültige Argumenttypen fehl
In Databricks Runtime 15.1 und höher muss der args Parameter für benannte oder positionale Parameter, die an die spark.sql()-Funktion übergeben werden, ein Wörterbuch oder eine Liste sein. Wenn ein anderer Objekttyp übergeben wird, wird der folgende Fehler ausgelöst: PySparkTypeError: [INVALID_TYPE] Argument `args` should not be a <arg_type>.
Das Speichern von Bibliotheken im DBFS-Root ist veraltet und standardmäßig deaktiviert
Um die Sicherheit von Bibliotheken in einem Azure Databricks-Arbeitsbereich zu verbessern, ist das Speichern von Bibliotheksdateien im DBFS-Stamm ab Databricks Runtime 15.1 standardmäßig veraltet und deaktiviert. Databricks empfiehlt, alle Bibliotheken (einschließlich Python-Bibliotheken, JAR-Dateien und Spark-Connectors) in Arbeitsbereichsdateien oder auf Unity Catalog-Volumes hochzuladen oder ein Paketrepository zu verwenden. Weitere Informationen unter Empfehlungen für das Hochladen von Bibliotheken.
Um das Speichern von Bibliotheken im DBFS-Stamm neu zu aktivieren, legen Sie den folgenden Spark-Konfigurationsparameter fest: spark.databricks.driver.dbfsLibraryInstallationAllowed true.
Die Python-Standardversion wird von 3.10 auf 3.11 aktualisiert.
Bei Databricks Runtime 15.1 ist die Python-Standardversion 3.11.0. Die Liste der aktualisierten Python-Bibliotheken finden Sie unter Library Upgrades.
JDK 11 wurde entfernt
Wie bereits angekündigt, wird JDK 11 aus Databricks Runtime 15.1 und höher entfernt. Databricks empfiehlt ein Upgrade auf JDK 17, wenn ein Upgrade auf Databricks Runtime 15.1 oder eine höhere Version durchgeführt wird. Siehe Databricks SDK für Java.
Die Python-REPL wird jetzt ordnungsgemäß beendet.
Mit Databricks Runtime 15.1 wird der Python REPL-Prozess des Notebooks jetzt beim Beenden ordnungsgemäß beendet. Dies sorgt dafür, dass alle atexit-Hooks berücksichtigt werden. Beispielsweise werden in einem Workflow mit mehreren Python-Notebookaufgaben atexit-Hooks, die in der ersten Aufgabe registriert sind, vor der zweiten Python-Notebookaufgabe ausgeführt.
Neue Features und Verbesserungen
- Die * (star) Klausel wird jetzt in der WHERE Klausel unterstützt
-
Die
spark.sql.json.enablePartialResults-Konfiguration ist jetzt standardmäßig aktiviert - Clusterbibliotheken unterstützen jetzt requirements.txt-Dateien
- Databricks CLI ist jetzt im Webterminal verfügbar
- Hinzufügen von Standard-Python-Repositorys zu Clusterkonfigurationen
- Webterminal auf Standardclustern verfügbar
- Passthrough für Anmeldeinformationen und die Hive-Metastore-Tabellenzugriffssteuerung sind veraltet
Die * (Stern)-Klausel wird jetzt in der WHERE-Klausel unterstützt.
Sie können nun die Sternklausel (*) in der WHERE-Klausel verwenden, um auf alle Spalten aus der Liste SELECT zu verweisen.
Beispiel: SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*).
Die spark.sql.json.enablePartialResults-Konfiguration ist jetzt standardmäßig aktiviert
Die Spark-Konfiguration spark.sql.json.enablePartialResults ist jetzt standardmäßig aktiviert, sodass der JSON-Parser Analysefehler für komplexe Typen wie Struktur, Zuordnung und Array ordnungsgemäß verarbeitet, ohne die verbleibenden Felder zu löschen. Diese Änderung behebt ein Konsistenzproblem für JSON-Datenquellen mit Spalten-Pruning.
Clusterbibliotheken unterstützen jetzt requirements.txt-Dateien
Sie können jetzt Clusterbibliotheken mithilfe einer requirements.txt-Datei installieren, die in einer Arbeitsbereichsdatei oder einem Unity-Katalogvolume gespeichert ist. In Clustern des dedizierten und Standard-Zugangsmodus kann die Datei auf andere Dateien verweisen. In den Zugriffsmodusclustern Keine Isolation, freigegebenen werden nur PyPI-Pakete unterstützt. Siehe Bibliotheken im Bereich der Computer.
Databricks CLI ist jetzt im Webterminal verfügbar
Sie können nun die Databricks CLI aus dem Webterminal im Notebook verwenden. Das Notizbuch muss an einen Cluster im Modus Dediziert oder Kein isolierter gemeinsam genutzter Zugriff angefügt werden. Ausführliche Informationen finden Sie unter Verwendung des Webterminals und der Databricks CLI.
Hinzufügen von Standard-Python-Repositorys zu Clusterkonfigurationen
In Databricks Runtime 15.1 und höher können Sie globale pip index-url- und extra-index-url-Parameter für die Installation von Cluster- und Notebookbibliotheken konfigurieren, wenn Sie ein Cluster konfigurieren oder eine Clusterrichtlinie definieren. Legen Sie dazu die Umgebungsvariablen DATABRICKS_PIP_INDEX_URL und DATABRICKS_PIP_EXTRA_INDEX_URLfest.
Webterminal auf Standardclustern verfügbar
In Databricks Runtime 15.1 und höher können Sie Webterminal auf Clustern mit Standardzugriffsmodus verwenden.
Passthrough für Anmeldeinformationen und die Hive-Metastore-Tabellenzugriffssteuerung sind veraltet
Passthrough für Anmeldeinformationen und die Hive-Metastore-Tabellenzugriffssteuerung sind Legacymodelle für Daten-Governance. Nehmen Sie ein Upgrade auf Unity Catalog vor, um die Sicherheit und Governance Ihrer Daten durch die Bereitstellung eines zentralen Ortes zum Verwalten und Überwachen des Datenzugriffs über mehrere Arbeitsbereiche in Ihrem Konto hinweg zu vereinfachen. Siehe Was ist Unity Catalog?.
Die Unterstützung für die Passthrough- und Hive-Metastore-Tabellenzugriffssteuerelemente für Anmeldeinformationen wird in einer bevorstehenden DBR-Version entfernt.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- black von 22.6.0 auf 23.3.0
- boto3 von 1.24.28 auf 1.34.39
- botocore von 1.27.96 auf 1.34.39
- certifi von 2022.12.7 auf 2023.7.22
- cryptography von 39.0.1 auf 41.0.3
- databricks-sdk von 0.1.6 auf 0.20.0
- distlib von 0.3.7 auf 0.3.8
- googleapis-common-protos von 1.62.0 auf 1.63.0
- grpcio von 1.48.2 auf 1.60.0
- grpcio-status von 1.48.1 auf 1.60.0
- importlib-metadata from 4.6.4 auf 6.0.0
- ipykernel von 6.25.0 auf 6.25.1
- ipython von 8.14.0 auf 8.15.0
- ipywidgets von 7.7.2 auf 8.0.4
- jupyter_core von 5.2.0 auf 5.3.0
- jupyterlab-widgets von 1.0.0 auf 3.0.5
- matplotlib von 3.7.0 auf 3.7.2
- pip von 22.3.1 auf 23.2.1
- platformdirs von 2.5.2 auf 3.10.0
- protobuf von 4.24.0 auf 4.24.1
- pyarrow von 8.0.0 auf 14.0.1
- Pygments von 2.11.2 auf 2.15.1
- pyodbc von 4.0.32 auf 4.0.38
- requests von 2.28.1 auf 2.31.0
- s3transfer von 0.6.2 auf 0.10.0
- scikit-learn von 1.1.1 auf 1.3.0
- scipy von 1.10.0 auf 1.11.1
- setuptools von 65.6.3 auf 68.0.0
- statsmodels von 0.13.5 auf 0.14.0
- tenacity von 8.1.0 auf 8.2.2
- tornado von 6.1 auf 6.3.2
- typing_extensions von 4.4.0 auf 4.7.1
- urllib3 von 1.26.14 auf 1.26.16
- virtualenv von 20.16.7 auf 20.24.2
- widgetsnbextension von 3.6.1 auf 4.0.5
- zipp von 1.0.0 auf 3.11.0
- Aktualisierte R-Bibliotheken:
- arrow von 12.0.1 auf 14.0.0.2
- askpass von 1.1 auf 1.2.0
- base von 4.3.1 auf 4.3.2
- brew von 1.0-8 auf 1.0-10
- brio von 1.1.3 auf 1.1.4
- bslib von 0.5.0 auf 0.6.1
- cli von 3.6.1 auf 3.6.2
- commonmark von 1.9.0 auf 1.9.1
- compiler von 4.3.1 auf 4.3.2
- config von 0.3.1 auf 0.3.2
- cpp11 von 0.4.4 auf 0.4.7
- credentials von 1.3.2 auf 2.0.1
- curl von 5.0.1 auf 5.2.0
- data.table von 1.14.8 auf 1.15.0
- datasets von 4.3.1 auf 4.3.2
- DBI von 1.1.3 auf 1.2.1
- dbplyr von 2.3.3 auf 2.4.0
- desc von 1.4.2 auf 1.4.3
- digest von 0.6.33 auf 0.6.34
- dplyr von 1.1.2 auf 1.1.4
- e1071 von 1.7-13 auf 1.7-14
- evaluate von 0.21 auf 0.23
- fansi von 1.0.4 auf 1.0.6
- fontawesome von 0.5.1 auf 0.5.2
- fs von 1.6.2 auf 1.6.3
- future von 1.33.0 auf 1.33.1
- future.apply von 1.11.0 auf 1.11.1
- gargle von 1.5.1 auf 1.5.2
- gert von 1.9.2 auf 2.0.1
- ggplot2 von 3.4.2 auf 3.4.4
- glmnet von 4.1-7 auf 4.1-8
- glue von 1.6.2 auf 1.7.0
- graphics von 4.3.1 auf 4.3.2
- grDevices von 4.3.1 auf 4.3.2
- grid von 4.3.1 auf 4.3.2
- gtable von 0.3.3 auf 0.3.4
- hardhat von 1.3.0 auf 1.3.1
- haven von 2.5.3 auf 2.5.4
- htmltools von 0.5.5 auf 0.5.7
- htmlwidgets von 1.6.2 auf 1.6.4
- httpuv von 1.6.11 auf 1.6.14
- httr von 1.4.6 auf 1.4.7
- httr2 von 0.2.3 bis 1.0.0
- jsonlite von 1.8.7 auf 1.8.8
- knitr von 1.43 auf 1.45
- labeling von 0.4.2 auf 0.4.3
- later von 1.3.1 auf 1.3.2
- lava von 1.7.2.1 auf 1.7.3
- lifecycle von 1.0.3 auf 1.0.4
- listenv von 0.9.0 auf 0.9.1
- lubridate von 1.9.2 auf 1.9.3
- markdown von 1.7 auf 1.12
- methods von 4.3.1 auf 4.3.2
- openssl von 2.0.6 auf 2.1.1
- parallel von 4.3.1 auf 4.3.2
- pkgbuild von 1.4.2 auf 1.4.3
- pkgload von 1.3.2.1 auf 1.3.4
- plyr von 1.8.8 auf 1.8.9
- prettyunits von 1.1.1 bis 1.2.0
- pROC von 1.18.4 auf 1.18.5
- processx von 3.8.2 auf 3.8.3
- prodlim von 2023.03.31 auf 2023.08.28
- progress von 1.2.2 auf 1.2.3
- progressr von 0.13.0 auf 0.14.0
- promises von 1.2.0.1 auf 1.2.1
- ps von 1.7.5 auf 1.7.6
- purrr von 1.0.1 auf 1.0.2
- ragg von 1.2.5 auf 1.2.7
- Rcpp von 1.0.11 auf 1.0.12
- RcppEigen von 0.3.3.9.3 auf 0.3.3.9.4
- readr von 2.1.4 auf 2.1.5
- recipes von 1.0.6 auf 1.0.9
- rematch von 1.0.1 auf 2.0.0
- remotes von 2.4.2 auf 2.4.2.1
- reprex von 2.0.2 bis 2.1.0
- rlang von 1.1.1 auf 1.1.3
- rmarkdown von 2.23 auf 2.25
- RODBC von 1.3-20 auf 1.3-23
- roxygen2 von 7.2.3 auf 7.3.1
- rprojroot von 2.0.3 auf 2.0.4
- Rserve von 1.8-11 auf 1.8-13
- RSQLite von 2.3.1 auf 2.3.5
- sass von 0.4.6 auf 0.4.8
- scales von 1.2.1 bis 1.3.0
- shiny von 1.7.4.1 auf 1.8.0
- sparklyr von 1.8.1 auf 1.8.4
- splines von 4.3.1 auf 4.3.2
- stats von 4.3.1 auf 4.3.2
- stats4 von 4.3.1 auf 4.3.2
- stringi von 1.7.12 auf 1.8.3
- stringr von 1.5.0 auf 1.5.1
- systemfonts von 1.0.4 bis 1.0.5
- tcltk von 4.3.1 auf 4.3.2
- testthat von 3.1.10 auf 3.2.1
- Textshaping von 0.3.6 auf 0.3.7
- tidyr von 1.3.0 auf 1.3.1
- timechange von 0.2.0 auf 0.3.0
- timeDate von 4022.108 auf 4032.109
- tinytex von 0.45 auf 0.49
- tools von 4.3.1 auf 4.3.2
- utf8 von 1.2.3 auf 1.2.4
- utils von 4.3.1 auf 4.3.2
- uuid von 1.1-0 auf 1.2-0
- vctrs von 0.6.3 auf 0.6.5
- vroom von 1.6.3 auf 1.6.5
- waldo von 0.5.1 auf 0.5.2
- withr von 2.5.0 auf 3.0.0
- xfun von 0.39 auf 0.41
- xml2 von 1.3.5 auf 1.3.6
- yaml von 2.3.7 auf 2.3.8
- zip von 2.3.0 auf 2.3.1
- Aktualisierte Java-Bibliotheken:
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 von 2.15.1 auf 2.16.0
- com.google.flatbuffers.flatbuffers-java von 1.12.0 auf 23.5.26
- com.typesafe.config von 1.2.1 auf 1.4.3
- org.apache.ant.ant von 1.9.16 auf 1.10.11
- org.apache.ant.ant-jsch von 1.9.16 auf 1.10.11
- org.apache.ant.ant-launcher von 1.9.16 auf 1.10.11
- org.apache.arrow.arrow-format von 12.0.1 auf 15.0.0
- org.apache.arrow.arrow-memory-core von 12.0.1 auf 15.0.0
- org.apache.arrow.arrow-memory-netty von 12.0.1 auf 15.0.0
- org.apache.arrow.arrow-vector von 12.0.1 auf 15.0.0
- org.apache.avro.avro von 1.11.2 auf 1.11.3
- org.apache.avro.avro-ipc von 1.11.2 auf 1.11.3
- org.apache.avro.avro-mapred von 1.11.2 auf 1.11.3
- org.apache.logging.log4j.log4j-1.2-api von 2.20.0 auf 2.22.1
- org.apache.logging.log4j.log4j-api von 2.20.0 auf 2.22.1
- org.apache.logging.log4j.log4j-core von 2.20.0 auf 2.22.1
- org.apache.logging.log4j.log4j-slf4j2-impl von 2.20.0 auf 2.22.1
- org.postgresql.postgresql von 42.6.0 auf 42.6.1
Apache Spark
Databricks Runtime 15.1 enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 14.3 LTS enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-45527] [DBRRM-805][es-1073714] Revertieren Sie „[SC-151626][core] Verwenden Sie den Bruchteil, um die Ressourcen zu berechnen“
-
[SPARK-47102] [ DBRRM-803][sc-158253][SQL] Hinzufügen des
COLLATION_ENABLEDKonfigurationsflags - [SPARK-46973] [SC-158140][dbrrm-777][SQL] Überspringen der V2-Tabellensuche, wenn sich eine Tabelle im V1-Tabellencache befindet
- [SPARK-46808] [SC-154113][python] Fehlerklassen in Python mit automatischer Sortierfunktion verfeinern
-
[SPARK-47251] [SC-158291][python] Blockieren ungültiger Typen aus dem
argsArgument fürsqlBefehl -
[SPARK-47251] [SC-158121][python] Ungültige Typen aus dem
argsArgument fürsqlBefehl blockieren -
[SPARK-47108] [SC-157204][core] Setze
derby.connection.requireAuthenticationbisfalseexplizit in CLIs - [SPARK-45599] [SC-157537][Core] Verwenden der Objektgleichheit in OpenHashSet
-
[SPARK-47099] [SC-157352][sql] Wird verwendet
ordinalNumber, um den WertparamIndexfür die Fehlerklasse einheitlich festzulegen.UNEXPECTED_INPUT_TYPE -
[SPARK-46558] [SC-151363][connect] Extrahieren Sie eine Hilfsfunktion, um den doppelten Code
MessageParameterszu eliminieren, der vonErrorParamsinGrpcExceptionConverterabgerufen wird. -
[SPARK-43117] [SC-156177][connect]
ProtoUtils.abbreviatesoll wiederholte Felder unterstützen -
[SPARK-46342] [ SC-150283][sql] Ersetzen
IllegalStateExceptiondurchSparkException.internalErrorin sql - [SPARK-47123] [SC-157412][core] JDBCRDD behandelt Fehler in getQueryOutputSchema nicht ordnungsgemäß.
- [SPARK-47189] [SC-157667][sql] Spaltenfehlernamen und Text anpassen
- [SPARK-45789] [SC-157101][sql] Support DESCRIBE TABLE für das Clustering von Spalten
- [SPARK-43256] [SC-157699][sql] Fehlerklasse _LEGACY_ERROR_TEMP_2021 entfernen
-
[SPARK-47201] [ SC-157782][python][CONNECT]
sameSemanticsüberprüft Eingabetypen -
[SPARK-47183] [SC-157660][python] Beheben der Fehlerklasse für
sameSemantics - [SPARK-47179] [SC-157663][sql] Verbessern der Fehlermeldung von SparkThrowableSuite zur besseren Debugbarkeit
-
[SPARK-46965] [SC-155791][Kern]
logTypeinUtils.getLogüberprüfen - [SPARK-46832] [SC-156774][sql] Einführung der Ausdrücke Collate und Collation
- [SPARK-46946] [SC-155721][sql] Unterstützen der Übertragung mehrerer Filterschlüssel in DynamicPruning
- [SPARK-47079] [ VARIANT-22][sc-157598][PYTHON][sql][CONNECT] Hinzufügen von Variant-Typinformationen zu PySpark
-
[SPARK-47101] [SC-157360][sql] Das Verwenden von Kommas in Spaltennamen der obersten Ebene zulassen und die Überprüfung von geschachtelten Typdefinitionen entfernen
HiveExternalCatalog.verifyDataSchema - [SPARK-47173] [SC-157571][ss][UI] Beheben eines Tippfehlers in der Erklärung der Streaming-UI
- [SPARK-47113] [SC-157348][core] Rückgängigmachung der S3A-Endpunkt-Korrekturlogik von SPARK-35878
- [SPARK-47130] [SC-157462][core] Verwenden von listStatus zum Umgehen von Blockortinformationen beim Bereinigen von Treiberprotokollen
- [SPARK-43259] [SC-157368][sql] Weisen Sie der Fehlerklasse _LEGACY_ERROR_TEMP_2024 einen Namen zu
-
[SPARK-47104] [SC-157355][sql]
TakeOrderedAndProjectExecsollte die unsichere Projektion initialisieren. - [SPARK-47137] [SC-157463][python][CONNECT] Hinzufügen von getAll zu spark.conf für featureparität mit Scala
-
[SPARK-46924] [SC-154905][core] Korrigiert die
Load NewSchaltfläche inMaster/HistoryServerLog UI -
[SPARK-47069] [SC-157370][python][CONNECT] Einführung von
spark.profile.show/dumpfür die SparkSession-basierte Profilerstellung - [SPARK-46812] [SC-157075][sql][PYTHON] MapInPandas / mapInArrow Support ResourceProfile machen
- [SPARK-46833] [SC-155866][sql] Sortations – Einführung in CollationFactory, das Vergleichs- und Hashregeln für unterstützte Sortierungen bereitstellt
- [SPARK-47057] [SC-157036] [PYTHON] Reeanble MyPy-Datentest
- [SPARK-46934] [SC-157084][sql] Read/write roundtrip für Struct-Typ mit Sonderzeichen mit HMS
-
[SPARK-46727] [SC-153472][sql] Port
classifyException()in JDBC-Dialekten bei Fehlerklassen - [SPARK-46964] [SC-155740][sql] Ändern der Signatur des hllInvalidLgK-Abfrageausführungsfehlers zur Annahme einer ganzen Zahl als viertes Argument.
- [SPARK-46949] [SC-155719][sql] Unterstützen Sie CHAR/VARCHAR durch ResolveDefaultColumns
- [SPARK-46972] [SC-155888][sql] Korrektur der asymmetrischen Ersetzung für char/varchar in V2SessionCatalog.createTable
- [SPARK-47014] [SC-156778][python][CONNECT] Implementieren von Methoden dumpPerfProfiles und dumpMemoryProfiles von SparkSession
- [SPARK-46689] [SC-156221] [SPARK-46690] [PYTHON] [CONNECT] Unterstützung von v2-Profilerstellung in group/cogroup applyInPandas/applyInArrow
- [SPARK-47040] [SC-156773][connect] Warten des Spark Connect-Serverskripts zulassen
- [SPARK-46688] [SC-156113] [SPARK-46691] [PYTHON] [CONNECT] Unterstützung der v2-Profilerstellung in aggregierten Pandas UDFs
- [SPARK-47004] [SC-156499][connect] Zusätzliche Tests zu ClientStreamingQuerySuite hinzugefügt, um die Skala-Clienttestabdeckung zu erhöhen
- [SPARK-46994] [SC-156169][python] Refactor PythonWrite zur Vorbereitung auf die Unterstützung des Python-Datenquellenstreaming-Schreibvorgangs
- [SPARK-46979] [SC-156587][ss] Unterstützung für die separate Angabe von Kodierern für Schlüssel und Werte sowie für jede Spaltenfamilie im RocksDB-Statusspeicher-Anbieter hinzufügen.
- [SPARK-46960] [SC-155940][ss] Testen mehrerer Eingabedatenströme mit transformWithState-Operator
- [SPARK-46966] [SC-156112][python] Fügen Sie UDTF-API für die Methode "analyse" hinzu, um die Teilmenge der auszuwählenden Eingabetabellenspalten anzugeben.
- [SPARK-46895] [SC-155950][core] Timer durch einen geplanten Einzelthread-Executor ersetzen
-
[SPARK-46967] [SC-155815][core][UI]
Thread DumpundHeap HistogramvonDeadExecutors inExecutorsUI ausblenden - [SPARK-46512] [SC-155826][Core] Optimieren Sie den Lesevorgang beim Shuffle, wenn sowohl Sortieren als auch Kombinieren verwendet werden.
- [SPARK-46958] [SC-155942][sql] Fügen Sie fehlende Zeitzone hinzu, um Standardwerte zu koerzen
- [SPARK-46754] [SC-153830][sql][AVRO] Korrektur der Komprimierungscode-Auflösung in der Avro-Tabellendefinition und den Schreiboptionen
- [SPARK-46728] [SC-154207][python] Pandas-Installation ordnungsgemäß überprüfen
- [SPARK-43403] [SC-154216][ui] Stellen Sie sicher, dass die alte SparkUI im HistoryServer getrennt wurde, bevor eine neue geladen wird.
- [SPARK-39910] [SC-156203][sql] Delegierung der Pfadqualifizierung an das Dateisystem während des DataSource-Dateipfad-Globbing
-
[SPARK-47000] [SC-156123] Rückgängigmache von "[SC-156123][core] Use
getTotalMemorySize... - [SPARK-46819] [SC-154560][Core] Verschieben von Fehlerkategorien und -zuständen in JSON
-
[SPARK-46997] [SC-156175][core] Standardmäßig aktivieren
spark.worker.cleanup.enabled - [SPARK-46865] [SC-156168][ss] Hinzufügen der Batchunterstützung für den TransformWithState-Operator
-
[SPARK-46987] [SC-156040][connect]
ProtoUtils.abbreviatevermeiden unnötige VorgängesetField -
[SPARK-46970] [SC-155816][core] Umschreiben
OpenHashSet#hashermitpattern matching - [SPARK-46984] [SC-156024] [PYTHON] Pyspark.copy_func entfernen
-
[SPARK-47000] [SC-156123][core] Verwenden Sie
getTotalMemorySizeinWorkerArguments - [SPARK-46980] [SC-155914][sql][MINOR] Vermeiden Sie die Verwendung interner APIs in End-to-End-Tests im Dataframe
-
[SPARK-46931] Zurücksetzen von "[SC-155661][PS] Implementieren von
{Frame, Series}.to_hdf" - [SPARK-46618] [SC-153828][sql] Verbesserung der Fehlermeldungen für den "DATA_SOURCE_NOT_FOUND" Fehler.
- [SPARK-46849] [SC-154586][sql] Optimierer für CREATE TABLE Spaltenstandardwerte ausführen
- [SPARK-46911] [SC-155724][ss] Hinzufügen von deleteIfExists-Operator zu StatefulProcessorHandleImpl
-
[SPARK-43273] [SQL] Unterstützung des
lz4raw-Codecs zur Komprimierung für Parquet - [SPARK-47002] [SC-156223][python] Gibt eine bessere Fehlermeldung zurück, wenn die UDTF-Methode "orderBy" versehentlich eine Liste von Zeichenfolgen zurückgibt.
- [SPARK-46890] [SC-155802][sql] Beheben eines CSV-Analysefehlers mit bestehenden Standardwerten und Beschneiden von Spalten
- [SPARK-46977] [SC-155892][core] Eine fehlgeschlagene Anforderung zum Abrufen eines Tokens von einem NameNode sollte nachfolgende Tokenanforderungen nicht überspringen
-
[SPARK-46608] [ SC-151806][sql] Abwärtskompatibilität wiederherstellen
JdbcDialect.classifyException - [SPARK-46908] [SC-155702][sql] Unterstützung der Stern-Klausel in der WHERE-Klausel
- [SPARK-46908] [SC-155702][sql] Unterstützung der Stern-Klausel in der WHERE-Klausel
- [SPARK-46852] [SC-155665][ss] Entfernen Sie die Verwendung expliziter Schlüsselgeber, und übergeben Sie ihn implizit an den Operator für den transformWithState-Operator.
- [SPARK-46864] [SC-155669][ss] Einbindung von Arbitrary StateV2 in das neue Fehlerklassen-Framework
- [SPARK-45807] [SC-155706][sql] Rückgabeansicht nach dem Aufrufen von replaceView(.)
-
[SPARK-46899] [SC-154651][core]
POSTAPIs ausMasterWebUIentfernen, wennspark.ui.killEnabledfalseist - [SPARK-46868] [SC-154539][core] Unterstützung für die Spark Worker Log UI
-
[SPARK-46931] [SC-155661][ps] Implementieren
{Frame, Series}.to_hdf -
[SPARK-46940] [SC-155667][Kern] Nicht verwendete
updateSparkConfigFromPropertiesundisAbsoluteURIentfernen ino.a.s.u.Utils - [SPARK-46929] [SC-155659][core][CONNECT][ss] Verwenden von ThreadUtils.shutdown zum Schließen von Threadpools
- [SPARK-46400] [SC-155658][core][SQL] Wenn beschädigte Dateien im lokalen Maven-Repository vorhanden sind, überspringen Sie diesen Cache, und versuchen Sie es erneut.
-
[SPARK-46932] [SC-155655] Bereinigung der Importe in
pyspark.pandas.test_* - [SPARK-46683] [SC-154120] Schreiben eines Unterabfrage-Generators, der Unterabfragen generiert, um die Testabdeckung zu erhöhen
- [SPARK-46914] [SC-154776][ui] Kürzen des App-Namens in der Zusammenfassungstabelle auf der Verlaufsseite
- [SPARK-46831] [SC-154699][sql] Kollationen - Erweiterung von StringType und PhysicalStringType um das Feld collationId
- [SPARK-46816] [SC-154415] [SS] Hinzufügen der Basisunterstützung für den neuen Operator für die Verwaltung beliebiger Zustände, einzelner valueState-Typen, mehrerer Zustandsvariablen und zugrunde liegende Unterstützung für Spaltenfamilien für RocksDBStateStoreProvider mit/ohne Änderungsprotokollprüfpunkten
- [SPARK-46925] [SC-154890][python][CONNECT] Fügen Sie eine Warnung hinzu, die anweist, memory_profiler für die Speicherprofilerstellung zu installieren.
-
[SPARK-46927] [SC-154904] [PYTHON]
assertDataFrameEqualordnungsgemäß zum Laufen bekommen ohne PyArrow - [SPARK-46021] [SC-148987][core] Unterstützung der Annulierung zukünftiger Jobs, die zu einer Job-Gruppe gehören
- [SPARK-46747] [SC-154789][sql] Vermeide den Scan in "getTableExistsQuery" für JDBC-Dialekte
- [SPARK-46904] [SC-154704] [UI] Beheben des Anzeigeproblems der Verlaufs-UI-Zusammenfassung
- [SPARK-46870] [SC-154541][core] Unterstützung der Spark Master Log UI
- [SPARK-46893] [SC-154780][ui] Entfernen von Inlineskripts aus Benutzeroberflächenbeschreibungen
- [SPARK-46910] [SC-154760][python] Entfernen der JDK-Anforderung in der PySpark-Installation
- [SPARK-46907] [SC-154736][core] Standort des Treiberprotokolls im Spark History Server anzeigen
- [SPARK-46902] [SC-154661][ui] Korrektur der Benutzeroberfläche des Spark History Servers zur Verwendung von nicht exportierten setAppLimit-Einstellungen
- [SPARK-46687] [SC-154725][python][CONNECT] Grundlegende Unterstützung von SparkSession-basierten Speicherprofiler
- [SPARK-46623] [SC-153831][core][MLLIB][sql] Ersetzen Von SimpleDateFormat durch DateTimeFormatter
-
[SPARK-46875] [SC-154627][sql] Wenn der
modeNull ist, sollte einNullPointExceptionausgelöst werdennot -
[SPARK-46872] [SC-154543][core] Zurücksetzen
log-view.jsals Nicht-Modul -
[SPARK-46883] [SC-154629][core] Unterstützung der
/json/clusterutilizationAPI -
[SPARK-46886] [SC-154630][core] Standardmäßig aktivieren
spark.ui.prometheus.enabled - [SPARK-46873] [SC-154638] [SS] Neuen StreamingQueryManager für dieselbe Spark-Sitzung nicht neu erstellen
- [SPARK-46829] [SC-154419][core] Remove createExecutorEnv from SparkEnv
-
[SPARK-46827] [SC-154280][core]
RocksDBPersistenceEngineDen Support für einen symbolischen Link einführen - [SPARK-46903] [SC-154662][core] Support Spark Historie Server Log UI
-
[SPARK-46874] [SC-154646] [PYTHON] Entfernen der
pyspark.pandas-Abhängigkeit vonassertDataFrameEqual -
[SPARK-46889] [SC-154639][core] Validiere
spark.master.ui.decommission.allow.modeEinstellung -
[SPARK-46850] [ SC-154443][sql] Konvertieren
_LEGACY_ERROR_TEMP_2102inUNSUPPORTED_DATATYPE -
[SPARK-46704] [SC-153323][core][UI] Korrektur
MasterPageumRunning DriversTabelle nachDurationSpalte korrekt zu sortieren - [SPARK-46796] [ SC-154279][ss] Stellen Sie sicher, dass die richtigen Remotedateien (in metadata.ziperwähnt) beim Laden der RocksDB-Version verwendet werden.
-
[SPARK-46888] [SC-154636][core] Korrigiert,
Masterdass/workers/kill/Anfragen abgelehnt werden, wenn die Stilllegung deaktiviert ist - [SPARK-46818] [SC-154422][sql] Verbesserung der Fehlermeldungen für Bereiche mit nicht faltbaren Eingaben
- [SPARK-46898] [SC-154649] [CONNECT] Vereinfachen der Protobuf-Funktionstransformation in Planner
- [SPARK-46828] [SC-154413][sql] Entfernen der ungültigen Assertion des Remotemodus für spark sql shell
- [SPARK-46733] [SC-154274][core] Vereinfachen Sie den BlockManager, indem der Beendigungsvorgang nur vom Interrupt-Thread abhängt.
- [SPARK-46777] [SC-154016][ss] Katalysatorstruktur umgestalten, um mehr im Einklang mit der Version im Batch-Betrieb zu stehen
- [SPARK-46515] [SC-151716] Hinzufügen der MONTHNAME-Funktion
-
[SPARK-46823] [SC-154276] [CONNECT] [PYTHON]
LocalDataToArrowConversionsollte die Nullbarkeit überprüfen -
[SPARK-46787] [SC-154404] [CONNECT]
bloomFilter-Funktion sollte für ungültige EingabenAnalysisExceptionauslösen -
[SPARK-46779] [SC-154045][sql]
InMemoryRelationInstanzen desselben zwischengespeicherten Plans sollten semantisch gleichwertig sein. - [SPARK-45827] [SC-153973] Partitionierung in Variant-Spalte nicht zulassen
-
[SPARK-46797] [ SC-154085][core] Umbenennen
spark.deploy.spreadOutinspark.deploy.spreadOutApps - [SPARK-46094] [SC-153421] Executor JVM Profiling unterstützen
- [SPARK-46746] [SC-153557][sql][AVRO] Fügen Sie Codec-Erweiterung an avro-Datenquellendateien an
- [SPARK-46698] [SC-153288][core] Ersetzen des Timers durch einen zeitgesteuerten Single-Thread-Executor für ConsoleProgressBar.
- [SPARK-46629] [SC-153835] Fix für STRUCT-Typ DDL ohne Nullbarkeit und Kommentar
- [SPARK-46750] [ SC-153772][connect][PYTHON] DataFrame-APIs-Code bereinigen
- [SPARK-46769] [SC-153979][sql] Zeitstempelbezogenes Schema verfeinern
-
[SPARK-46765] [SC-153904][python][CONNECT] Geben Sie
shuffleden Datentyp vonseed - [SPARK-46579] [SC-151481][sql] Redact JDBC url in Fehlern und Protokollen
- [SPARK-46686] [SC-153875][python][CONNECT] Grundlegende Unterstützung von SparkSession-basierten Python-UDF-Profilern
-
[SPARK-46748] Revert "[SC-153800][core] Entfernen von
*slav**.shscri... - [SPARK-46707] [SC-153833][sql] Feld „throwable“ zu Ausdrücken hinzugefügt, um den Prädikat-Pushdown zu verbessern
-
[SPARK-46519] [SC-151278][sql] Löschen nicht verwendeter Fehlerklassen aus
error-classes.jsonDatei -
[SPARK-46677] [SC-153426][sql][CONNECT] Fix
dataframe["*"]Auflösung - [SPARK-46317] [SC-150184][PYTHON][CONNECT] Abgleich mit dem Mindestverhalten in SparkSession bei vollständiger Testabdeckung
-
[SPARK-46748] [SC-153800][core]
*slav**.shSkripte entfernen - [SPARK-46663] [SC-153490] [PYTHON] Deaktivieren des Speicherprofilers für Pandas UDFs mit Iteratoren
- [SPARK-46410] [SC-150776][sql] Zuweisung von Fehlerklassen/Unterklassen zu JdbcUtils.classifyException
- [SPARK-46277] [SC-150126][python] Überprüfen der Start-URLs mit der festgelegten Konfiguration
- [SPARK-46612] [SC-153536][sql] Die von einem JDBC-Treiber abgerufene Array-Typ-Zeichenfolge nicht konvertieren.
- [SPARK-46254] [SC-149788] [PYTHON] Entfernen veralteter Python 3.8/3.7 Versionsprüfung
-
[SPARK-46490] [SC-151335][sql] Erfordern Fehlerklassen in
SparkThrowableUnterklassen -
[SPARK-46383] [SC-153274] [SC-147443] [WARMFIX] Reduzieren der Treiber Heap-Nutzung durch Reduzierung der Lebensdauer von
TaskInfo.accumulables() - [SPARK-46541] [SC-153109][sql][CONNECT] Beheben Sie den mehrdeutigen Spaltenverweis bei der Selbstverknüpfung
-
[SPARK-46381] [SC-150495][sql] Migrieren von Unterklassen
AnalysisExceptionzu Fehlerklassen -
[SPARK-46351] [SC-150335][sql] Erfordert eine Fehlerklasse in
AnalysisException -
[SPARK-46220] [ SC-149689][sql] Einschränken von Zeichenmengen in
decode() -
[SPARK-46369] [SC-150340][core] Link
killvonRELAUNCHINGTreibern inMasterPageentfernen - [SPARK-46052] [SC-153284][core] Funktion TaskScheduler.killAllTaskAttempts entfernen
- [SPARK-46536] [SC-153164][sql] Unterstützung GROUP BY calendar_interval_type
- [SPARK-46675] [SC-153209][sql] Entfernung des nicht verwendeten inferTimestampNTZ in ParquetReadSupport
-
[SPARK-46717] [SC-153423][core] Vereinfachung
ReloadingX509TrustManagerdurch die Exit-Operation nur von Interrupt-Thread abhängig. - [SPARK-46722] [SC-153438][connect] Fügen Sie einen Test zur Abwärtskompatibilitätsprüfung für StreamingQueryListener in Spark Connect (Scala/PySpark) hinzu.
-
[SPARK-46187] [SC-149580][sql] Ausrichten von codegener und nicht-codegener Implementierung von
StringDecode -
[SPARK-46258] [SC-149799][core] Hinzufügen von
RocksDBPersistenceEngine -
[SPARK-46216] [SC-149676][core] Verbessern
FileSystemPersistenceEngineum Datenkomprimierungen zu unterstützen - [SPARK-46189] [SC-149567][ps][SQL] Führen Sie Vergleiche und Arithmetik zwischen denselben Typen in verschiedenen Pandas-Aggregatfunktionen durch, um Fehler im interpretierten Modus zu vermeiden
- [SPARK-46184] [SC-149563][core][SQL][connect][MLLIB] Reduzieren der Stapeltiefe, indem Option.isDefined durch Option.isEmpty ersetzt wird.
- [SPARK-46700] [SC-153329][core] Zählen der letzten Verschüttung für die Metrik der Verschüttung von Datenträgern in Bytes
-
[SPARK-45642] [SC-150286][core][SQL] Behebung
FileSystem.isFile & FileSystem.isDirectory is deprecated - [SPARK-46640] [SC-153272][sql] Fix RemoveRedundantAlias durch Ausschließen von Unterabfrageattributen
-
[SPARK-46681] [SC-153287][Core]
ExecutorFailureTracker#maxNumExecutorFailuresumgestalten, um die Berechnung vondefaultMaxNumExecutorFailureszu vermeiden, wennMAX_EXECUTOR_FAILURESkonfiguriert ist - [SPARK-46695] [SC-153289][sql][HIVE] hive.execution.engine immer auf 'mr' festlegen
-
[SPARK-46325] [SC-150228][connect] Entfernen unnötiger überschreibender Funktionen beim Konstruieren
WrappedCloseableIteratorinResponseValidator#wrapIterator - [SPARK-46232] [SC-149699][python] Alle verbleibenden ValueError in das PySpark-Fehlerframework migrieren.
- [SPARK-46547] [SC-153174] [SS] Verschwinden lassen einer nicht schwerwiegenden Ausnahme bei Wartungsaufgaben, um Deadlock zwischen Wartungsthread und Streamingaggregationsoperator zu vermeiden
-
[SPARK-46169] [SC-149373][ps] Weisen Sie geeignete JIRA-Nummern für fehlende Parameter aus der
DataFrameAPI zu. -
[SPARK-45857] [SC-148096][sql] Erzwingt die Fehlerklassen in Unterklassen von
AnalysisException
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Wartungsupdates
Weitere Informationen finden Sie unter Databricks Runtime 15.1-Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Skala: 2.12.15
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.1.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
| azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
| schwarz | 23.3.0 | Blinker | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | CacheWerkzeuge | 5.3.3 | certifi | 2023.7.22 |
| cffi | 1.15.1 | chardet | 4.0.0 | Charset-Normalizer | 2.0.4 |
| click | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
| contourpy | 1.0.5 | cryptography | 41.0.3 | Fahrradfahrer | 0.11.0 |
| Cython | 0.29.32 | Databricks-SDK | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | Dekorateur | 5.1.1 | distlib | 0.3.8 |
| Einstiegspunkte | 0.4 | executing | 0.8.3 | Übersicht der Facetten | 1.1.1 |
| Dateisperrung | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.42 | google-api-core | 2.17.1 | google-auth | 2.28.2 |
| google-cloud-core | 2.4.1 | Google Cloud-Speicher | 2.15.0 | google-crc32c | 1.5.0 |
| google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipywidgets | 8.0.4 | isodate | 0.6.1 |
| Jedi | 0.18.1 | jeepney | 0.7.1 | jmespath | 0.10.0 |
| joblib | 1.2.0 | jupyter_client | 7.4.9 | jupyter_core | 5.3.0 |
| jupyterlab-widgets | 3.0.5 | Schlüsselring | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.1 |
| more-itertools | 8.10.0 | mypy-Erweiterungen | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | Packen | 23.2 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Kissen | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
| plotly | 5.9.0 | prompt-toolkit | 3.0.36 | protobuf | 4.24.1 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 14.0.1 | Pyasn1 | 0.4.8 |
| Pyasn1-Module | 0.2.8 | pyccolo | 0.0.52 | pycparser | 2.21 |
| pydantic | 1.10.6 | Pygments | 2.15.1 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.38 | pyparsing | 3.0.9 |
| Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | pytz | 2022.7 |
| PyYAML | 6.0 | pyzmq | 23.2.0 | requests | 2.31.0 |
| rsa | 4,9 | s3transfer | 0.10.0 | scikit-learn | 1.3.0 |
| scipy | 1.11.1 | Seegeboren | 0.12.2 | SecretStorage | 3.3.1 |
| setuptools | 68.0.0 | six | 1.16.0 | smmap | 5.0.1 |
| sqlparse | 0.4.4 | ssh-import-id | 5.11 | Stapeldaten | 0.2.0 |
| StatistikModelle | 0.14.0 | Hartnäckigkeit | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | Tornado | 6.3.2 | traitlets | 5.7.1 |
| typing_extensions | 4.7.1 | tzdata | 2022.1 | ujson | 5.4.0 |
| unbeaufsichtigte Aktualisierungen | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.24.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | Rad | 0.38.4 |
| widgetsnbextension | 4.0.5 | zipp | 3.11.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2023-02-10installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 14.0.0.2 | Askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-7 | Blob | 1.2.4 | boot | 1.3-28 |
| brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
| bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
| caret | 6.0-94 | CellRanger | 1.1.0 | chron | 2.3-61 |
| class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
| clock | 0.7.0 | cluster | 2.1.4 | Codetools | 0.2-19 |
| colorspace | 2.1-0 | commonmark | 1.9.1 | Kompilierer | 4.3.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| Buntstift | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
| data.table | 1.15.0 | Datensätze | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.34 |
| downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | Ellipse | 0.3.2 | Evaluieren | 0,23 |
| Fans | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
| Zukunft | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
| Generika | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
| gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.2 | Klebstoff | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| Grafiken | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
| gtable | 0.3.4 | hardhat | 1.3.1 | Hafen | 2.5.4 |
| highr | 0,10 | hms | 1.1.3 | HTML-Werkzeuge | 0.5.7 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-21 | knitr | 1.45 | Etikettierung | 0.4.3 |
| later | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
| Lebenszyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
| Matrix | 1.5-4.1 | memoise | 2.0.1 | Methoden | 4.3.2 |
| mgcv | 1.8-42 | Mime-Kunst | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.1.1 | parallel | 4.3.2 |
| parallelly | 1.36.0 | Säule | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | Fortschritt | 1.2.3 |
| progressr | 0.14.0 | Versprechungen | 1.2.1 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.6 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reaktivierbar | 0.4.4 |
| reactR | 0.5.0 | readr | 2.1.5 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.3 |
| Rezepte | 1.0.9 | Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 |
| remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1,8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
| scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.2 |
| shape | 1.4.6 | glänzend | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiken | 4.3.2 |
| Statistiken4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
| Überleben | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| Textgestaltung | 0.3.7 | Tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 |
| timeDate | 4032.109 | tinytex | 0.49 | Werkzeuge | 4.3.2 |
| Zeitzonendatenbank (tzdb) | 0.4.0 | URL-Prüfer | 1.0.1 | Nutze dies | 2.2.2 |
| utf8 | 1.2.4 | utils | 4.3.2 | Universelle eindeutige Kennung (UUID) | 1.2-0 |
| V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
| vroom | 1.6.5 | Waldo | 0.5.2 | whisker | 0.4.1 |
| withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
| zeallot | 0.1.0 | zip | 2.3.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.17.1 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,25 |
| io.delta | delta-sharing-client_2.12 | 1.0.4 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | Netty Codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammlung | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | Pfeil-Vektor | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Endgültig |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | shims | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |