Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 13.3 LTS, die von Apache Spark 3.4.1 unterstützt wird.
Diese Version wurde von Databricks im August 2023 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Neue Features und Verbesserungen
- Scala-Unterstützung für freigegebene Cluster
- Die Zulassungsliste für init-Skripts, JARs und Maven-Koordinaten für Unity-Katalog-Standardcluster (ehemals freigegebene Cluster) befindet sich in der öffentlichen Vorschau
- Volumes unterstützen Initialisierungsskripts und JARs in Public Preview
- Sichere Umwandlungen sind für Delta Lake-Vorgänge standardmäßig aktiviert
- Einführung von Tags mit Unity Catalog
- Databricks Runtime gibt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und -aufrufung geändert wird
- Überschreiben des Blockschemas bei Verwendung von dynamischen Partitionsüberschreibungen
- Integrieren der copyFile-API in dbutils.fs.cp
- Databricks ODBC/JDBC-Treiberunterstützung
- Unterstützung für nicht benannte (positionale) Parametermarker
- Aktivieren der Bezeichnung von Zeitreihenspalten
- Neue Bitmap SQL-Funktionen
- Verbesserte Verschlüsselungsfunktionen
- Unity-Katalogunterstützung für REFRESH FOREIGN
- INSERT NACH NAME
- Freigeben materialisierter Ansichten mit Delta Sharing
Scala-Unterstützung für freigegebene Cluster
Freigegebene Cluster mit Unity Catalog-Unterstützung unterstützen jetzt Scala, wenn Databricks Runtime 13.3 und höher verwendet wird.
Die Zulassungsliste für init-Skripts, JARs und Maven-Koordinaten für Unity-Katalog-Standardcluster (ehemals freigegebene Cluster) befindet sich in der öffentlichen Vorschau
Sie können jetzt den Unity-Katalog allowlist verwenden, um die Installation von Init-Skripts, JARs und Maven-Koordinaten für die Berechnung mit standardzugriffsmodus zu steuern, in dem Databricks Runtime 13.3 und höher ausgeführt wird. Weitere Informationen finden Sie unter Setzen von Bibliotheken und Inititalisierungsskripts auf Computeressourcen im Standardzugriffsmodus (ehemals freigegebener Zugriffsmodus) auf die Positivliste.
Volumes unterstützen Initialisierungsskripts und JARs in Public Preview
Sie können jetzt Unity-Katalogvolumes verwenden, um init-Skripts und JARs auf compute mit dedizierten oder standardzugriffsmodi zu speichern, die Databricks Runtime 13.3 und höher ausführen. Weitere Informationen finden Sie unter Wo können Initialisierungsskripts installiert werden? und Bibliotheken im Computebereich.
Sichere Umwandlungen sind für Delta Lake-Vorgänge standardmäßig aktiviert
Delta-UPDATE- und MERGE-Vorgänge führen jetzt zu einem Fehler, wenn Werte nicht sicher in den Typ im Schema der Zieltabelle umgewandelt werden können. Alle impliziten Umwandlungen in Delta folgen jetzt spark.sql.storeAssignmentPolicy statt spark.sql.ansi.enabled. Weitere Informationen finden Sie unter ANSI-Konformität in Databricks Runtime.
Einführung von Tags mit Unity Catalog
Mit Databricks Runtime 13.3 LTS und höher können Sie Tags auf Ihre sicherungsfähigen Objekte anwenden. Tags helfen Ihnen dabei, sicherungsfähige Objekte zu organisieren und die Suche und Ermittlung Ihrer Datenressourcen zu vereinfachen. Weitere Informationen finden Sie unter Anwenden von Tags auf sicherungsfähige Unity Catalog-Objekte.
Databricks Runtime gibt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und -aufrufung geändert wird
Databricks Runtime-Abfragen geben jetzt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und Aufruf aktualisiert wird. Vor dieser Änderung las Databricks Runtime eine Datei zwischen diesen Phasen, was gelegentlich zu unvorhersehbaren Ergebnissen führte.
Überschreiben des Blockschemas bei Verwendung von dynamischen Partitionsüberschreibungen
Sie können overwriteSchema in Kombination mit dynamischen Partitionsüberschreibungen in Delta Lake nicht auf true festlegen. Dadurch wird eine mögliche Tabellenbeschädigung aufgrund von Schemakonflikten verhindert. Weitere Informationen finden Sie unter dynamische Partitionsüberschreibungen.
Integrieren der copyFile-API in dbutils.fs.cp
Der Befehl dbutils copy, dbutils.fs.cp, ist jetzt für schnelleres Kopieren optimiert. Mit dieser Verbesserung können Kopiervorgänge je nach Dateigröße bis zu 100-mal schneller sein. Das Feature ist für alle Dateisysteme verfügbar, auf die in Azure Databricks zugegriffen werden kann, einschließlich für Unity-Katalogvolumes und Databricks File System-Einbindungen.
Databricks ODBC/JDBC-Treiberunterstützung
Azure Databricks unterstützt ODBC- und JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie den neuesten Treiber unter ODBC-Treiber herunterladen und JDBC-Treiber herunterladen herunter.
Unterstützung für nicht benannte (positionale) Parametermarker
Die SparkSession.sql()-API unterstützt jetzt parametrisierte Abfragen mithilfe der ?-Syntax zusätzlich zu parametrisierten Abfragen mithilfe der :parm-Syntax. Weitere Informationen finden Sie unter Parametermarker.
Aktivieren der Bezeichnung von Zeitreihenspalten
Sie können jetzt Zeitreihenspalten bezeichnen, wenn Sie Primärschlüsseleinschränkungen erstellen.
Neue Bitmap SQL-Funktionen
Azure Databricks hat jetzt eine Reihe von Funktionen bereitgestellt, mit denen integrale numerische Werte einer Bitmap zugeordnet und aggregiert werden können. Dies kann verwendet werden, um die Anzahl unterschiedlicher Werte vorab zu berechnen.
Verbesserte Verschlüsselungsfunktionen
Die Funktionen aes_encrypt, aes_decrypt und try_aes_decrypt wurden mit Unterstützung für Initialisierungsvektoren (IV) und authentifizierte zusätzliche Daten (AAD) verbessert.
Unity-Katalogunterstützung für REFRESH FOREIGN
Sie können jetzt fremde Kataloge, Schemas und Tabellen in Unity Catalog mithilfe von REFRESH FOREIGN CATALOG, REFRESH FOREIGN SCHEMA und REFRESH FOREIGN TABLE aktualisieren. Siehe REFRESH FOREIGN (CATALOG, SCHEMAund TABLE).
INSERT NAMENTLICH
Wenn Sie Zeilen in eine Tabelle einfügen, können Sie jetzt Azure Databricks die Spalten und Felder in der Quellabfrage automatisch anhand ihrer Namen den Spalten der Tabelle zuordnen lassen. Siehe INSERT INTO.
Freigeben materialisierter Ansichten mit Delta Sharing
Die ALTER SHARE Anweisung unterstützt jetzt materialisierte Ansichten.
Aktuelle Änderungen
Änderungen an impliziter Umwandlung beim Speichern von Zeilen in einer Tabelle mit MERGE INTO und UPDATE
Azure Databricks folgt nun der Konfiguration „spark.sql.storeAssignmentPolicy“ für die implizite Umwandlung beim Speichern von Zeilen in einer Tabelle. Der Standardwert „ANSI“ löst einen Fehler aus, wenn Werte gespeichert werden, die überlaufen. Zuvor wurden Werte standardmäßig als NULL gespeichert.
Wie im folgenden Beispiel können Sie Überläufe beheben, indem Sie die Tabelle umschreiben, um einen breiteren Typ für die Spalte zu verwenden, die den Fehler verursacht.
-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
'delta.minReaderVersion' = '2',
'delta.minWriterVersion' = '5',
'delta.columnMapping.mode' = 'name'
)
-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT
-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old
-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old
Parquet Schema Rückschlussänderungen
Beim Ableiten von Schemas aus Parquet-Dateien, die nicht von Spark geschrieben wurden, werden int64 Zeitstempelspalten, die mit isAdjustedToUTC=false Anmerkungen versehen sind, jetzt standardmäßig als TIMESTAMP_NTZ Typ festgelegt. Bisher wurden diese als TIMESTAMP Typ abgeleitet. Dieses Update verbessert die Genauigkeit der Zuordnung von Parquet-Typen zu Spark SQL-Typen.
Daher kann das Lesen von Daten aus externen Parquet-Dateien in eine Delta-Tabelle zu einem Fehler führen, wenn das timestampNtz Feature nicht aktiviert ist. Der Fehler wird wie folgt angezeigt:
Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.
Um das vorherige Verhalten beizubehalten und diesen Fehler zu verhindern, können Sie den Spark-Konfigurationsparameter von spark.sql.parquet.inferTimestampNTZ.enabled auf false setzen.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- debugpy von 1.5.1 auf 1.6.0
- distlib von 0.3.6 auf 0.3.7
- fastjsonschema von 2.16.3 auf 2.18.0
- filelock von 3.12.0 auf 3.12.2
- Aktualisierte R-Bibliotheken:
- SparkR von 3.4.0 auf 3.4.1
- Aktualisierte Java-Bibliotheken:
- org.apache.orc.orc-core von 1.8.3-shaded-protobuf auf 1.8.4-shaded-protobuf
- org.apache.orc.orc-mapreduce von 1.8.3-shaded-protobuf auf 1.8.4-shaded-protobuf
- org.apache.orc.orc-shims von 1.8.3 auf 1.8.4
- org.eclipse.jetty.jetty-client von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-continuation von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-http von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-io von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-jndi von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-plus von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-proxy von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-security von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-server von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlet von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlets von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-util von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-util-ajax von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-webapp von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-xml von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-api von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-client von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-common von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-server von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-servlet von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.xerial.snappy.snappy-java von 1.1.8.4 auf 1.1.10.1
Apache Spark
Databricks Runtime 13.3 enthält Apache Spark 3.4.1. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 13.2 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen, die an Spark vorgenommen wurden:
- Sie können jetzt die Clusterumgebungsvariable
SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12festlegen, um Spark-snowflake-Connector v2.12.0 zu verwenden. - [SPARK-43380] [DBRRM-383] Revert "[SC-133100][sql] Fix Avro-Datentypenkonvertierung..."
- [SPARK-44504] [Backport][13.2][13.x][13.3] Entladen des Anbieters, wodurch die DB-Instanz zum Schließen und Freigeben von Ressourcen bei Wartungsaufgabenfehler gezwungen wird
- [SPARK-44059] [SC-137023] Hinzufügen der Analyseunterstützung benannter Argumente für integrierte Funktionen
- [SPARK-44485] [SC-137653][sql] Optimize TreeNode.generateTreeString
- [SPARK-42944] [ SC-137164][ss][PYTHON] Streaming ForeachBatch in Python
- [SPARK-44446] [ SC-136994][python] Fügen Sie Überprüfungen für erwartete Listentyp-Sonderfälle hinzu.
- [SPARK-44439] [SC-136973][connect][SS] Problem mit listListeners behoben, sodass nur IDs an den Client zurückgesendet werden.
- [SPARK-44216] [SC-136941] [PYTHON] AssertSchemaEqual-API öffentlich machen
- [SPARK-44201] [SC-136778][connect][SS]Unterstützung für Streaming Listener in Scala für Spark Connect hinzufügen
- [SPARK-43915] [SC-134766][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2438-2445] zu.
- [SPARK-43798] Rückgängig machen von “[SC-133990][sql][PYTHON] Unterstützung von benutzerdefinierten Python-Tabellenfunktionen”
- [SPARK-44398] [SC-136720][connect] Scala foreachBatch-API
- [SPARK-44476] [SC-137169][core][CONNECT] Fehler bei der Befüllung von Artefakten für einen JobArtifactState ohne zugehörige Artefakte beheben.
- [SPARK-44269] [SC-135817][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2310-2314] zu.
- [SPARK-44395] [SC-136744][sql] Aktualisierung der TVF-Argumente, sodass Klammern um den Bezeichner nach dem Schlüsselwort erforderlich sind.
- [SPARK-43915] [SC-134766][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2438-2445] zu.
- [SPARK-43995] [SC-136794][spark-43996][CONNECT] Hinzufügen von Unterstützung für UDFRegistration zum Connect Scala Client
- [SPARK-44109] [SC-134755][core] Entfernen der doppelt vorhandenen bevorzugten Speicherorte jeder RDD-Partition
- [SPARK-44169] [SC-135497][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2300-2304] zu.
- [SPARK-41487] [SC-135636][sql] Weisen Sie _LEGACY_ERROR_TEMP_1020 einen Namen zu
- [SPARK-44398] [SC-136720][connect] Scala foreachBatch-API
-
[SPARK-44153] [SC-134977][core][UI]
Heap HistogramSpalte imExecutorsTab unterstützen - [SPARK-44044] [ SC-135695][ss] Fehlermeldung für Fensterfunktionen mit Streaming verbessern
- [SPARK-43914] [SC-135414][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2433-2437] zu.
- [SPARK-44217] [ SC-136805][python] Zulassen der benutzerdefinierten Genauigkeit für die ca. Gleichheit von fp
- [SPARK-44370] [SC-136575][connect] Migration der Buf-Remotegeneration-Alpha zu Remote-Plugins
- [SPARK-44410] [SC-136930][python][CONNECT] Aktive Sitzung beim Erstellen festlegen, nicht nur bei getOrCreate.
- [SPARK-44348] [SAS-1910][sc-136644][13.X][core][CONNECT][python] Test_Artifact mit relevanten Änderungen wieder aktivieren
- [SPARK-44145] [ SC-136698][sql] Rückruf, wenn sie zur Ausführung bereit ist
- [SPARK-44264] [SC-136870][python][ML] FunctionPickler-Klasse
- [SPARK-43986] [SC-135623][sql] Fehlerklassen für HyperLogLog-Funktionsaufruffehler erstellen
- [SPARK-44139] [ SC-134967][sql] Verwerfen vollständig heruntergedrückter Filter in gruppenbasierten MERGE-Vorgängen
- [SPARK-44338] [SC-136718][sql] Fehlermeldung für Ansichtsschema-Mismatch beheben
- [SPARK-44208] [SC-135505][Core][SQL] Weisen Sie eindeutige Fehlerklassennamen für eine Logik zu, die direkt Ausnahmen verwendet
- [SPARK-44364] [SC-136773] [PYTHON] Hinzufügen der Unterstützung für den Datentyp List[Row] für erwartet
- [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils sollte ResolveTimeZone anwenden
- [SPARK-43389] [SC-136772][sql] Es wurde eine NULL-Prüfung für lineSep-Option hinzugefügt.
- [SPARK-44388] [SC-136695][connect] Behebung eines Protobuf-Konvertierungsproblems bei Aktualisierung der UDF-Instanz
- [SPARK-44352] [ SC-136373][connect] Setzen Sie sameType und Freunde in DataType zurück.
- [SPARK-43975] [SC-134265][sql] DataSource V2: Umgang mit UPDATE Befehlen für gruppenbasierte Quellen
- [SPARK-44360] [SC-136461][sql] Unterstützung der Schemabereinigung in deltabasierten MERGE-Vorgängen
- [SPARK-44138] [SC-134907][sql] Verbieten von nicht deterministischen Ausdrücken, Unterabfragen und Aggregaten in MERGE-Bedingungen
- [SPARK-43321] [SC-136678][connect][Followup] Bessere Namen für APIs, die in Scala Client joinWith verwendet werden
- [SPARK-44263] [SC-136447][connect] Unterstützung für Custom Interceptors
- [SPARK-39851] [SC-123383][sql] Verbesserung der Join-Statistiken, wenn eine Seite die Einzigartigkeit beibehalten kann
-
[SPARK-44390] [ SC-136677][core][SQL] Umbenennen
SparkSerDerseUtilsinSparkSerDeUtils - [SPARK-44004] [SC-134751][sql] Namen zuweisen und Fehlermeldung für häufige LEGACY-Fehler verbessern.
- [SPARK-44322] [SC-136204][connect] Parser so ändern, dass SqlApiConf statt SQLConf verwendet wird.
- [SPARK-44271] [SC-136347][sql] Verschieben von Standardwertfunktionen von StructType zu ResolveDefaultColumns
- [SPARK-44332] [SC-136413][core][WEBUI] Behebung des Sortierfehlers in der Executor-ID-Spalte auf der Executors-Benutzeroberflächenseite
- [SPARK-44282] [SC-135948][connect] Vorbereiten der DataType-Analyse für die Verwendung in Spark Connect Scala Client
- [SPARK-44349] [ SC-136581][r] Hinzufügen mathematischer Funktionen zu SparkR
- [SPARK-44397] [SC-136647][python] assertDataFrameEqual in pyspark.testing.utils verfügbar machen
- [SPARK-42981] [ SC-136620][connect] Direkte Pfeil serialisierung hinzufügen
- [SPARK-44373] [SC-136577][sql] Mit 'withActive' die Dataset-API mit Parse-Logik umschließen, um parserbezogene Konfigurationen funktionsfähig zu machen.
- [SPARK-44340] [SC-136574][sql] Definieren der Computerlogik über die PartitionEvaluator-API und verwenden sie in WindowGroupLimitExec
- [SPARK-43665] [SC-136573][connect][PS] Aktivieren Von PandasSQLStringFormatter.vformat für die Arbeit mit Spark Connect
- [SPARK-44325] [SC-136572][sql] Verwenden der PartitionEvaluator-API in SortMergeJoinExec
- [SPARK-44315] [SC-136171][sql][CONNECT] Verschiebe DefinedByConstructorParams zu sql/api
- [SPARK-44275] [SC-136184][connect] Hinzufügen eines konfigurierbaren Wiederholungsmechanismus zu Scala Spark Connect
- [SPARK-44326] [SC-136208][sql][CONNECT] Verschiebe Hilfsprogramme, die vom Scala-Client verwendet werden, in die gemeinsamen Module.
- [SPARK-43321] [ SC-136156][connect] Dataset#Joinwith
- [SPARK-44343] [SC-136372][connect] Bereite ScalaReflection auf den Wechsel zu SQL/API vor
- [SPARK-44313] [SC-136081][sql] Korrigieren der Überprüfung des generierten Spaltenausdrucks, wenn im Schema eine Char/Varchar-Spalte vorhanden ist
- [SPARK-43963] [SC-134145][sql] DataSource V2: Behandeln von MERGE-Befehlen für gruppenbasierte Quellen
- [SPARK-44363] [SC-136433] [PYTHON] Anzeigen in Prozent der ungleichen Zeilen im DataFrame-Vergleich
- [SPARK-44251] [SC-136432][sql] Setzen Sie die Nullfähigkeit für den koaleszierten Join-Schlüssel in einer vollständigen Outer-USING-Verknüpfung korrekt fest.
- [SPARK-43948] [SC-133366][sql] Namen der Fehlerklasse LEGACY_ERROR_TEMP[0050|0057|0058|0059] zuweisen
- [SPARK-44329] [SC-136326][connect][PYTHON] Hinzufügen von hll_sketch_agg, hll_union_agg, to_varchar, try_aes_decrypt zu Scala und Python
- [SPARK-44351] [ SC-136353][sql] Machen Sie eine syntaktische Vereinfachung
- [SPARK-44281] [SC-135963][sql] Verschiebe den von DataType verwendeten QueryCompilation-Fehler zu sql/api als DataTypeErrors.
- [SPARK-44283] [SC-136109][connect] Ursprung in SQL/API verschieben
- [SPARK-43926] [SC-135590][connect][PYTHON] Add arrayagg, array_size, Kardinalität, count_min_sketch,mask,named_struct,json* to Scala and Python
-
[SPARK-44327] [SC-136187][sql][CONNECT] Funktionen
anyundlenzu Scala hinzufügen - [SPARK-44290] [ SC-136300][connect] Sitzungsbasierte Dateien und Archive in Spark Connect
- [SPARK-44061] [ SC-136299][python] Funktion "assertDataFrameEqual util" hinzufügen
- [SPARK-44331] [SC-136324][connect][PYTHON] Hinzufügen von Bitmapfunktionen zu Scala und Python
- [SPARK-44342] [SC-136334][sql] Ersetzen von SQLContext durch SparkSession für GenTPCDSData
- [SPARK-42583] [SC-124190][sql] Entfernen Sie die äußere Verknüpfung, wenn sie alle unterschiedlichen Aggregatfunktionen sind
- [SPARK-44333] [SC-136206][connect][SQL] Verschieben von EnhancedLogicalPlan aus ParserUtils
- [SPARK-43824] [SC-132655][spark-43825] [SQL] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_128[1-2] zu.
- [SPARK-43939] [SC-134602][connect][PYTHON] Fügen Sie try_* Funktionen zu Scala und Python hinzu
- [SPARK-44193] [SC-135886][connect] Implementierung des Abfangens von GRPC-Ausnahmen für die Konvertierung
- [SPARK-44284] [SC-136107][connect] Erstellen eines einfachen Konf-Systems für sql/api
- [SPARK-43913] [SC-133368][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2426-2432] zu.
- [SPARK-44291] Änderung rückgängig machen “[SC-135924][spark-43416][CONNECT] Korrigieren eines falschen Schemas für die Bereichsabfrage”
- [SPARK-44312] [SC-136185][connect][PYTHON] Zulassen, dass ein Benutzer-Agent mit einer Umgebungsvariablen festgelegt werden kann
- [SPARK-44154] [SC-136060] Implementieren von Bitmapfunktionen
- [SPARK-43885] [SC-133996][sql] DataSource V2: Behandeln von MERGE-Befehlen für deltabasierte Quellen
- [SPARK-43924] [SC-135161][connect][PYTHON] Hinzufügen von misc-Funktionen zu Scala und Python
- [SPARK-43969] [SC-134556][sql] Umgestalten und Zuweisen von Namen zur Fehlerklasse _LEGACY_ERROR_TEMP_1170
- [SPARK-44185] [SC-135730][sql] Behebung der inkonsistenten Pfadqualifizierung zwischen Katalog- und Datenvorgängen
- [SPARK-44073] [SC-134562][sql][PYTHON][connect] Datums- und Zeitfunktionen hinzufügen zu Scala, Python und Connect - Teil 2
- [SPARK-43942] [SC-134527][connect][PYTHON] Hinzufügen von Zeichenfolgenfunktionen zu Scala und Python – Teil 1
- [SPARK-44266] [SC-135813][sql] Verschieben Util.truncatedString nach sql/api
- [SPARK-44195] [ SC-135722][r] Hinzufügen von JobTag-APIs zu SparkR SparkContext
- [SPARK-44200] [SC-135736][sql] Unterstützungsargumentparserregel TABLE für TableValuedFunction
- [SPARK-44254] [SC-135709][sql] Verschiebe QueryExecutionErrors, die von DataType verwendet werden, in sql/api als DataTypeErrors.
- [SPARK-44291] [SC-135924][spark-43416][CONNECT] Korrigieren eines falschen Schemas für die Bereichsabfrage
- [SPARK-43922] [SC-135612][sql] Hinzufügen der Unterstützung benannter Parameter in Parser für Funktionsaufrufe
- [SPARK-44300] [SC-135882][connect] Korrektur der Artefaktbereinigung, um den Löschbereich auf sitzungsspezifische Artefakte zu beschränken
- [SPARK-44293] [SC-135849][connect] Beheben ungültiger URI für benutzerdefinierte JARs in Spark Connect
- [SPARK-44215] [SC-135850][shuffle] Wenn die Anzahl der Blöcke 0 ist, sollte der Server eine RuntimeException auslösen.
- [SPARK-44245] [SC-135851][python] pyspark.sql.dataframe sample() doctests sollten nur illustrativ sein
- [SPARK-44274] [SC-135814][connect] Verschieben von Hilfsfunktionen, die vom ArtifactManager verwendet werden, zu common/utils.
- [SPARK-44194] [SC-135815][python][CORE] Hinzufügen von JobTag-APIs zu PySpark SparkContext
- [SPARK-42828] [SC-135733][python][SQL] Explizitere Python-Typanmerkungen für GroupedData
-
[SPARK-44079] [SC-135486][sql] Fehler beheben
ArrayIndexOutOfBoundsException, wenn Arrays im PERMISSIVE-Modus mit fehlerhaften Datensätzen verarbeitet werden - [SPARK-44255] [SC-135809][sql] Verschieben von StorageLevel auf gemeinsame/utils
- [SPARK-42169] [SC-135795] [SQL] Implementieren der Codegenerierung für to_csv-Funktion (StructsToCsv)
- [SPARK-44249] [SC-135719][sql][PYTHON] Refactor PythonUDTFRunner, um den Rückgabetyp separat zu senden
- [SPARK-43353] [SC-132734][python] Migriere verbleibende Sitzungsfehler in Fehlerklasse
- [SPARK-44211] [ SC-135718][python][CONNECT] Implementieren von SparkSession.is_stopped
- [SPARK-42784] [SC-135691] sollte weiterhin subDir erstellen, wenn die Anzahl von subDir im Mergeverzeichnis kleiner ist als conf
- [SPARK-41599] [SC-135616] Speicherverlust in FileSystem.CACHE beim Übermitteln von Apps an einen sicheren Cluster mithilfe von InProcessLauncher
- [SPARK-44241] [SC-135613][Core] Legen Sie "io.connectionTimeout/connectionCreationTimeout" auf Null oder negativ fest, was zu unauffälligen Vollstreckungsausführern führt.
- [SPARK-44133] [ SC-134795][13.x][PYTHON] Upgrade MyPy von 0.920 auf 0,982
- [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde im JSON-Format
-
[SPARK-44188] [SC-135173][Core] Entfernen sie nutzlose
resetAllPartitionsMethode inActiveJob - [SPARK-43757] [SC-135418][connect] Ändern der Kundenkompatibilität von der Erlaubnisliste zum Ablehnungsregister
- [SPARK-43474] [SC-135521] [SS] [CONNECT] Hinzufügen eines Spark Connect-Zugriffs auf Laufzeitdatenframes nach ID.
-
[SPARK-44183] [ SC-135209][python] Mindestversion auf
PyArrow4.0.0 erhöhen - [SPARK-44248] [SC-135554][ss][SQL][kafka] Hinzufügen eines bevorzugten Speicherorts in der Kafka-Quelle v2
- [SPARK-43929] [SC-134510][sql][PYTHON][connect] Hinzufügen von Datumszeitfunktionen zu Scala, Python und Connect API – Teil 1
- [SPARK-44161] [SC-135326][connect] Verarbeitung von Zeileninput für UDFs
- [SPARK-44227] [SC-135520][sql] Extrahieren von SchemaUtils aus StructField
-
[SPARK-44064] [SC-135116][Core][SQL] Hinzufügen einer neuen
applyFunktion zuNonFateSharingCache - [SPARK-44171] [SC-135269][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[2279-2282] zu und löschen Sie einige nicht verwendete Fehlerklassen.
- [SPARK-44056] [SC-134758][sql] Schließen Sie UDF-Namen in UDF-Ausführungsfehlerfehlermeldung ein, wenn verfügbar
- [SPARK-44205] [ SC-135422][sql] Katalysatorcode aus DecimalType extrahieren
- [SPARK-44220] [ SC-135484][sql] StringConcat in sql/api verschieben
- [SPARK-44146] [SC-135230][connect] Isolieren von Spark Connect Session Jars und Classfiles
- [SPARK-44206] [ SC-135411][sql] DataSet.selectExpr scope Session.active
- [SPARK-40850] [SC-135417][sql] Behebung des Testfalls, dass interpretierte Abfragen Codegen ausführen können
- [SPARK-44204] [SC-135253][sql][HIVE] Fügen Sie fehlenden recordHiveCall für getPartitionNames hinzu.
- [SPARK-44237] [ SC-135485][core] Vereinfachen der DirectByteBuffer-Konstruktor-Suchlogik
-
[SPARK-44189] [ SC-135170][connect][PYTHON] Unterstützen Positionsparameter nach
sql() -
[SPARK-44140] [SC-134893][sql][PYTHON] Unterstützen Positionsparameter in Python
sql() - [SPARK-44164] [SC-135158][sql] Extrahiere die Methode toAttribute von StructField in die Util-Klasse
-
[SPARK-44178] [SC-135113][connect] Positionsparameter unterstützen in
sql() - [SPARK-43208] [SC-128955][sql][HIVE] IsolatedClassLoader sollte die Barriereklasse InputStream nach dem Lesen schließen
-
[SPARK-43063] [SC-128382][sql]
df.showhandle null sollte NULL statt null anzeigen - [SPARK-42539] [SC-124464][sql][HIVE] Entfernen Sie den separaten Classloader bei Verwendung der "builtin"-Version von Hive für den Metadatenclient
- [SPARK-43992] [ SC-133645][sql][PYTHON][connect] Fügen Sie optionales Muster für Catalog.listFunctions hinzu.
-
[SPARK-44066] [SC-134878][sql] Unterstützen von Positionsparametern in Scala/Java
sql() - [SPARK-44078] [SC-134869][connect][CORE] Unterstützung für Classloader-/Ressourcen-Isolation hinzufügen
- [SPARK-43470] [SC-135187][core] Hinzufügen von Betriebssystem-, Java- und Python-Versionsinformationen zum Anwendungsprotokoll
- [SPARK-43136] [SC-135238][connect][Followup] Hinzufügen von Tests für KeyAs
- [SPARK-39740] [SC-135093][ui]: Aktualisiere vis timeline auf 7.7.2, um CVE-2020-28487 zu beheben
- [SPARK-42298] [SC-133952][sql] Name zuweisen für _LEGACY_ERROR_TEMP_2132
- [SPARK-43961] [SC-133459][sql][PYTHON][connect] Fügen Sie optionales Muster für Catalog.listTables hinzu.
- [SPARK-44026] [SC-135181] Bereitstellen des Anfangswerts für SQLMetrics zulassen
- [SPARK-44202] [SC-135244][core] Hinzufügen von JobTag-APIs zu JavaSparkContext
- [SPARK-44030] [SC-135237][sql] Implementieren von DataTypeExpression zum Anbieten von "Unapply" für Ausdrücke
- [SPARK-43876] "[SC-134603][sql] Schnelle Hashmap für unterschiedliche Abfragen aktivieren" wiederherstellen
- [SPARK-40082] [SC-126437] MergeFinalize planen, wenn Pushen der Zusammenführung von shuffleMapStage neu versucht wird, aber keine ausgeführten Tasks vorhanden sind
- [SPARK-43888] [SC-132893][core] Verlagern der Protokollierung zu gemeinsamen Dienstprogrammen
- [SPARK-43474] [SC-134400] [SS] [CONNECT] Hinzufügen von SessionHolder zu SparkConnectPlanner
- [SPARK-43944] [SC-134490][connect][PYTHON] Hinzufügen von Zeichenfolgenfunktionen zu Scala und Python – Teil 2
- [SPARK-44134] [SC-134954][core] Behebt das Festlegen der Ressourcen (GPU/FPGA) auf 0, wenn sie in spark-defaults.conf eingestellt sind.
- [SPARK-44142] [SC-134947][python] Ersetzen Sie den Typ durch tpe im Hilfsprogramm, um Python-Typen in Spark-Typen zu konvertieren.
- [SPARK-43952] [SC-134695][core][CONNECT][sql] Fügen Sie SparkContext-APIs für die Abbruch von Abfragen nach Tag hinzu
- [SPARK-44000] [SC-133634][sql] Hinzufügen eines Hinweises zur Vermeidung der Übertragung und Replikation einer Seite der Verknüpfung
- [SPARK-43937] [SC-134362][connect][PYTHON] Fügen Sie ifnull,isnotnull,equal_null,nullif,nvl,nvl,nvl,nvl2 zu Scala und Python hinzu.
-
[SPARK-43624] [13.x][sc-134557][PS][connect] Zu SparkConnectPlanner hinzufügen
EWM. - [SPARK-44040] [SC-134366][sql] Berechnung von Statistiken korrigieren, wenn der AggregateExec-Knoten über dem QueryStageExec liegt
-
[SPARK-43485] [SC-131264][sql] Beheben Sie die Fehlermeldung für das
unitArgument der Datetime-Add-/Diff-Funktionen. - [SPARK-43794] [SC-132561][sql] Ordnen Sie der Fehlerklasse mit dem Namen _LEGACY_ERROR_TEMP_1335 einen neuen Namen zu.
- [SPARK-43511] [SC-134749][connect][SS]Implementierte MapGroupsWithState- und FlatMapGroupsWithState-APIs für Spark Connect
- [SPARK-43529] [SQL] Unterstützung von CREATE/REPLACE TABLE OPTIONS-Ausdrücken + Codebereinigung
-
[SPARK-44106] [SC-134750][python][CONNECT] Einfügen
__repr__fürGroupedData - [SPARK-42299] [SC-133190] Name für _LEGACY_ERROR_TEMP_2206 zuweisen
- [SPARK-43290] [SC-134388][sql] Fügt Unterstützung für aes_encrypt IVs und AAD hinzu
-
[SPARK-43932] [SC-134138][sql][PYTHON][connect] Fügen Sie
currentähnliche Funktionen zu Scala und Python hinzu - [SPARK-43934] [SC-134108][sql][PYTHON][connect] Fügen Sie regexp_*-Funktionen zu Scala und Python hinzu.
- [SPARK-44107] [SC-134746][connect][PYTHON] Ausblenden nicht unterstützter Spaltenmethoden aus automatischer Vervollständigung
- [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde im JSON-Format
- [SPARK-43773] [SC-132659][connect][PYTHON] Implementieren von Funktionen von "levenshtein(str1, str2[, threshold])" in Python-Client
- [SPARK-44125] [SC-134745][r] Unterstützung von Java 21 in SparkR
- [SPARK-43919] [SC-133374][sql] Extrahierung der JSON-Funktionalität aus Zeile
- [SPARK-43769] [SC-132520][connect] Implementieren von Funktionen "levenshtein(str1, str2[, threshold])"
- [SPARK-44012] [SC-134662][ss] KafkaDataConsumer zum Drucken eines Lesestatus
- [SPARK-43876] [SC-134603][sql] Schnelle Hashmap für unterschiedliche Abfragen aktivieren
-
[SPARK-44024] [SC-134497][sql] Ändern, um
mapzu verwenden, wennunzipnur zum Extrahieren eines einzelnen Elements verwendet wird - [SPARK-43928] [SC-134467][sql][PYTHON][connect] Fügen Sie Bitvorgänge zu Scala, Python und Connect-API hinzu
-
[SPARK-44092] [ SC-134506][core] Hinzufügen
Utils.isJavaVersionAtLeast21und Erstellen einescoreModuldurchlaufs mit Java 21 - [SPARK-44018] [SC-134512][sql] Verbessern Sie den HashCode und toString für einige DS V2-Ausdrücke
-
[SPARK-44105] [SC-134582][sql]
LastNonNullsollte träge aufgelöst werden - [SPARK-44081] [SC-134434] Gewisse Vereinfachung der PartitionedFileUtil-API
- [SPARK-43791] [SC-132531][sql] Fehlerklasse _LEGACY_ERROR_TEMP_1336 einen Namen zuweisen.
- [SPARK-44071] [SC-134435] Definieren und Verwenden von Unresolved[Leaf|Unary]Node-Eigenschaften.
- [SPARK-43852] [ SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_2418-2425 zu.
- [SPARK-43742] [ SC-132684][sql] Standardspaltenwertauflösung umgestalten
- [SPARK-43493] [SC-132063][sql] Fügen Sie der Funktion levenshtein() ein Argument für den maximalen Abstand hinzu.
-
[SPARK-44075] [SC-134382][connect] Faul machen
transformStatCorr - [SPARK-43925] [SC-134381][sql][PYTHON][connect] Fügen Sie some, bool_or, bool_and, every zu Scala, Python und Connect hinzu.
- [SPARK-43931] [SC-134158][sql][PYTHON][connect] Fügen Sie make_*-Funktionen zu Scala und Python hinzu.
- [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_24[06-10] zu.
-
[SPARK-43962] [SC-133367][sql] Verbessern von Fehlermeldungen:
CANNOT_DECODE_URL,CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE,CANNOT_PARSE_DECIMAL,CANNOT_READ_FILE_FOOTER,CANNOT_RECOGNIZE_HIVE_TYPE. - [SPARK-43938] [ SC-133887][connect][PYTHON] Fügen Sie to_*-Funktionen zu Scala und Python hinzu.
-
[SPARK-44055] [ SC-134321][Kern] Entfernen redundanter
overrideFunktionen ausCheckpointRDD - [SPARK-43802] [SC-132597][sql] Fixcodegen für unhex und unbase64 mit failOnError=true
- [SPARK-43798] [SC-133990][sql][PYTHON] Unterstützen von benutzerdefinierten Python-Tabellenfunktionen
- [SPARK-43941] [SC-134286][sql][PYTHON][connect] Fügen Sie any_value, approx_percentile, count_if, first_value, histogram_numeric, last_value, reduce zur Scala-, Python- und Connect-API hinzu.
- [SPARK-43380] [SC-133100][sql] Beheben von Avro-Datentypkonvertierungsproblemen, um falsche Ergebnisse zu vermeiden
- [SPARK-43803] [SC-133729] [SS] [CONNECT] Verbessern von awaitTermination(), um client disconnects () zu verarbeiten
- [SPARK-43179] [SC-129070][shuffle] Ermöglicht es Anwendungen, zu steuern, ob ihre Metadaten durch den External Shuffle Service in der Datenbank gespeichert werden.
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Siehe Databricks Runtime 13.3 Wartungsupdates.
Systemumgebung
-
Betriebssystem: Ubuntu 22.04.2 LTS
- Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
- Java: Zulu 8.70.0.23-CA-linux64
- Skala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.2.1 | Attrs | 21.4.0 | Backcall | 0.2.0 |
| beautifulsoup4 | 4.11.1 | schwarz | 22.6.0 | Bleichmittel | 4.1.0 |
| Blinker | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.28 |
| Zertifizieren | 2022.9.14 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Charset-Normalizer | 2.0.4 | Klicken | 8.0.4 | Kryptographie | 37.0.1 |
| Fahrradfahrer | 0.11.0 | Cython | 0.29.32 | Databricks-SDK | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.6.0 | Dekorateur | 5.1.1 |
| defusedxml | 0.7.1 | Distlib | 0.3.7 | Docstring zu Markdown | 0,12 |
| Einstiegspunkte | 0,4 | ausführen | 1.2.0 | Übersicht der Facetten | 1.0.3 |
| fastjsonschema | 2.18.0 | Dateisperrung | 3.12.2 | fonttools | 4.25.0 |
| googleapis-common-protos | 1.56.4 | GRPCIO | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | idna | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | jeepney | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | Jupyter-Client | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | Schlüsselring | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
| matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | verstimmen | 0.8.4 |
| more-itertools | 8.10.0 | mypy-Erweiterungen | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | Notebook | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | Packen | 21,3 | Pandas | 1.4.4 |
| Pandocfilter | 1.5.0 | Parso | 0.8.3 | Pfadangabe | 0.9.0 |
| Sündenbock | 0.5.2 | pexpect | 4.8.0 | Pickleshare | 0.7.5 |
| Kissen | 9.2.0 | Kern | 22.2.2 | platformdirs | 2.5.2 |
| Handlung | 5.9.0 | plugin-fähig | 1.0.0 | prometheus-client | 0.14.1 |
| Prompt-Toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 8.0.0 | Pycparser | 2.21 | Pydantisch | 1.10.6 |
| Pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | Pyodbc | 4.0.32 | Pyparsing | 3.0.9 |
| Pyright | 1.1.294 | Pyristent | 0.18.0 | Python-dateutil | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | Python-LSP-Server | 1.7.1 | pytoolconfig | 1.2.2 |
| Pytz | 2022.1 | pyzmq | 23.2.0 | Anforderungen | 2.28.1 |
| Seil | 1.7.0 | s3transfer | 0.6.0 | scikit-lernen | 1.1.1 |
| SciPy | 1.9.1 | Seegeboren | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 63.4.1 | sechs | 1.16.0 |
| Sieb für Suppe | 2.3.1 | ssh-import-id | 5.11 | Stapeldaten | 0.6.2 |
| StatistikModelle | 0.13.2 | Hartnäckigkeit | 8.1.0 | terminado | 0.13.1 |
| Testpfad | 0.6.0 | Threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | Tornado | 6.1 | Traitlets | 5.1.1 |
| typing_extensions | 4.3.0 | ujson | 5.4.0 | unbeaufsichtigte Aktualisierungen | 0,1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | Wadllib | 1.3.6 |
| wcwidth | 0.2.5 | Webkodierungen | 0.5.1 | Was ist neu im Patch | 1.0.2 |
| Rad | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
| ZIPP | 1.0.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus dem CRAN-Snapshot des Posit-Paket-Managers am 2023-02-10 installiert: https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 10.0.1 | Askpass | 1.1 | prüfen, dass | 0.2.1 |
| Backports | 1.4.1 | Basis | 4.2.2 | base64enc | 0.1-3 |
| Bit | 4.0.5 | Bit64 | 4.0.5 | Blob | 1.2.3 |
| Boot | 1.3-28 | brauen | 1,0 - 8 | Brio | 1.1.3 |
| Besen | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
| Callr | 3.7.3 | Caret | 6.0-93 | CellRanger | 1.1.0 |
| Chron | 2.3-59 | Klasse | 7.3-21 | cli | 3.6.0 |
| Schermaschine | 0.8.0 | Uhr | 0.6.1 | Gruppe | 2.1.4 |
| Codetools | 0.2-19 | Farbraum | 2.1-0 | Commonmark | 1.8.1 |
| Kompilierer | 4.2.2 | Konfiguration | 0.3.1 | cpp11 | 0.4.3 |
| Buntstift | 1.5.2 | Anmeldeinformationen | 1.3.2 | Locke | 5.0.0 |
| data.table | 1.14.6 | Datensätze | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Beschreibung | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | verdauen | 0.6.31 | Nach unten gerichtete Beleuchtung | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| Ellipse | 0.3.2 | Evaluieren | 0,20 | Fans | 1.0.4 |
| Farben | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
| Sträflinge | 1.0.0 | Foreach | 1.5.2 | Fremd | 0.8-82 |
| schmieden | 0.2.0 | Fs | 1.6.1 | Zukunft | 1.31.0 |
| future.apply | 1.10.0 | gurgeln | 1.3.0 | Generika | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | Globale Werte | 0.16.2 |
| Klebstoff | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | Grafiken | 4.2.2 | grGeräte | 4.2.2 |
| Raster | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| g-Tabelle | 0.3.1 | Schutzhelm | 1.2.0 | Hafen | 2.5.1 |
| Highr | 0,10 | HMS | 1.1.2 | HTML-Werkzeuge | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Ausweise | 1.0.1 | ini | 0.3.1 | IPRED | 0.9-13 |
| Isobande | 0.2.7 | Iteratoren | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | Knitr | 1.42 |
| Etikettierung | 0.4.2 | später | 1.3.0 | Gitter | 0.20-45 |
| Lava | 1.7.1 | Lebenszyklus | 1.0.3 | „listenv“ | 0.9.0 |
| Schmiermittel | 1.9.1 | magrittr | 2.0.3 | Abschlag | 1.5 |
| MASSE | 7.3-58.2 | Matrix | 1.5-1 | Zwischenspeichern | 2.0.1 |
| Methodik | 4.2.2 | mgcv | 1.8-41 | Mime-Kunst | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | NNET | 7.3-18 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.0.5 | parallel | 4.2.2 |
| parallel dazu | 1.34.0 | Säule | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| PLOGR | 0.2.0 | plyr | 1.8.8 | loben | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | Prozessx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | Fortschritt | 1.2.2 |
| progressr | 0.13.0 | Versprechungen | 1.2.0.1 | Prototyp | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.7.2 | schnurren | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | Ragg | 1.2.5 |
| randomForest (Zufälliger Wald) | 4.7-1.1 | Rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrauer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| READR | 2.1.3 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.2 | Rezepte | 1.0.4 |
| Rückspiel | 1.0.1 | Rückspiel2 | 2.1.2 | fernbedienungen | 2.4.2 |
| reproduzierbares Beispiel | 2.0.2 | Umform2 | 1.4.4 | rlang | 1.0.6 |
| RMarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
| RVEST | 1.0.3 | Sass | 0.4.5 | Waage | 1.2.1 |
| Auswahl | 0.4-2 | Sitzungsinformationen | 1.2.2 | Gestalt | 1.4.6 |
| glänzend | 1.7.4 | sourcetools | 0.1.7-1 | Sparklyr | 1.7.9 |
| SparkR | 3.4.1 | räumlich | 7.3-15 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiken | 4.2.2 |
| Statistiken4 | 4.2.2 | Stringi | 1.7.12 | stringr | 1.5.0 |
| Überleben | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| TCLTK | 4.2.2 | testthat | 3.1.6 | Textgestaltung | 0.3.6 |
| Tibble | 3.1.8 | Räumter | 1.3.0 | aufräumen | 1.2.0 |
| aufräumen | 1.3.2 | Zeitumstellung | 0.2.0 | timeDatum | 4022.108 |
| tinytex | 0.44 | Tools | 4.2.2 | Zeitzonendatenbank (tzdb) | 0.3.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 2.1.6 | utf8 | 1.2.3 |
| Dienstprogramme und Funktionen | 4.2.2 | Universelle eindeutige Kennung (UUID) | 1.1-0 | VCTRS | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| Backenbart | 0.4.1 | Withr | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML-Dateiformat | 2.3.7 | schwirren | 2.2.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-db | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.2.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-schattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.coffein | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | Profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-servers | 11.2.2.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tduning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.1 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 4.2.10 |
| io.dropwizard.metrics | Metrics-Graphit | 4.2.10 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 4.2.10 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.2.10 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.10 |
| io.dropwizard.metrics | metrics-json | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.10 |
| io.netty | nett-all | 4.1.87.Final |
| io.netty | Netty-Buffer | 4.1.87.Final |
| io.netty | Netty Codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | Netty-Codec-Socken | 4.1.87.Final |
| io.netty | Netty-common | 4.1.87.Final |
| io.netty | Netty-Handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | Netty-Resolver | 4.1.87.Final |
| io.netty | Netty-Transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammlung | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.Schneeflocke | Snowflake-JDBC | 3.13.33 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | Ant-Launcher | 1.9.16 |
| org.apache.arrow | Pfeilformat | 11.0.0 |
| org.apache.arrow | Pfeilspeicherkern | 11.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 11.0.0 |
| org.apache.arrow | Pfeil-Vektor | 11.0.0 |
| org.apache.avro | avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | Kurator-Framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-silk | 2.3.9 |
| org.apache.hive | hive-llap-Client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-speicher-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-Anpassungen-Common | 2.3.9 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Efeu | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.4-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.4-shaded-protobuf |
| org.apache.orc | Orc-Shims | 1.8.4 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,22 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.3 |
| org.checkerframework | Prüferqualifikation | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-io | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-jndi | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Plus | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty Server | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Util | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-util-ajax | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty-xml | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | Jersey-Client | 2,36 |
| org.glassfish.jersey.core | jersey-common | 2,36 |
| org.glassfish.jersey.core | Jersey-Server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.7.Endgültig |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.aspx | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | Objenese | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Klemmstücke | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | 3ten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | Katzen-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-servers | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.1 |
| org.yaml | Schlangenyaml | 1,33 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |