Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 12.2 LTS, die von Apache Spark 3.3.2 unterstützt wird.
Diese Version wurde von Databricks im März 2023 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Änderungen des Verhaltens
[Bahnbrechende Änderung] Für die neue Python-Version ist das Aktualisieren von Databricks Connect V1 Python-Clients erforderlich.
Hinweis
Ein nachfolgendes Update verschiebt die Python-Version in Databricks Runtime 12.2 LTS auf 3.9.21. Die Version 3.9.21 führt keine Verhaltensänderungen ein.
Um erforderliche Sicherheitspatches anzuwenden, wird die Python-Version in Databricks Runtime 12.2 LTS von 3.9.5 auf 3.9.19 aktualisiert. Da diese Änderungen möglicherweise Fehler in Clients verursachen, die bestimmte PySpark-Funktionen verwenden, müssen alle Clients, die Databricks Connect V1 für Python mit Databricks Runtime 12.2 LTS verwenden, auf Python 3.9.7 oder höher aktualisiert werden.
Neue Features und Verbesserungen
- Python wurde von 3.9.19 auf 3.9.21 aktualisiert
- Delta Lake-Schemaentwicklung unterstützt das Angeben von Quellspalten in merge-Anweisungen
- Workloads für strukturiertes Streaming werden in Clustern mit dem Modus „gemeinsamer Zugriff“ unterstützt
- Neue Features für Predictive I/O
- Unterstützung für implizites laterales Spaltenaliasing
- Neus forEachBatch-Feature
- Standardisierte Verbindungsoptionen für den Abfrageverbund
- Erweiterte SQL-Funktionsbibliothek für die Arrayverwaltung
- Neue Maskenfunktion zum Anonymisieren von Zeichenfolgen
- Allgemeine Fehlerbedingungen geben jetzt SQLSTATE-Werte zurück
- Aufrufen von Generatorfunktionen in der FROM-Klausel
- Unterstützung für Protokollpuffer ist allgemein verfügbar
- Zieldefinition für Notizbuchvariablen und -funktionen
- Notizbuchschnellkorrektur für automatisch importierte Bibliotheken
- Fehlerbehebungen
Python hat von 3.9.19 auf 3.9.21 aktualisiert
Die Python-Version in Databricks Runtime 12.2 LTS wird von 3.9.19 auf 3.9.21 aktualisiert.
Delta Lake-Schemaentwicklung unterstützt das Angeben von Quellspalten in merge-Anweisungen
Wenn die Schemaentwicklung aktiviert ist, können Sie jetzt in Einfüge- oder Aktualisierungsaktionen für Mergeanweisungen Spalten angeben, die nur in der Quelltabelle vorhanden sind. In Databricks Runtime 12.1 und niedriger können nur INSERT *- oder UPDATE SET *-Aktionen für die Schemaentwicklung mit Merge verwendet werden. Weitere Informationen finden Sie unter Automatische Schemaentwicklung für Delta Lake-Merge.
Workloads für strukturiertes Streaming werden in Clustern mit dem Modus „gemeinsamer Zugriff“ unterstützt
Sie können jetzt Strukturiertes Streaming verwenden, um auf Compute mit dem Unity-Katalog im Standardzugriffsmodus zu interagieren. Es gelten einige Einschränkungen. Weitere Informationen finden Sie unter Welche Funktionen von strukturiertem Streaming unterstützt Unity Catalog?.
Neue Features für Predictive I/O
Für die Foreachbatch-Senke ist jetzt Photon-Unterstützung verfügbar. Workloads, die aus einer Quelle streamen und in Delta-Tabellen mergen oder in mehrere Senken schreiben, können jetzt von der Photonized Foreachbatch-Senke profitieren.
Unterstützung für implizites laterales Spaltenaliasing
Azure Databricks unterstützt jetzt standardmäßig implizites laterales Spaltenaliasing. Sie können jetzt einen zuvor in derselben SELECT-Liste angegebenen Ausdruck wiederverwenden. Beispiel: Bei Angabe von SELECT 1 AS a, a + 1 AS b kann das a in a + 1 als das zuvor definierte 1 AS a aufgelöst werden. Weitere Details zur Auflösungsreihenfolge finden Sie unter Namensauflösung.
Um dieses Feature zu deaktivieren, können Sie spark.sql.lateralColumnAlias.enableImplicitResolution auf false festlegen.
Neus forEachBatch-Feature
Photon wird jetzt unterstützt, wenn zum Schreiben in eine Datensenke foreachBatch verwendet wird.
Standardisierte Verbindungsoptionen für den Abfrageverbund
Sie können jetzt einen einheitlichen Satz von Optionen (Host, Port, Datenbank, Benutzer, Kennwort) verwenden, um eine Verbindung mit Datenquellen herzustellen, die im Abfrageverbund unterstützt werden.
Port ist optional und verwendet die Standardportnummer für jede Datenquelle, sofern nicht anders angegeben.
Erweiterte SQL-Funktionsbibliothek für die Arrayverwaltung
Sie können jetzt mithilfe von array_compact alle NULL-Elemente aus einem Array entfernen. Verwenden Sie zum Anfügen von Elementen an ein Array array_append.
Neue Maskenfunktion zum Anonymisieren von Zeichenfolgen
Rufen Sie die Maskenfunktion auf, um vertrauliche Zeichenfolgenwerte zu anonymisieren.
Allgemeine Fehlerbedingungen geben jetzt SQLSTATE-Werte zurück.
Die meisten Fehlerbedingungen in Databricks Runtime enthalten jetzt dokumentierte SQLSTATE-Werte, die verwendet werden können, um in standardmäßiger, SQL-konformer Weise auf Fehler zu testen.
Aufrufen von Generatorfunktionen in der FROM-Klausel
Sie können jetzt Tabellenwertgeneratorfunktionen wie explode in der regulären FROM-Klausel einer Abfrage aufrufen. Dadurch wird der Generatorfunktionsaufruf an andere integrierte und benutzerdefinierte Tabellenfunktionen angepasst.
Unterstützung für Protokollpuffer ist allgemein verfügbar
Sie können die Funktionen from_protobuf und to_protobuf verwenden, um Daten zwischen Binär- und Strukturtypen auszutauschen. Weitere Informationen finden Sie unter Lesen und Schreiben von Protokollpuffern.
Zieldefinition für Notizbuchvariablen und -funktionen
In Notizbüchern können Sie schnell zur Definition einer Variablen, einer Funktion oder zum Code hinter einer %run-Anweisung wechseln, indem Sie mit der rechten Maustaste auf die Variable oder den Funktionsnamen klicken.
Notizbuchschnellkorrektur für automatisch importierte Bibliotheken
Databricks-Notizbücher bieten jetzt ein Schnellkorrekturfeature für das automatische Importieren von Bibliotheken. Wenn Sie vergessen, eine Bibliothek wie Pandas zu importieren, zeigen Sie mit der Maus auf die unterstrichene Syntaxwarnung, und klicken Sie dann auf Schnellkorrektur. Für dieses Feature muss der Databricks-Assistent in Ihrem Arbeitsbereich aktiviert sein.
Fehlerkorrekturen
- Verbesserte Konsistenz für das Delta-Commitverhalten für leere Transaktionen im Zusammenhang mit
update-,delete- undmerge-Befehlen. Auf der IsolationsstufeWriteSerializableerstellen Befehle, die keine Änderungen zur Folge haben, jetzt einen leeren Commit. Auf der IsolationsstufeSerializableerstellen solche leeren Transaktionen jetzt keinen Commit.
Verhaltensänderungen
Verhaltensänderungen mit dem neuen Feature für laterale Spaltenaliase
Das neue Feature für laterale Spaltenaliase führt in den folgenden Fällen zu Verhaltensänderungen während der Namensauflösung:
- Laterale Spaltenaliase haben nun Vorrang vor korrelierten Verweisen mit demselben Namen. Für die Abfrage
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)wurde z. B. dasc1-Element im innerenc1 AS c2-Element in den korrelierten Verweist.c1aufgelöst, ändert sich jetzt jedoch in den lateralen Spaltenalias1 AS c1. Die Abfrage gibt jetztNULLzurück. - Laterale Spaltenaliase haben jetzt Vorrang vor Funktionsparametern mit demselben Namen. Beispielsweise wurde für die Funktion
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, xdasx-Element im Funktionstext in den Funktionsparameter x aufgelöst, ändert sich jedoch im Funktionstext in den lateralen Spaltenaliasx + 1. Die AbfrageSELECT * FROM func(1)gibt jetzt2, 2zurück. - Um das Feature für laterale Spaltenaliase zu deaktivieren, legen Sie
spark.sql.lateralColumnAlias.enableImplicitResolutionauffalsefest. Weitere Informationen finden Sie unter Namensauflösung.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- filelock von 3.8.2 auf 3.9.0
- joblib von 1.1.0 auf 1.1.1
- platformdirs von 2.6.0 auf 2.6.2
- whatthepatch von 1.0.3 auf 1.0.4
- Aktualisierte R-Bibliotheken:
- class von 7.3-20 auf 7.3-21
- codetools von 0.2-18 auf 0.2-19
- MASS von 7.3-58 auf 7.3-58.2
- nlme von 3.1-160 auf 3.1-162
- Rserve von 1.8-11 auf 1.8-12
- SparkR von 3.3.1 auf 3.3.2
Verhaltensänderungen
- Benutzer*innen müssen jetzt über die Berechtigungen
SELECTundMODIFYfür jede Datei verfügen, wenn sie ein Schema mit einem definierten Speicherort erstellen.
Apache Spark
Databricks Runtime 12.2 enthält Apache Spark 3.3.2. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 12.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen an Spark:
- [SPARK-42416] [SC-123205][sc-122851][SQL] Dateset-Vorgänge sollten den analysierten logischen Plan nicht erneut auflösen.
- [SPARK-41848] Rückgängig machen “[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Beheben der überplanten Vorgänge mit TaskResourceProfile”
- [SPARK-42162] [SC-122711][es-556261] Stellen Sie den Ausdruck MultiCommutativeOp als Speicheroptimierung für die Standardisierung großer Bäume von kommutativen Ausdrücken vor
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Korrektur der rekursiven Tiefeneinstellung für Protobuf-Funktionen
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementierung von DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Umbenennen _catalog_to_pandas in _execute_and_fetch im Katalog
- [SPARK-41490] [SC-121774][sql] Weisen Sie _LEGACY_ERROR_TEMP_2441 einen Namen zu.
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implementiere Catalog.cacheTable, isCached und entcachen.
- [SPARK-42191] [SC-121990][sql] Unterstützung von udf 'luhn_check'
- [SPARK-42253] [SC-121976][python] Hinzufügen eines Tests zum Erkennen duplizierter Fehlerklasse
- [SPARK-42268] [SC-122251][connect][PYTHON] Benutzerdefinierten Typ in Protos hinzufügen
-
[SPARK-42231] [SC-121841][sql] Wandeln Sie
MISSING_STATIC_PARTITION_COLUMNininternalError - [SPARK-42136] [SC-122554] Umstrukturierung der Berechnung der Ausgabepartitionierung von BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][sql] Integrieren von
_LEGACY_ERROR_TEMP_1003inFIELD_NOT_FOUND - [SPARK-42192] [12.x][sc-121820][PYTHON] Migration des TypeError von pyspark/sql/dataframe.py zu PySparkTypeError
- [SPARK-35240] Rückgängig machen “[SC-118242][ss] Verwenden von CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Weisen Sie _LEGACY_ERROR_TEMP_1176 und 1177 einen Namen zu
-
[SPARK-42232] [SC-122267][sql] Fehlerklasse umbenennen:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION - [SPARK-42346] [SC-122480][sql] Unterscheidende Aggregate nach der Zusammenführung von Unterabfragen umschreiben
-
[SPARK-42306] [SC-122539][sql] Integrieren
_LEGACY_ERROR_TEMP_1317inUNRESOLVED_COLUMN.WITH_SUGGESTION -
[SPARK-42234] [SC-122354][sql] Fehlerklasse umbenennen:
UNSUPPORTED_FEATURE.REPEATED_PIVOT -
[SPARK-42343] [SC-122437][core] Ignorieren
IOExceptioninhandleBlockRemovalFailure, wenn SparkContext beendet wird - [SPARK-41295] [SC-122442][spark-41296][SQL] Benennen Sie die Fehlerklassen um.
- [SPARK-42320] [SC-122478][sql] Weisen Sie _LEGACY_ERROR_TEMP_2188 einen Namen zu.
- [SPARK-42255] [SC-122483][sql] Weisen Sie _LEGACY_ERROR_TEMP_2430 einen Namen zu
- [SPARK-42156] [SC-121851][connect] SparkConnectClient unterstützt jetzt Wiederholungsrichtlinien
- [SPARK-38728] [SC-116723][sql] Testen Sie die Fehlerklasse: FAILED_RENAME_PATH
- [SPARK-40005] [ 12.X] Eigenständige Beispiele in PySpark
- [SPARK-39347] [SC-122457][ss] Fehlerkorrektur für die Zeitfensterberechnung, wenn die Ereigniszeit < 0
-
[SPARK-42336] [SC-122458][core] Verwenden Sie
getOrElse()anstelle voncontains()in ResourceAllocator - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas-UDF in Spark Connect
- [SPARK-42217] [SC-122263][sql] Unterstützen implizite laterale Spaltenaliase in Abfragen mit Fenster
- [SPARK-35240] [SC-118242][ss] Verwenden von CheckpointFileManager für die Manipulation von Prüfpunktdateien
- [SPARK-42294] [SC-122337][sql] Einbeziehen von Spaltenstandardwerten in die DESCRIBE-Ausgabe für V2-Tabellen
- [SPARK-41979] "Wiederherstellen "[12.x][sc-121190][SQL] Fügen Sie fehlende Punkte für Fehlermeldungen in Fehlerklassen hinzu.""
- [SPARK-42286] [SC-122336][sql] Fallback auf den vorherigen Codegen-Codepfad für den komplexen Ausdruck mit CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Vermeiden Sie die Verwendung integrierter Listen, diktieren Sie statische Eingaben.
- [SPARK-41985] [SC-122172][sql] Weitere Zentralisierung der Regeln für die Spaltenauflösung
- [SPARK-42126] [SC-122330][python][CONNECT] Annehmen des Rückgabetyps in DDL-Zeichenfolgen für Python Scalar UDFs in Spark Connect
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Verwendet die JVM-Initialisierung und separate Konfigurationsgruppen, die im lokalen Remotemodus festgelegt werden sollen.
- [SPARK-41575] [SC-120118][sql] Weisen Sie _LEGACY_ERROR_TEMP_2054 einen Namen zu
- [SPARK-41985] Rückgängig machen “[SC-122172][sql] Mehr Regeln für die Spaltenauflösung zentralisieren”
- [SPARK-42123] [SC-122234][sc-121453][SQL] Spaltenstandardwerte in DESCRIBE und SHOW CREATE TABLE Ausgabe einschließen
- [SPARK-41985] [SC-122172][sql] Weitere Zentralisierung der Regeln für die Spaltenauflösung
- [SPARK-42284] [SC-122233][connect] Stellen Sie sicher, dass die Verbindungsserverassembly erstellt wird, bevor Clienttests ausgeführt werden – SBT
-
[SPARK-42239] [SC-121790][sql] Integrieren von
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY -
[SPARK-42278] [SC-122170][sql] DS V2-Pushdown unterstützt JDBC-Dialekte, die
SortOrderselbst kompilieren - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics sollte sich um Python UDAF kümmern
- [SPARK-41979] Rückgängigmachen von „[12.x][sc-121190][SQL] Fügen Sie fehlende Punkte für Fehlermeldungen in Fehlerklassen hinzu.“
- [SPARK-42224] [12.x][sc-121708][CONNECT] TypeError in das Fehlerframework für Spark Connect-Funktionen migrieren
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migrieren sie die Spark Connect-Fehler in das PySpark-Fehlerframework.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Fügen Sie integrierte Tabellenwertfunktionen wie inline und inline_outer hinzu
- [SPARK-41489] [SC-121713][sql] Weisen Sie _LEGACY_ERROR_TEMP_2415 einen Namen zu
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Führt PySparkValueError und PySparkTypeError ein
- [SPARK-42081] [SC-121723][sql] Verbessern der Planänderungsüberprüfung
- [SPARK-42225] [12.x][sc-121714][CONNECT] Fügen Sie SparkConnectIllegalArgumentException hinzu, um Spark Connect-Fehler präzise zu behandeln.
-
[SPARK-42044] [12.x][sc-121280][SQL] Korrektur der falschen Fehlermeldung für
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY - [SPARK-42194] [12.x][sc-121712][PS] Parameter "Spalten zulassen" beim Erstellen von DataFrame mit Datenreihe.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Migrieren von Fehlern, die von JVM in PySparkException ausgelöst werden.
- [SPARK-42133] [12.x][sc-121250] Hinzufügen grundlegender Dataset-API-Methoden zu SparkConnect Scala Client
- [SPARK-41979] [12.x][sc-121190][SQL] Fügen Sie fehlende Punkte für Fehlermeldungen in Fehlerklassen hinzu.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF in Spark Connect
- [SPARK-42051] [SC-121994][sql] Codegen-Unterstützung für HiveGenericUDF
- [SPARK-42257] [SC-121948][Core] Entfernen der ungenutzten Variable des externen Sortierers
- [SPARK-41735] [SC-121771][sql] Verwenden Sie MINIMAL anstelle von STANDARD für SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][sql] Verfeinern
NULLABLE_ARRAY_OR_MAP_ELEMENT -
[SPARK-42233] [SC-121775][sql] Fehlermeldung verbessern für
PIVOT_AFTER_GROUP_BY -
[SPARK-42229] [SC-121856][core] Migration von
SparkCoreErrorszu Fehlerklassen - [SPARK-42163] [SC-121839][sql] Fix Schema-Pruning für nicht faltbare Array-Indizes oder Map-Schlüssel
- [SPARK-40711] [SC-119990][sql] Hinzufügen von Überlaufgrößenmetriken für Fenster
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Ermöglichen Sie
createDataFramedie Unterstützung derAtomicType -> StringType-Umwandlung - [SPARK-42202] [SC-121837][connect][Test] Verbessern der E2E-Testserver-Stopplogik
- [SPARK-41167] [SC-117425][sql] Verbesserung der Mehrfach-Like-Leistung durch Erstellen eines Prädikats für einen ausgewogenen Ausdrucksbaum
- [SPARK-41931] [SC-121618][sql] Bessere Fehlermeldung für unvollständige komplexe Typdefinition
- [SPARK-36124] [SC-121339][sc-110446][SQL] Unterstützt Unterabfragen mit Korrelation über UNION
- [SPARK-42090] [SC-121290][3.3] Führen Sie sasl-Wiederholungsanzahl in RetryingBlockTransferor ein
-
[SPARK-42157] [SC-121264][Core]
spark.scheduler.mode=FAIRsollte FAIR Scheduler bereitstellen - [SPARK-41572] [SC-120772][sql] Weisen Sie _LEGACY_ERROR_TEMP_2149 einen Namen zu.
-
[SPARK-41983] [SC-121224][sql] Umbenennen & Verbessern der Fehlermeldung für
NULL_COMPARISON_RESULT -
[SPARK-41976] [SC-121024][sql] Fehlermeldung verbessern für
INDEX_NOT_FOUND - [SPARK-41994] [SC-121210][sc-120573] SQLSTATE zuweisen (1/2)
- [SPARK-41415] [ SC-121117][3.3] SASL-Anforderungswiederholungen
- [SPARK-38591] [SC-121018][sql] Fügen Sie flatMapSortedGroups und cogroupSorted hinzu
-
[SPARK-41975] [SC-120767][sql] Fehlermeldung verbessern für
INDEX_ALREADY_EXISTS - [SPARK-42056] [SC-121158][sql][PROTOBUF] Fügen Sie fehlende Optionen für Protobuf-Funktionen hinzu.
-
[SPARK-41984] [SC-120769][sql] Umbenennen von & und Verbessern der Fehlermeldung für
RESET_PERMISSION_TO_ORIGINAL - [SPARK-41948] [SC-121196][sql] Behebung des NPE für Fehlerklassen: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Korrigieren des falschen Spaltennamens in das Doctest von
withField -
[SPARK-41283] [SC-121175][connect][PYTHON]
array_appendzu Connect hinzufügen - [SPARK-41960] [SC-120773][sql] Weise den Namen _LEGACY_ERROR_TEMP_1056 zu.
- [SPARK-42134] [SC-121116][sql] Fix getPartitionFiltersAndDataFilters() zum Behandeln von Filtern ohne referenzierte Attribute
-
[SPARK-42096] [SC-121012][connect] Einige Codebereinigungen für
connectModul -
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Fix
count(*)undcount(col(*)) - [SPARK-42045] [SC-120958][sc-120450][SQL] ANSI SQL-Modus: Round/Bround sollte einen Fehler beim Ganzzahlüberlauf zurückgeben
- [SPARK-42043] [SC-120968][connect] Scala-Client-Ergebnis mit E2E Tests
- [SPARK-41884] [SC-121022][connect] Naives Tupel als geschachtelte Reihe unterstützen
-
[SPARK-42112] [SC-121011][sql][SS] Fügen Sie eine Nullwertprüfung hinzu, bevor die
ContinuousWriteRDD#computeFunktion geschlossen wirddataWriter - [SPARK-42077] [SC-120553][connect][PYTHON] Literal sollte TypeError für nicht unterstützte Datentypen auslösen
-
[SPARK-42108] [SC-120898][sql] Den Analyzer dazu bringen,
Count(*)inCount(1)zu transformieren -
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Unterstützung parametrisierter SQL durch
sql() - [SPARK-40599] [SC-120930][sql] MultiTransform-Regeltyp "Relax", um Alternativen als beliebige Arten von Seq zu ermöglichen
-
[SPARK-41574] [SC-120771][sql] Update
_LEGACY_ERROR_TEMP_2009alsINTERNAL_ERROR. - [SPARK-41579] [SC-120770][sql] Weisen Sie _LEGACY_ERROR_TEMP_1249 einen Namen zu
-
[SPARK-41974] [SC-120766][sql] Wandeln Sie
INCORRECT_END_OFFSETinINTERNAL_ERROR - [SPARK-41530] [SC-120916][sc-118513][CORE] MedianHeap in PercentileMap umbenennen und Perzentil unterstützen
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Korrektur der Zeichenfolgendarstellung für die Spaltenklasse
- [SPARK-42084] [SC-120775][sql] Vermeiden, dass die Einschränkung für qualifizierten Zugriff verloren geht
- [SPARK-41973] [SC-120765][sql] Weisen Sie den Namen _LEGACY_ERROR_TEMP_1311 zu
- [SPARK-42039] [SC-120655][sql] SPJ: Option in KeyGroupedPartitioning#partitionValuesOpt entfernen
-
[SPARK-42079] [SC-120712][connect][PYTHON] Benennen Sie Protonachrichten für
toDFundwithColumnsRenamed - [SPARK-42089] [SC-120605][connect][PYTHON] Beheben von Problemen mit variablen Namen in geschachtelten Lambda-Funktionen
- [SPARK-41982] [SC-120604][sql] Partitionen von Typzeichenfolgen sollten nicht als numerische Typen behandelt werden.
- [SPARK-40599] [SC-120620][sql] Fügen Sie MultiTransform-Methoden zu TreeNode hinzu, um Alternativen zu generieren.
-
[SPARK-42085] [SC-120556][connect][PYTHON]
from_arrow_schemadie Unterstützung geschachtelter Typen sicherstellen - [SPARK-42057] [SC-120507][sql][PROTOBUF] Beheben Sie, wie die Ausnahme in der Fehlerberichterstattung behandelt wird.
-
[SPARK-41586] [12.x][alle Tests][SC-120544][python] Führen Sie
pyspark.errorsund Fehlerklassen für PySpark ein. -
[SPARK-41903] [SC-120543][connect][PYTHON]
Literalsollte 1-dim ndarray unterstützen -
[SPARK-42021] [SC-120584][connect][PYTHON] Machen Sie
createDataFramekompatibel mitarray.array - [SPARK-41896] [SC-120506][sql] Filterung nach Zeilenindex gibt leere Ergebnisse zurück.
- [SPARK-41162] [SC-119742][sql] Behebung von Anti- und Semi-Join für Selbst-Join mit Aggregationen
- [SPARK-41961] [SC-120501][sql] Unterstützung von Tabellenwert-Funktionen unter Einbeziehung von LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Gruppiert geschachtelte Ausführungen unter der Stammausführung.
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal sollte Numpy-Datentypen unterstützen
- [SPARK-42028] [SC-120344][connect][PYTHON] Kürzung von Nanosekunden-Zeitstempeln
- [SPARK-42011] [SC-120534][connect][PYTHON] Implementieren von DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Verwendung von
FieldReference.columnanstelle vonapplybei der Filterumwandlung von V1 zu V2. - [SPARK-39217] [SC-120446][sql] Unterstützt DPP für die Beschneidungsseite union
-
[SPARK-42076] [SC-120551][connect][PYTHON] Faktorisierung der Datenkonvertierung
arrow -> rowsnachconversion.py -
[SPARK-42074] [SC-120540][sql] Aktivieren
KryoSerializerinTPCDSQueryBenchmarkzum Erzwingen der SQL-Klassenregistrierung - [SPARK-42012] [SC-120517][connect][PYTHON] Implementierung von DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Beheben Sie
DataFrame.unionByName, fügen Sie allow_missing_columns hinzu -
[SPARK-38651] [ SC-120514] [SQL] Add
spark.sql.legacy.allowEmptySchemaWrite -
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsertsollte ExpressionProxy als untergeordnetes Element akzeptieren - [SPARK-41232] [SC-120073][sql][PYTHON] Hinzufügen array_append Funktion
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader sollte eine Liste der Pfade unterstützen
-
[SPARK-42071] [SC-120533][core] Registrieren
scala.math.Ordering$Reversebei KyroSerializer - [SPARK-41986] [SC-120429][sql] Einführen von Shuffle auf SinglePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Aktivieren von Tests im Zusammenhang mit der geschachtelten Spalte
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReadersollte das StructType-Schema unterstützen. -
[SPARK-42031] [SC-120389][core][SQL] Bereinigen sie
removeMethoden, die keine Außerkraftsetzung benötigen -
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Fügen Sie Unterstützung für
createDataFrame(rows/lists/tuples/dicts)für geschachtelte Typen hinzu - [SPARK-41437] [SC-117601][SQL][ALLE TESTS] Optimieren Sie die Eingabeabfrage nicht zweimal für v1-Rückschreibfallback.
-
[SPARK-41840] [SC-119719][connect][PYTHON] Fügen Sie den fehlenden Alias
groupby - [SPARK-41846] [SC-119717][connect][PYTHON] Aktivieren von Doctests für Fensterfunktionen
- [SPARK-41914] [SC-120094][sql] FileFormatWriter materialisiert den AQE-Plan vor dem Zugriff auf outputOrdering
- [SPARK-41805] [SC-119992][sql] Wiederverwenden von Ausdrücken in WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range soll Float-Werte als Argumente akzeptieren.
-
[SPARK-42029] [SC-120336][connect] Fügen Sie Guava Shading-Regeln zu
connect-commonhinzu, um Startfehler zu vermeiden - [SPARK-41989] [SC-120334][python] Vermeiden Sie das Unterbrechen der Protokollierungskonfiguration von pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Reduzierung doppelten Codes in ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Fehlerbehebung bei GROUP BY ALL-Fehlerberichterstattung
- [SPARK-41047] [SC-120291][sql] Dokumentation für 'round' verbessern
- [SPARK-41822] [SC-120122][connect] gRPC-Verbindung für Scala/JVM-Client einrichten
-
[SPARK-41879] [SC-120264][connect][PYTHON] Stellen Sie sicher, dass
DataFrame.collectgeschachtelte Typen unterstützen -
[SPARK-41887] [SC-120268][connect][PYTHON] Lassen Sie
DataFrame.hintListen-typisierten Parameter akzeptieren - [SPARK-41964] [SC-120210][connect][PYTHON] Fügen Sie die Liste der nicht unterstützten E/A-Funktionen hinzu.
- [SPARK-41595] [SC-120097][sql] Unterstützung für die Generatorfunktion explodieren/explodieren_outer in der FROM-Klausel
-
[SPARK-41957] [SC-120121][connect][PYTHON] Aktivieren sie den Doctest für
DataFrame.hint -
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersectDoctest-Ausgabe weist unterschiedliche Reihenfolge auf - [SPARK-41442] [SC-117795][SQL][ALLE TESTS] Der SQL-Metrik-Wert soll nur aktualisiert werden, wenn er mit einer gültigen Metrik zusammengeführt wird.
- [SPARK-41944] [SC-120046][connect] Übergeben Sie Konfigurationen, wenn der lokale Remote-Modus aktiviert ist.
-
[SPARK-41708] [SC-119838][sql] Ziehe v1write-Informationen zu
WriteFiles -
[SPARK-41780] [SC-120000][sql] Sollte INVALID_PARAMETER_VALUE.PATTERN auslösen, wenn die Parameter
regexpungültig sind - [SPARK-41889] [SC-119975][sql] Ursachenermittlung für invalidPatternError anfügen & Fehlerklassen INVALID_PARAMETER_VALUE umgestalten
- [SPARK-41860] [SC-120028][sql] Machen Sie AvroScanBuilder und JsonScanBuilder zu Fallklassen
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: Client-Verbindung verlor Spaltendaten bei Verwendung von pyarrow.Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Agnostische Encoder
- [SPARK-41354] [SC-119995][connect][PYTHON] Implementieren von RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Update
_LEGACY_ERROR_TEMP_1230alsINTERNAL_ERROR -
[SPARK-41928] [SC-119972][connect][PYTHON] Fügen Sie die nicht unterstützte Liste für
functions - [SPARK-41933] [SC-119980][connect] Bereitstellen des lokalen Modus, der den Server automatisch startet
- [SPARK-41899] [SC-119971][connect][PYTHON] CreateDataFrame sollte das vom Benutzer angegebene DDL-Schema berücksichtigen.
-
[SPARK-41936] [SC-119978][connect][PYTHON]
withMetadatazur Wiederverwendung deswithColumnsProtos machen - [SPARK-41898] [SC-119931][connect][PYTHON] Gleichheit der Typprüfung der Parameter für Window.rowsBetween und Window.rangeBetween mit pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Fügen Sie die nicht unterstützte Liste für
catalogFunktionen hinzu. -
[SPARK-41924] [SC-119946][connect][PYTHON] StructType soll Metadaten unterstützen und Implementierung umsetzen
DataFrame.withMetadata -
[SPARK-41934] [SC-119967][connect][PYTHON] Fügen Sie die liste nicht unterstützter Funktionen für
session -
[SPARK-41875] [SC-119969][connect][PYTHON] Fügen Sie Testfälle für
Dataset.to() - [SPARK-41824] [SC-119970][connect][PYTHON] Ignorieren Sie den Doctest für die Erklärung von connect.
-
[SPARK-41880] [SC-119959][connect][PYTHON] Funktion
from_jsonsoll nicht literales Schema akzeptieren -
[SPARK-41927] [SC-119952][connect][PYTHON] Fügen Sie die nicht unterstützte Liste für
GroupedData -
[SPARK-41929] [SC-119949][connect][PYTHON] Funktion hinzufügen
array_compact -
[SPARK-41827] [SC-119841][connect][PYTHON]
GroupByermöglichen, eine Spaltenliste zu akzeptieren -
[SPARK-41925] [SC-119905][sql] Standardmäßig
spark.sql.orc.enableNestedColumnVectorizedReaderaktivieren -
[SPARK-41831] [SC-119853][connect][PYTHON]
DataFrame.selectso anpassen, dass es eine Spaltenliste akzeptiert -
[SPARK-41455] [SC-119858][connect][PYTHON] Erstellen
DataFrame.collectVerwerfen der Zeitzoneninformationen -
[SPARK-41923] [SC-119861][connect][PYTHON] Hinzufügen von
DataFrame.writeTozur nicht unterstützten Liste - [SPARK-41912] [SC-119837][sql] Unterabfrage sollte CTE nicht überprüfen
-
[SPARK-41828] [SC-119832][connect][PYTHON][12.x] Stellen Sie sicher, dass
createDataFrameleeren Dataframe unterstützen - [SPARK-41905] [SC-119848][connect] Supportname als Zeichenfolgen in Segmenten
- [SPARK-41869] [SC-119845][connect] Einzelne Zeichenfolge in dropDuplicates ablehnen
-
[SPARK-41830] [SC-119840][connect][PYTHON]
DataFrame.samplesoll die gleichen Parameter wie PySpark akzeptieren. - [SPARK-41849] [SC-119835][connect] Implementierung von DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Beim v2-ScanBuilder die Methode build() so anpassen, dass sie einen typisierten Scan zurückgibt.
-
[SPARK-41825] [SC-119710][connect][PYTHON] Aktivieren von Doctests im Zusammenhang mit
DataFrame.show -
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Sicherstellen, dass
createDataFrameNone/NaN ordnungsgemäß behandelt -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Sorge dafür, dass
DataFrame.collectNone/NaN/Array/Binary richtig verarbeitet. - [SPARK-39318] [SC-119713][sql] Entfernen der tpch-plan-stability WithStats goldene Dateien
- [SPARK-41791] [ SC-119745] Hinzufügen neuer Spaltentypen für Dateiquellmetadaten
- [SPARK-41790] [SC-119729][sql] Das Format des TRANSFORM-Readers und -Writers korrekt festlegen
-
[SPARK-41829] [SC-119725][connect][PYTHON] Fügen Sie den fehlenden Sortierparameter in
SortundsortWithinPartitions - [SPARK-41576] [SC-119718][sql] Weisen Sie _LEGACY_ERROR_TEMP_2051 einen Namen zu.
- [SPARK-41821] [SC-119716][connect][PYTHON] Dokumentationstest für DataFrame.describe beheben.
- [SPARK-41871] [SC-119714][connect] DataFrame-Hinweisparameter kann str, float oder int sein.
- [SPARK-41720] [SC-119076][sql] "UnresolvedFunc" in "UnresolvedFunctionName" umbenennen
- [SPARK-41573] [SC-119567][sql] Weisen Sie _LEGACY_ERROR_TEMP_2136 einen Namen zu.
- [SPARK-41862] [SC-119492][sql] Behebung eines Fehlers bezüglich der Korrektheit im Zusammenhang mit STANDARDWERTen im Orc-Leser
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Wiederverwenden von
INVALID_TYPED_LITERALanstelle von_LEGACY_ERROR_TEMP_0022
Wartungsupdates
Weitere Informationen finden Sie unter Wartungsupdates für Databricks Runtime 12.2.
Systemumgebung
-
Betriebssystem: Ubuntu 20.04.5 LTS
- Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die Databricks-Runtime-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
- Java: Zulu 8.68.0.21-CA-linux64
- Skala: 2.12.15
- Python: 3.9.21
- R: 4.2.2
- Delta Lake: 2.2.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
| Attrs | 21.4.0 | Backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
| beautifulsoup4 | 4.11.1 | schwarz | 22.3.0 | Bleichmittel | 4.1.0 |
| Boto3 | 1.21.32 | Botocore | 1.24.32 | Zertifizieren | 2021.10.8 |
| CFFI | 1.15.0 | Chardet | 4.0.0 | Charset-Normalizer | 2.0.4 |
| Klicken | 8.0.4 | Kryptographie | 3.4.8 | Fahrradfahrer | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
| Dekorateur | 5.1.1 | defusedxml | 0.7.1 | Distlib | 0.3.6 |
| Docstring zu Markdown | 0,11 | Einstiegspunkte | 0,4 | ausführen | 0.8.3 |
| Übersicht der Facetten | 1.0.0 | fastjsonschema | 2.16.2 | Dateisperrung | 3.9.0 |
| fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.1.1 | jsonschema | 4.4.0 | Jupyter-Client | 6.1.12 |
| jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | verstimmen | 0.8.4 |
| mypy-Erweiterungen | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| Notebook | 6.4.8 | numpy | 1.21.5 | Packen | 21,3 |
| Pandas | 1.4.2 | Pandocfilter | 1.5.0 | Parso | 0.8.3 |
| Pfadangabe | 0.9.0 | Sündenbock | 0.5.2 | pexpect | 4.8.0 |
| Pickleshare | 0.7.5 | Kissen | 9.0.1 | Kern | 21.2.4 |
| platformdirs | 2.6.2 | Handlung | 5.6.0 | plugin-fähig | 1.0.0 |
| prometheus-client | 0.13.1 | Prompt-Toolkit | 3.0.20 | protobuf | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | Pyarrow | 7.0.0 | Pycparser | 2.21 |
| Pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| Pyodbc | 4.0.32 | Pyparsing | 3.0.4 | Pyright | 1.1.283 |
| Pyristent | 0.18.0 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| Python-LSP-Server | 1.6.0 | Pytz | 2021.3 | pyzmq | 22.3.0 |
| Anforderungen | 2.27.1 | requests-unixsocket | 0.2.0 | Seil | 0.22.0 |
| s3transfer | 0.5.0 | scikit-lernen | 1.0.2 | SciPy | 1.7.3 |
| Seegeboren | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
| sechs | 1.16.0 | Sieb für Suppe | 2.3.1 | ssh-import-id | 5.10 |
| Stapeldaten | 0.2.0 | StatistikModelle | 0.13.2 | Hartnäckigkeit | 8.0.1 |
| terminado | 0.13.1 | Testpfad | 0.5.0 | Threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 1.2.2 | Tornado | 6.1 |
| Traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
| unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | Webkodierungen | 0.5.1 | Was ist neu im Patch | 1.0.4 |
| Rad | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 11.11.2022 installiert. Die Momentaufnahme ist nicht mehr verfügbar.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 10.0.0 | Askpass | 1.1 | prüfen, dass | 0.2.1 |
| Backports | 1.4.1 | Basis | 4.2.2 | base64enc | 0.1-3 |
| Bit | 4.0.4 | Bit64 | 4.0.5 | Blob | 1.2.3 |
| Boot | 1.3-28 | brauen | 1,0 - 8 | Brio | 1.1.3 |
| Besen | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
| Callr | 3.7.3 | Caret | 6.0-93 | CellRanger | 1.1.0 |
| Chron | 2.3-58 | Klasse | 7.3-21 | Befehlszeilenschnittstelle (CLI) | 3.4.1 |
| Schermaschine | 0.8.0 | Uhr | 0.6.1 | Gruppe | 2.1.4 |
| Codetools | 0.2-19 | Farbraum | 2.0-3 | Commonmark | 1.8.1 |
| Kompilierer | 4.2.2 | Konfiguration | 0.3.1 | cpp11 | 0.4.3 |
| Buntstift | 1.5.2 | Anmeldeinformationen | 1.3.2 | Locke | 4.3.3 |
| data.table | 1.14.4 | Datensätze | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | Beschreibung | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | verdauen | 0.6.30 | Nach unten gerichtete Beleuchtung | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| Ellipse | 0.3.2 | Evaluieren | 0,18 | Fans | 1.0.3 |
| Farben | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
| Sträflinge | 0.5.2 | Foreach | 1.5.2 | Fremd | 0.8-82 |
| schmieden | 0.2.0 | FS | 1.5.2 | Zukunft | 1.29.0 |
| future.apply | 1.10.0 | gurgeln | 1.2.1 | Generika | 0.1.3 |
| Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-4 | Globale Werte | 0.16.1 |
| Klebstoff | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | Grafiken | 4.2.2 | grGeräte | 4.2.2 |
| Raster | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| g-Tabelle | 0.3.1 | Schutzhelm | 1.2.0 | Hafen | 2.5.1 |
| Highr | 0.9 | HMS | 1.1.2 | HTML-Werkzeuge | 0.5.3 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
| Ausweise | 1.0.1 | ini | 0.3.1 | IPRED | 0.9-13 |
| Isobande | 0.2.6 | Iteratoren | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2.23-20 | Knitr | 1.40 |
| Etikettierung | 0.4.2 | später | 1.3.0 | Gitter | 0.20-45 |
| Lava | 1.7.0 | Lebenszyklus | 1.0.3 | „listenv“ | 0.8.0 |
| Schmiermittel | 1.9.0 | magrittr | 2.0.3 | Abschlag | 1.3 |
| MASSE | 7.3-58.2 | Matrix | 1.5-1 | Zwischenspeichern | 2.0.1 |
| Methodik | 4.2.2 | mgcv | 1.8-41 | Mime-Kunst | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-162 | NNET | 7.3-18 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.0.4 | parallel | 4.2.2 |
| parallel dazu | 1.32.1 | Säule | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| PLOGR | 0.2.0 | plyr | 1.8.7 | loben | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | Prozessx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | Fortschritt | 1.2.2 |
| progressr | 0.11.0 | Versprechungen | 1.2.0.1 | Prototyp | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.7.2 | schnurren | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | Ragg | 1.2.4 |
| randomForest (Zufälliger Wald) | 4.7-1.1 | Rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrauer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| READR | 2.1.3 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.1 | Rezepte | 1.0.3 |
| Rückspiel | 1.0.1 | Rückspiel2 | 2.1.2 | fernbedienungen | 2.4.2 |
| reproduzierbares Beispiel | 2.0.2 | Umform2 | 1.4.4 | rlang | 1.0.6 |
| RMarkdown | 2,18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
| RVEST | 1.0.3 | Sass | 0.4.2 | Waage | 1.2.1 |
| Selektor | 0.4-2 | Sitzungsinformationen | 1.2.2 | Gestalt | 1.4.6 |
| glänzend | 1.7.3 | sourcetools | 0.1.7 | Sparklyr | 1.7.8 |
| SparkR | 3.3.2 | räumlich | 7.3-11 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiken | 4.2.2 |
| Statistiken4 | 4.2.2 | Stringi | 1.7.8 | stringr | 1.4.1 |
| Überleben | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
| TCLTK | 4.2.2 | testthat | 3.1.5 | Textgestaltung | 0.3.6 |
| Tibble | 3.1.8 | Räumter | 1.2.1 | aufräumen | 1.2.0 |
| aufräumen | 1.3.2 | Zeitumstellung | 0.1.1 | timeDatum | 4021.106 |
| tinytex | 0,42 | Werkzeuge | 4.2.2 | Zeitzonendatenbank (tzdb) | 0.3.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 2.1.6 | utf8 | 1.2.2 |
| Dienstprogramme und Funktionen | 4.2.2 | Universelle eindeutige Kennung (UUID) | 1.1-0 | VCTRS | 0.5.0 |
| viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
| Backenbart | 0,4 | Withr | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML-Dateiformat | 2.3.6 | schwirren | 2.2.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-db | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.189 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-schattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.coffein | Koffein | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | Kern | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | nativesystem-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | Profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | Quellcode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-servers | 11.2.2.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tduning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.3 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 4.1.1 |
| io.dropwizard.metrics | Metrics-Graphit | 4.1.1 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 4.1.1 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | Metrics-JVM | 4.1.1 |
| io.dropwizard.metrics | Metrik-Servlets | 4.1.1 |
| io.netty | nett-all | 4.1.74.Final |
| io.netty | Netty-Buffer | 4.1.74.Final |
| io.netty | Netty Codec | 4.1.74.Final |
| io.netty | Netty-common | 4.1.74.Final |
| io.netty | Netty-Handler | 4.1.74.Final |
| io.netty | Netty-Resolver | 4.1.74.Final |
| io.netty | netty-tcnative-Klassen | 2.0.48.Final |
| io.netty | Netty-Transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammlung | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.Schneeflocke | Snowflake-JDBC | 3.13.22 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | Ant-Launcher | 1.9.2 |
| org.apache.arrow | Pfeilformat | 7.0.0 |
| org.apache.arrow | Pfeilspeicherkern | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | Pfeil-Vektor | 7.0.0 |
| org.apache.avro | avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | Kurator-Framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-API | 3.3.4-databricks |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-silk | 2.3.9 |
| org.apache.hive | hive-llap-Client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-speicher-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-Anpassungen-Common | 2.3.9 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | Efeu | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | Orc-Shims | 1.7.6 |
| org.apache.parkett | Parkettsäule | 1.12.3-databricks-0002 |
| org.apache.parkett | Parquet-Komponente | 1.12.3-databricks-0002 |
| org.apache.parkett | Parquet-Kodierung | 1.12.3-databricks-0002 |
| org.apache.parkett | Parquet-Format-Strukturen | 1.12.3-databricks-0002 |
| org.apache.parkett | Parkett-Hadoop | 1.12.3-databricks-0002 |
| org.apache.parkett | Parkett-Jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.2 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.2 |
| org.checkerframework | Prüferqualifikation | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Plus | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Server | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Util | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | Jersey-Client | 2,36 |
| org.glassfish.jersey.core | jersey-common | 2,36 |
| org.glassfish.jersey.core | Jersey-Server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.aspx | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 2.1.1 |
| org.objenesis | Objenese | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | Klemmstücke | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.28.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | ungenutzt | 1.0.0 |
| org.threeten | 3ten-extra | 1.5.0 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | Katzen-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-servers | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | Schlangenyaml | 1,24 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |