Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Note
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Das Support-Enddatum finden Sie in der Supporthistorie. Eine Übersicht aller unterstützten Databricks Runtime-Versionen finden Sie unter Versionshinweise und Kompatibilität von Databricks Runtime.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 10.4 und Databricks Runtime 10.4 Photon, unterstützt von Apache Spark 3.2.1. Photon ist als Public Preview verfügbar. Diese Version wurde von Databricks im März 2022 veröffentlicht.
Neue Features und Verbesserungen
- Apache Iceberg-zu-Delta-Tabellenkonverter (Public Preview)
- Rollbacks für die automatische Komprimierung sind jetzt standardmäßig aktiviert
- Low-Shuffle-Merge ist jetzt standardmäßig aktiviert
-
Tags für die Einfügereihenfolge werden jetzt beibehalten für
UPDATEs undDELETEs - HikariCP ist jetzt der standardmäßige Verbindungspool des Hive-Metastores
- Azure Synapse Connector ermöglicht jetzt das Festlegen der maximalen Anzahl zulässiger abgelehnter Zeilen
- Asynchrone Zustandsprüfpunkte jetzt allgemein verfügbar
- Parameterstandardwerte können jetzt für benutzerdefinierte SQL-Funktionen angegeben werden
- Neue Spark SQL-Funktionen
- Neues Arbeitsverzeichnis für Cluster mit hoher Parallelität
- Unterstützung von Identitätsspalten in Delta-Tabellen jetzt allgemein verfügbar
Apache Iceberg-zu-Delta-Tabellenkonverter (Public Preview)
Convert to Delta unterstützt jetzt das Konvertieren einer Apache Iceberg-Tabelle vor Ort in eine Delta-Tabelle. Dazu werden die nativen Iceberg-Metadaten und -Dateimanifeste verwendet. Weitere Informationen finden Sie unter Konvertieren in Delta Lake.
Rollbacks für die automatische Komprimierung sind jetzt standardmäßig aktiviert
Diese Version verbessert das Verhalten für Delta Lake-Schreibvorgänge, die bei gleichzeitigen Transaktionen für die automatische Komprimierung committet werden. Vor dieser Version wurden solche Schreibvorgänge oft abgebrochen, wenn gleichzeitig Änderungen an einer Tabelle vorgenommen wurden. Schreibvorgänge werden jetzt auch dann erfolgreich durchgeführt, wenn gleichzeitig Transaktionen für die automatische Komprimierung stattfinden.
Low-Shuffle-Merge ist jetzt standardmäßig aktiviert
Der MERGE INTO-Befehl verwendet jetzt immer die neue Low-Shuffle-Implementierung. Dadurch wird die Leistung des MERGE INTO-Befehls für die meisten Workloads erheblich verbessert. Die zuvor zum Aktivieren dieses Features verwendete Konfigurationseinstellung wurde entfernt. Siehe Low-Shuffle-Merge in Azure Databricks.
Tags für die Einfügereihenfolge werden jetzt beibehalten für UPDATEs und DELETEs
Die Befehle UPDATE und DELETE behalten jetzt die vorhandenen Clusterinformationen (einschließlich der Z-Reihenfolge) für Dateien bei, die aktualisiert oder gelöscht werden. Dies ist ein Best-Effort-Ansatz und gilt nicht für Fälle, in denen Dateien so klein sind, dass sie während der Aktualisierung oder beim Löschen kombiniert werden.
HikariCP ist jetzt der standardmäßige Verbindungspool des Hive-Metastores
HikariCP bringt eine Vielzahl von Stabilitätsverbesserungen für den Zugriff auf den Hive-Metastore, während gleichzeitig weniger Verbindungen im Vergleich zur vorherigen Implementierung des BoneCP-Verbindungspools bestehen bleiben. HikariCP ist standardmäßig auf jedem Databricks Runtime-Cluster aktiviert, der den Databricks Hive-Metastore verwendet (z. B. wenn spark.sql.hive.metastore.jars nicht festgelegt ist). Sie können auch explizit zu anderen Verbindungspoolimplementierungen wechseln, z. B. BoneCP, indem Sie spark.databricks.hive.metastore.client.pool.type festlegen.
Azure Synapse Connector ermöglicht jetzt das Festlegen der maximalen Anzahl zulässiger abgelehnter Zeilen
Der Azure Synapse-Connector unterstützt jetzt die Datenrahmenoption maxErrors. Mit diesem Update können Sie die maximale Anzahl abgelehnter Zeilen konfigurieren, die bei Lese- und Schreibvorgängen zulässig sind, bevor der Ladevorgang abgebrochen wird. Alle abgelehnten Zeilen werden ignoriert. Wenn z. B. zwei von zehn Datensätzen Fehler aufweisen, werden nur acht Datensätze verarbeitet.
Diese Option ordnet die Option für die REJECT_VALUECREATE EXTERNAL TABLE Anweisung in PolyBase und der Option für den MAXERRORS Befehl des Azure Synapse-Connectors COPY direkt zu.
Standardmäßig ist der maxErrors-Wert auf 0 festgelegt: Es wird erwartet, dass alle Datensätze gültig sind.
Asynchrone Zustandsprüfpunkte jetzt allgemein verfügbar
Sie können die asynchrone Zustandsüberprüfung in zustandsbehafteten Streamingabfragen mit großen Statusupdates aktivieren. Dies kann die End-to-End-Latenz bei Mikrobatches verringern. Dieses Feature ist jetzt allgemein verfügbar. Weitere Informationen finden Sie unter Asynchrone Zustandsprüfpunkte für zustandsbehaftete Abfragen.
Parameterstandardwerte können jetzt für benutzerdefinierte SQL-Funktionen angegeben werden
Wenn Sie eine benutzerdefinierte SQL-Funktion (SQL UDF) erstellen, können Sie jetzt Standardausdrücke für die Parameter der SQL-UDF angeben. Anschließend können Sie die SQL-UDF aufrufen, ohne Argumente für diese Parameter anzugeben. Databricks füllt die Standardwerte für diese Parameter aus. Siehe CREATE FUNCTION (SQL und Python).
Neue Spark SQL-Funktionen
Die folgenden Spark SQL-Funktionen sind in diesem Release verfügbar:
-
try_multiply gibt
multipliermultipliziert durchmultiplicandoderNULLbei einem Überlauf zurück. -
try_subtract gibt
expr2minusexpr1oderNULLbei einem Überlauf zurück.
Neues Arbeitsverzeichnis für Cluster mit hoher Parallelität
Bei Clustern mit hoher Parallelität, für die entweder die Zugriffssteuerung für Tabellen oder Credential Passthrough aktiviert ist, ist das aktuelle Arbeitsverzeichnis von Notebooks jetzt das Home-Verzeichnis des Benutzers. Zuvor war das Arbeitsverzeichnis /databricks/driver.
Unterstützung von Identitätsspalten in Delta-Tabellen jetzt allgemein verfügbar
Delta Lake unterstützt jetzt Identitätsspalten. Wenn Sie in eine Delta-Tabelle schreiben, die eine Identitätsspalte definiert, und Sie keine Werte für diese Spalte bereitstellen, weist Delta jetzt automatisch einen eindeutigen und statistisch zu- oder abnehmenden Wert zu. Siehe CREATE TABLE [USING].
Verbesserungen der Bibliothek
- Aktualisierte Python-Bibliotheken:
- filelock von 3.4.2 auf 3.6.0
- Aktualisierte R-Bibliotheken:
- brew von 1.0-6 auf 1.0-7
- broom von 0.7.11 auf 0.7.12
- cli von 3.1.0 auf 3.2.0
- clipr von 0.7.1 auf 0.8.0
- colorspace von 2.0-2 auf 2.0-3
- crayon von 1.4.2 auf 1.5.0
- dplyr von 1.0.7 auf 1.0.8
- dtplyr von 1.2.0 auf 1.2.1
- evaluate von 0.14 auf 0.15
- foreach von 1.5.1 auf 1.5.2
- future von 1.23.0 auf 1.24.0
- generics von 0.1.1 auf 0.1.2
- glue von 1.6.0 auf 1.6.1
- gower von 0.2.2 auf 1.0.0
- iterators von 1.0.13 auf 1.0.14
- jsonlite von 1.7.3 auf 1.8.0
- magrittr von 2.0.1 auf 2.0.2
- mgcv von 1.8-38 auf 1.8-39
- pillar von 1.6.4 auf 1.7.0
- randomForest von Version 4.6-14 auf Version 4.7-1
- readr von 2.1.1 auf 2.1.2
- recipes von 0.1.17 auf 0.2.0
- rlang von 0.4.12 auf 1.0.1
- rpart von 4.1-15 auf 4.1.16
- RSQLite von 2.2.9 auf 2.2.10
- sparklyr von 1.7.4 auf 1.7.5
- testthat von 3.1.1 auf 3.1.2
- tidyr von 1.1.4 auf 1.2.0
- tidyselect von 1.1.1 auf 1.1.2
- tinytex von 0.36 auf 0.37
- yaml von 2.2.1 auf 2.3.5
- Aktualisierte Java-Bibliotheken:
- io.delta.delta-sharing-spark_2.12 von 0.3.0 auf 0.4.0
Apache Spark
Databricks Runtime 10.4 LTS enthält Apache Spark 3.2.1. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 10.3 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-38322] [SQL] In der Supportabfragephase werden Laufzeitstatistiken im formatierten Explain-Modus angezeigt
- [SPARK-38162] [SQL] Einen Zeilenplan im normalen und AQE-Optimierer optimieren
- [SPARK-38229] [SQL] Bei der Analyse sollte visitReplaceTable nicht temp/external/ifNotExists überprüfen
- [SPARK-34183] [SS] DataSource V2: Erforderliche Verteilung und Bestellung bei der Ausführung von Mikrobatches
- [SPARK-37932] [SQL] Auf die Auflösung der fehlenden Attribute warten, bevor Sie DeduplicateRelations anwenden
- [SPARK-37904] [SQL] RebalancePartitions in Regeln des Optimierers verbessern
- [SPARK-38236] [SQL][3.2][3.1] Prüfen Sie, ob der Speicherort der Tabelle absolut ist, indem Sie „new Path(locationUri).isAbsolute“ beim Erstellen/Ändern einer Tabelle verwenden
- [SPARK-38035] [SQL] Docker-Tests für den integrierten JDBC-Dialekt hinzufügen
- [SPARK-38042] [SQL] Sicherstellen, dass ScalaReflection.dataTypeFor bei Arraytypen mit Aliasen funktioniert
-
[SPARK-38273] [SQL]
decodeUnsafeRowsIteratoren sollten zugrunde liegende Eingabedatenströme schließen - [SPARK-38311] [SQL] DynamicPartitionPruning/BucketedReadSuite/ExpressionInfoSuite unter ANSI-Modus beheben
- [SPARK-38305] [CORE] Explizit prüfen, ob die Quelle in unpack() existiert, bevor FileUtil-Methoden aufgerufen werden
- [SPARK-38275] [ SS] Schließen Sie die Speicherauslastung von writeBatch als gesamter Speicherauslastung des RocksDB-Zustandsspeichers ein.
-
[SPARK-38132] [SQL] Regel
NotPropagationentfernen - [SPARK-38286] [SQL] Union maxRows und maxRowsPerPartition können überlaufen
- [SPARK-38306] [SQL] ExplainSuite,StatisticsCollectionSuite und StringFunctionsSuite unter ANSI-Modus beheben
- [SPARK-38281] [SQL][Tests] AnalysisSuite unter ANSI-Modus beheben
- [SPARK-38307] [SQL][Tests] ExpressionTypeCheckingSuite und CollectionExpressionsSuite unter ANSI-Modus beheben
-
[SPARK-38300] [SQL]
ByteStreams.toByteArrayverwenden, umfileToStringundresourceToBytesin catalyst.util zu vereinfachen - [SPARK-38304] [SQL] Elt() sollte NULL zurückgeben, wenn der Index unter dem ANSI-Modus NULL ist
- [SPARK-38271] PoissonSampler kann mehr Zeilen ausgeben als MaxRows
- [SPARK-38297] [PYTHON] Rückgabewert bei DataFrame.to_numpy in POS explizit umwandeln
- [SPARK-38295] [ SQL][tests] Korrigieren Sie ArithmetischeExpressionSuite im ANSI-Modus.
- [SPARK-38290] [SQL] JsonSuite und ParquetIOSuite unter ANSI-Modus beheben
-
[SPARK-38299] [SQL] Veraltete Verwendung von
StringBuilder.newBuilderbereinigen - [SPARK-38060] [SQL] allowNonNumericNumbers beim Analysieren von NaN- und Infinity-Werten in Anführungszeichen im JSON-Leser respektieren
- [SPARK-38276] [SQL] Genehmigte TPCDS-Pläne unter ANSI-Modus hinzufügen
- [SPARK-38206] [SS] Ignorieren der NULL-Zulässigkeit beim Vergleich des Datentyps von Joinschlüsseln beim Stream-Stream-Join
- [SPARK-37290] [SQL] - Exponentielle Planungszeit im Falle einer nicht deterministischen Funktion
- [SPARK-38232] [SQL] Erläuterung: Werte mit Formatierung sammeln keine Unterabfragen unter der Abfragephase in AQE
- [SPARK-38283] [SQL] Ungültige datetime-Analyse unter ANSI-Modus testen
- [SPARK-38140] [SQL] Statistiken der Spalte „Desc“ (min, max) für den Zeitstempeltyp stimmen aufgrund der Zeitzonendifferenz nicht mit den Werten überein
- [SPARK-38227] [SQL][ss] Wenden Sie die strenge Nullierbarkeit der geschachtelten Spalte im Zeitfenster/Sitzungsfenster an.
- [SPARK-38221] [SQL] Eifriges Iterieren über groupingExpressions beim Verschieben komplexer Gruppierungsausdrücke aus einem Aggregatknoten
- [SPARK-38216] [SQL] Frühzeitiger Fehler, wenn beim Erstellen einer Hive-Tabelle alle Spalten partitionierte Spalten sind
- [SPARK-38214] [SS] Keine Notwendigkeit zum Filtern von Fenstern, wenn windowDuration ein Vielfaches von slideDuration ist
- [SPARK-38182] [SQL] NoSuchElementException beheben, wenn der gepushte Filter keine Verweise enthält
- [SPARK-38159] [SQL] Ein neues FileSourceMetadataAttribute zu den versteckten Dateimetadaten hinzufügen
-
[SPARK-38123] [SQL] Einheitliche Verwendung von
DataTypealstargetTypevonQueryExecutionErrors#castingCauseOverflowError - [SPARK-38118] [SQL] „Func(falscher Datentyp)“ in HAVING-Klausel sollte einen Datenkonfliktfehler auslösen
- [SPARK-35173] [SQL][PYTHON] Unterstützung für mehrere Spalten hinzufügen
- [SPARK-38177] [SQL] transformExpressions-Fehler im Optimierer korrigieren
- [SPARK-38228] [SQL] Legacyspeicherzuweisung sollte unter ANSI-Modus keinen Fehler aufweisen
- [SPARK-38173] [SQL] In Anführungszeichen gesetzte Spalte kann nicht ordnungsgemäß erkannt werden, wenn quotedRegexColumnNa…
- [SPARK-38130] [SQL] Prüfung von bestellbaren array_sort-Einträgen entfernen
-
[SPARK-38199] [SQL] Löschen Sie die ungenutzte
dataType, die in der Definition vonIntervalColumnAccessorangegeben ist. - [SPARK-38203] [SQL] SQLInsertTestSuite und SchemaPruningSuite unter ANSI-Modus beheben
-
[SPARK-38163] [SQL] Fehlerklasse von
SparkThrowablebeim Erstellen des Funktions-Generators beibehalten - [SPARK-38157] [SQL] ANSI in „test timestampNTZ/timestamp.sql“ und „SQLQueryTestSuite“ explizit auf „false“ festlegen, um die erwarteten goldenen Ergebnisse zu erzielen
- [SPARK-38069] [SQL][ss] Verbessern der Berechnung des Zeitfensters
- [SPARK-38164] [SQL] Neue SQL-Funktionen: try_subtract und try_multiply
- [SPARK-38176] [SQL] ANSI-Modus: implizites Umwandeln von String in andere einfache Typen zulassen
- [SPARK-37498] [PYTHON] test_reuse_worker_of_parallelize_range schließlich hinzufügen
- [SPARK-38198] [SQL][3.2] QueryExecution.debug#toFile beheben, das die übergebenen maxFields verwendet, wenn explainMode entsprechend CodegenMode ist
- [SPARK-38131] [SQL] Fehlerklassen nur in benutzerseitigen Ausnahmen verwenden
- [SPARK-37652] [SQL] Test für die Optimierung von verzerrtem Join durch Union hinzufügen
- [SPARK-37585] [SQL] InputMetric in DataSourceRDD mit TaskCompletionListener aktualisieren
- [SPARK-38113] [SQL] Fehlerklassen in den Ausführungsfehlern der Pivotierung verwenden
- [SPARK-38178] [SS] Logik zur Messung der Speicherauslastung von RocksDB korrigieren
- [SPARK-37969] [SQL] HiveFileFormat sollte Feldnamen prüfen
- [SPARK-37652] „[SQL] Test für die Optimierung von verzerrtem Join durch Union hinzufügen“ wiederherstellen
- [SPARK-38124] [SQL][ss] StatefulOpClusteredDistribution einführen und auf Stream-Stream-Join anwenden
- [SPARK-38030] [SQL] Kanonisierung sollte NULL-Zulässigkeit von AttributeReference dataType nicht entfernen
- [SPARK-37907] [SQL] InvokeLike unterstützt ConstantFolding
- [SPARK-37891] [CORE] scalastyle-Überprüfung hinzufügen, um scala.concurrent.ExecutionContext.Implicits.global zu deaktivieren
- [SPARK-38150] [SQL] Kommentar von RelationConversions aktualisieren
- [SPARK-37943] [SQL] Fehlerklassen in den Kompilierungsfehlern der Gruppierung verwenden
- [SPARK-37652] [SQL] Test für die Optimierung von verzerrtem Join durch Union hinzufügen
- [SPARK-38056] [Web UI][3.2] Problem beheben, dass Structured Streaming auf dem Verlaufsserver nicht funktioniert, wenn LevelDB verwendet wird
-
[SPARK-38144] [CORE] Nicht verwendete
spark.storage.safetyFraction-Konfiguration entfernen - [SPARK-38120] [SQL] HiveExternalCatalog.listPartitions beheben, wenn Partitionsspaltenname groß geschrieben ist und der Partitionswert einen Punkt enthält
- [SPARK-38122] [Docs] App-Schlüssel von DocSearch aktualisieren
- [SPARK-37479] [SQL] Migrieren von DROP NAMESPACE für standardmäßige Verwendung des V2-Befehls
- [SPARK-35703] [SQL] Einschränkung für Bucket-Join lockern und HashClusteredDistribution entfernen
- [SPARK-37983] [SQL] Agg-Metriken zur Erstellungszeit aus dem Sortieraggregat zurückziehen
- [SPARK-37915] [SQL] Union-Instanzen kombinieren, wenn es ein Projekt zwischen ihnen gibt
- [SPARK-38105] [SQL] Fehlerklassen beim Analysieren von Fehlern bei Joins verwenden
- [SPARK-38073] [PYTHON] Atexit-Funktion aktualisieren, um Probleme mit späterer Bindung zu vermeiden
- [SPARK-37941] [SQL] Fehlerklassen in den Kompilierungsfehlern der Umwandlung verwenden
- [SPARK-37937] [SQL] Fehlerklassen beim Analysieren von Fehlern bei seitlichem Join verwenden
-
[SPARK-38100] [SQL] Nicht verwendete private Methode in
Decimalentfernen - [SPARK-37987] [SS] Unzuverlässiges StreamingAggregationSuite.changing-Testschema von Zustand beim Neustart der Abfrage beheben
- [SPARK-38003] [SQL] LookupFunctions-Regel sollte nur Funktionen aus der Registrierung von Skalarfunktionen suchen
-
[SPARK-38075] [SQL] Fix
hasNextim Prozess-Ausgabe Iterator vonHiveScriptTransformationExec - [SPARK-37965] [SQL] Prüffeldname beim Lesen/Schreiben vorhandener Daten in Orc entfernen
- [SPARK-37922] [SQL] Zu einer Umwandlung kombinieren, wenn wir sicher zwei Umwandlungen nach oben übertragen können (für dbr-branch-10.x)
- [SPARK-37675] [SPARK-37793] Überschreiben von zusammengeführten Push-Shuffle-Dateien verhindern, sobald das Mischen abgeschlossen ist
- [SPARK-38011] [SQL] Doppelte und unnötige Konfiguration in ParquetFileFormat entfernen
-
[SPARK-37929] [SQL] Überlappungsmodus für
dropNamespace-API unterstützen - [SPARK-37931] [SQL] Bei Bedarf den Spaltennamen in Anführungszeichen setzen
- [SPARK-37990] [SQL] TimestampNTZ in RowToColumnConverter unterstützen
-
[SPARK-38001] [SQL] Fehlerklassen im Zusammenhang mit nicht unterstützten Features durch
UNSUPPORTED_FEATUREersetzen -
[SPARK-37839] [SQL] DS V2 unterstützt partiellen Aggregation-Pushdown
AVG - [SPARK-37878] [SQL] Standardmäßig SHOW CREATE TABLE auf den v2-Befehl umstellen
- [SPARK-37731] [SQL] Funktionssuche im Analysator umgestalten und bereinigen
- [SPARK-37979] [SQL] Wechsel zu allgemeineren Fehlerklassen in AES-Funktionen
- [SPARK-37867] [SQL] Aggregatfunktionen des integrierten JDBC-Dialekts kompilieren
- [SPARK-38028] [SQL] Pfeilvektor aus ArrowColumnVector freigeben
- [SPARK-30062] [SQL] IMMEDIATE-Anweisung zur Implementierung von „DB2 dialect truncate“ hinzufügen
-
[SPARK-36649] [SQL]
Trigger.AvailableNowin Kafka-Datenquelle unterstützen - [SPARK-38018] [SQL] ColumnVectorUtils.populate beheben, um CalendarIntervalType ordnungsgemäß zu verarbeiten
-
[SPARK-38023] [CORE]
ExecutorMonitor.onExecutorRemovedsollteExecutorDecommissionals abgeschlossen behandeln -
[SPARK-38019] [CORE]
ExecutorMonitor.timedOutExecutorsals deterministisch festlegen - [SPARK-37957] [SQL] Das deterministische Flag für V2-Skalarfunktionen richtig übergeben
- [SPARK-37985] [SQL] Unzuverlässigen Test für SPARK-37578 beheben
- [SPARK-37986] [SQL] TimestampNTZ in Radix-Sortierung unterstützen
- [SPARK-37967] [SQL] Literal.create-Unterstützung für ObjectType
- [SPARK-37827] [SQL] Einige integrierte Tabelleneigenschaften in V1Table.propertie einfügen, um sie an den V2-Befehl anzupassen
- [SPARK-37963] [SQL] URI der Partition muss nach Umbenennung der Tabelle in InMemoryCatalog aktualisiert werden
- [SPARK-35442] [SQL] Unterstützung der Propagierung einer leeren Relation durch Aggregat/Union
- [SPARK-37933] [SQL] Durchlaufmethode von V2ScanRelationPushDown-Pushdownregeln ändern
- [SPARK-37917] [SQL] Pushdowngrenzwert 1 für rechte Seite von linkem SEMI-/ANTI-Join, wenn die Joinbedingung leer ist
- [SPARK-37959] [ML] UT zur Überprüfung der Norm in KMeans und BiKMeans beheben
- [SPARK-37906] [SQL] spark-sql sollte den letzten Kommentar nicht an Back-End weitergeben
- [SPARK-37627] [SQL] Sortierte Spalte in BucketTransform hinzufügen
Wartungsupdates
Weitere Informationen finden Sie unter Wartungsupdates von Databricks Runtime 10.4 LTS.
Systemumgebung
-
Betriebssystem: Ubuntu 20.04.4 LTS
- Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.2
- Delta Lake: 1.1.0
Installierte Python-Bibliotheken
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (ISO-Rolling) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
| async-generator | 1.10 | attrs | 20.3.0 | backcall | 0.2.0 |
| bidict | 0.21.4 | bleach | 3.3.0 | boto3 | 1.16.7 |
| botocore | 1.19.7 | certifi | 2020.12.5 | cffi | 1.14.5 |
| chardet | 4.0.0 | cycler | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | decorator | 5.0.6 | defusedxml | 0.7.1 |
| distlib | 0.3.4 | distro-info | 0.23ubuntu1 | entrypoints | 0.3 |
| facets-overview | 1.0.0 | filelock | 3.6.0 | idna | 2.10 |
| ipykernel | 5.3.4 | ipython | 7.22.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.6.3 | jedi | 0.17.2 | Jinja2 | 2.11.3 |
| jmespath | 0.10.0 | joblib | 1.0.1 | jsonschema | 3.2.0 |
| jupyter-client | 6.1.12 | jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 | koalas | 1.8.2 |
| MarkupSafe | 2.0.1 | matplotlib | 3.4.2 | mistune | 0.8.4 |
| nbclient | 0.5.3 | nbconvert | 6.0.7 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | notebook | 6.3.0 | numpy | 1.20.1 |
| packaging | 20.9 | pandas | 1.2.4 | pandocfilters | 1.4.3 |
| parso | 0.7.0 | patsy | 0.5.1 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Pillow | 8.2.0 | pip | 21.0.1 |
| plotly | 5.5.0 | prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 |
| protobuf | 3.17.2 | psycopg2 | 2.8.5 | ptyprocess | 0.7.0 |
| pyarrow | 4.0.0 | pycparser | 2.20 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | pyparsing | 2.4.7 | pyrsistent | 0.17.3 |
| python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.1 | python-engineio | 4.3.0 |
| python-socketio | 5.4.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
| requests | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn | 0.24.1 | scipy | 1.6.2 | seaborn | 0.11.1 |
| Send2Trash | 1.5.0 | setuptools | 52.0.0 | six | 1.15.0 |
| ssh-import-id | 5.10 | statsmodels | 0.12.2 | tenacity | 8.0.1 |
| terminado | 0.9.4 | testpath | 0.4.4 | threadpoolctl | 2.1.0 |
| tornado | 6.1 | traitlets | 5.0.5 | unattended-upgrades | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| webencodings | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus dem Microsoft CRAN-Snapshot vom 24.02.2022 installiert. Die Momentaufnahme ist nicht mehr verfügbar.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
| base | 4.1.2 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.2 | boot | 1.3-28 |
| brew | 1.0-7 | brio | 1.1.3 | broom | 0.7.12 |
| bslib | 0.3.1 | cachem | 1.0.6 | callr | 3.7.0 |
| caret | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
| class | 7.3-20 | cli | 3.2.0 | clipr | 0.8.0 |
| cluster | 2.1.2 | codetools | 0.2-18 | colorspace | 2.0-3 |
| commonmark | 1.7 | compiler | 4.1.2 | config | 0.3.1 |
| cpp11 | 0.4.2 | crayon | 1.5.0 | credentials | 1.3.2 |
| curl | 4.3.2 | data.table | 1.14.2 | datasets | 4.1.2 |
| DBI | 1.1.2 | dbplyr | 2.1.1 | desc | 1.4.0 |
| devtools | 2.4.3 | diffobj | 0.3.5 | digest | 0.6.29 |
| dplyr | 1.0.8 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
| ellipsis | 0.3.2 | evaluate | 0.15 | fansi | 1.0.2 |
| farver | 2.1.0 | fastmap | 1.1.0 | fontawesome | 0.2.2 |
| forcats | 0.5.1 | foreach | 1.5.2 | foreign | 0.8-82 |
| forge | 0.2.0 | fs | 1.5.2 | future | 1.24.0 |
| future.apply | 1.8.1 | gargle | 1.2.0 | generics | 0.1.2 |
| gert | 1.5.0 | ggplot2 | 3.3.5 | gh | 1.3.0 |
| gitcreds | 0.1.1 | glmnet | 4.1-3 | globals | 0.14.0 |
| glue | 1.6.1 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
| gower | 1.0.0 | graphics | 4.1.2 | grDevices | 4.1.2 |
| grid | 4.1.2 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtable | 0.3.0 | hardhat | 0.2.0 | haven | 2.4.3 |
| highr | 0.9 | hms | 1.1.1 | htmltools | 0.5.2 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ids | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-12 | isoband | 0.2.5 |
| iterators | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 1.8.0 |
| KernSmooth | 2.23-20 | knitr | 1.37 | labeling | 0.4.2 |
| later | 1.3.0 | lattice | 0.20-45 | lava | 1.6.10 |
| lifecycle | 1.0.1 | listenv | 0.8.0 | lubridate | 1.8.0 |
| magrittr | 2.0.2 | markdown | 1.1 | MASS | 7.3-55 |
| Matrix | 1.4-0 | memoise | 2.0.1 | methods | 4.1.2 |
| mgcv | 1.8-39 | mime | 0.12 | ModelMetrics | 1.2.2.2 |
| modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-155 |
| nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 1.4.6 |
| parallel | 4.1.2 | parallelly | 1.30.0 | pillar | 1.7.0 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgload | 1.2.4 |
| plogr | 0.2.0 | plyr | 1.8.6 | praise | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.5.2 |
| prodlim | 2019.11.13 | progress | 1.2.2 | progressr | 0.10.0 |
| promises | 1.2.0.1 | proto | 1.0.0 | proxy | 0.4-26 |
| ps | 1.6.0 | purrr | 0.3.4 | r2d3 | 0.2.5 |
| R6 | 2.5.1 | randomForest | 4.7-1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-2 | Rcpp | 1.0.8 |
| RcppEigen | 0.3.3.9.1 | readr | 2.1.2 | readxl | 1.3.1 |
| recipes | 0.2.0 | rematch | 1.0.1 | rematch2 | 2.1.2 |
| remotes | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
| rlang | 1.0.1 | rmarkdown | 2.11 | RODBC | 1.3-19 |
| roxygen2 | 7.1.2 | rpart | 4.1.16 | rprojroot | 2.0.2 |
| Rserve | 1.8-10 | RSQLite | 2.2.10 | rstudioapi | 0.13 |
| rversions | 2.1.1 | rvest | 1.0.2 | sass | 0.4.0 |
| scales | 1.1.1 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| shape | 1.4.6 | shiny | 1.7.1 | sourcetools | 0.1.7 |
| sparklyr | 1.7.5 | SparkR | 3.2.0 | spatial | 7.3-11 |
| splines | 4.1.2 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| stats | 4.1.2 | stats4 | 4.1.2 | stringi | 1.7.6 |
| stringr | 1.4.0 | survival | 3.2-13 | sys | 3.4 |
| tcltk | 4.1.2 | TeachingDemos | 2.10 | testthat | 3.1.2 |
| tibble | 3.1.6 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
| tidyverse | 1.3.1 | timeDate | 3043.102 | tinytex | 0.37 |
| tools | 4.1.2 | tzdb | 0.2.0 | usethis | 2.1.5 |
| utf8 | 1.2.2 | utils | 4.1.2 | uuid | 1.0-3 |
| vctrs | 0.3.8 | viridisLite | 0.4.0 | vroom | 1.5.7 |
| waldo | 0.3.1 | whisker | 0.4 | withr | 2.4.3 |
| xfun | 0.29 | xml2 | 1.3.3 | xopen | 1.0.0 |
| xtable | 1.8-4 | yaml | 2.3.5 | zip | 2.2.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-support | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | stream | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | classmate | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.12.3 |
| com.fasterxml.jackson.core | jackson-core | 2.12.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.3 |
| com.github.ben-manes.caffeine | caffeine | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | core | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | guava | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.4.0 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | netty-all | 4.1.68.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collector | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.10 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pyrolite | 4.30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.3 |
| net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | arrow-format | 2.0.0 |
| org.apache.arrow | arrow-memory-core | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | arrow-vector | 2.0.0 |
| org.apache.avro | avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | commons-text | 1.6 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
| org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-incubating |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | ivy | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.12 |
| org.apache.orc | orc-mapreduce | 1.6.12 |
| org.apache.orc | orc-shims | 1.6.12 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-encoding | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | audience-annotations | 0.5.0 |
| org.apache.zookeeper | zookeeper | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-continuation | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-http | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-io | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-plus | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-proxy | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-security | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-server | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlet | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlets | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-webapp | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.43.v20210629 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
| org.glassfish.jersey.core | jersey-client | 2.34 |
| org.glassfish.jersey.core | jersey-common | 2.34 |
| org.glassfish.jersey.core | jersey-server | 2.34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | shims | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | unused | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |