Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 14.2, unterstützt von Apache Spark 3.5.0.
Diese Version wurde von Databricks im November 2023 veröffentlicht.
Neue Features und Verbesserungen
-
CACHE SELECTwird jetzt ignoriert. - Verbessertes Zwischenspeicherungsverhalten
- Behandlung beschädigter Dateien in DML-Befehlen korrigiert
- Unterstützung der Schemaregistrierung für protobuf- und Avro-bezogene Funktionen in freigegebenen Clustern
-
foreachBatch- undStreamingListener-Unterstützung - Parallelität auf Zeilenebene ist allgemein verfügbar und standardmäßig aktiviert
- Delta Sharing: Empfänger können Batch-, CDF- und Streamingabfragen für freigegebene Tabellen mit Löschvektoren ausführen (Public Preview)
- Flacher Klon für externe Unity Catalog-Tabellen (Public Preview)
- Neuer Zuweisungsalgorithmus für die Datenträgerzwischenspeicherung
-
from_avromit Schemaregistrierungsconnector bietet Unterstützung für die Schemaentwicklung - Schnellere Multithread-Statistiksammlung
- Pushdownfilter in DeltaSource für Delta-Dateien
- Unterstützung für skalare benutzerdefinierte Scala-Funktionen in freigegebenen Clustern (Public Preview)
CACHE SELECT wird jetzt ignoriert.
Der SQL-Befehl CACHE SELECT wird nun zugunsten eines verbesserten Cachealgorithmus ignoriert. Siehe Optimieren der Leistung mit Caching in Azure Databricks.
Verbessertes Zwischenspeicherungsverhalten
Die DiskCache-Platzierung durch den Spark Scheduler verfügt jetzt über eine schnellere Partitionszuweisung, einen besseren Ausgleich während der automatischen Cluster-Skalierung und eine konsistentere Abfrageausführung.
Behandlung beschädigter Dateien in DML-Befehlen korrigiert
Die DML-Befehle DELETE, UPDATE und MERGE INTO berücksichtigen nicht mehr die Leseoptionen ignoreCorruptFiles und ignoreMissingFiles. Bei einer nicht lesbaren Datei in einer Tabelle schlagen diese Befehle jetzt fehl, auch wenn diese Optionen angegeben sind.
Unterstützung der Schemaregistrierung für protobuf- und Avro-bezogene Funktionen in freigegebenen Clustern
Sie können jetzt die Python-Funktionen from_avro, to_avro, from_protobuf und to_protobuf mit Schema Registry in freigegebenen Clustern verwenden.
foreachBatch- und StreamingListener-Unterstützung
Sie können jetzt die foreachBatch()- und StreamingListener-APIs mit strukturiertem Streaming in freigegebenen Clustern verwenden. Weitere Informationen finden Sie unter Verwenden von foreachBatch zum Schreiben in beliebige Datensenken und Überwachen von strukturierten Streamingabfragen in Azure Databricks.
Parallelität auf Zeilenebene ist allgemein verfügbar und standardmäßig aktiviert
Parallelität auf Zeilenebene reduziert Konflikte zwischen gleichzeitigen Schreibvorgängen, indem Änderungen auf Zeilenebene erkannt werden. Parallelität auf Zeilenebene wird nur für Tabellen ohne Partitionierung unterstützt, darunter Tabellen mit Liquid Clustering. Die Parallelität auf Zeilenebene ist in Delta-Tabellen mit aktivierten Löschvektoren standardmäßig aktiviert. Weitere Informationen finden Sie unter Schreibkonflikte mit Parallelität auf Zeilenebene.
Delta Sharing: Empfänger können Batch-, CDF- und Streamingabfragen für freigegebene Tabellen mit Löschvektoren ausführen (Public Preview)
Delta Sharing-Empfänger können jetzt Batch-, CDF- und Streamingabfragen für freigegebene Tabellen ausführen, die Löschvektoren verwenden. Auf Databricks Runtime 14.1 können sie nur Batchabfragen ausführen. Weitere Informationen finden Sie unter Hinzufügen von Tabellen mit Löschvektoren oder Spaltenzuordnungen zu einer Freigabe, Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen und Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen.
Flacher Klon für externe Unity Catalog-Tabellen (Public Preview)
Sie können jetzt einen flachen Klon mit externen Unity Catalog-Tabellen verwenden. Weitere Informationen finden Sie unter Flacher Klon für Unity Catalog-Tabellen.
Neuer Zuweisungsalgorithmus für die Datenträgerzwischenspeicherung
Der Spark-Scheduler verwendet jetzt einen neuen Datenträgerzwischenspeicherungsalgorithmus. Der Algorithmus verbessert die Datenträgernutzung und Partitionszuweisung über Knoten hinweg, wobei die Zuweisung sowohl anfänglich als auch nach Clusterskalierungsereignissen schneller erfolgt. Die Stickiercachezuordnung verbessert die Konsistenz bei der Ausführung und reduziert die während der Rebalancing-Operationen verschobenen Daten.
from_avro mit Schemaregistrierungsconnector bietet Unterstützung für die Schemaentwicklung
Sie können ihre Pipelines jetzt so aktivieren, dass sie neu gestartet werden, wenn weiterentwickelte Datensätze erkannt werden. Wenn die Schemaentwicklung zuvor mit dem from_avro-Connector erfolgt ist, gaben die neuen Spalten null zurück. Siehe Lesen und Schreiben von Avro-Streamingdaten.
Schnellere Multithread-Statistiksammlung
Die Collection von Statistiken ist auf kleinen Clustern bis zu 10 Mal schneller, wenn Sie CONVERT TO DELTA oder das Klonen aus Apache Iceberg- und Parquet-Tabellen ausführen. Siehe Konvertieren in Delta Lake und Klonen von Parquet- und Iceberg-Tabellen.
Pushdownfilter in DeltaSource für Delta-Dateien
Für eine bessere Auslastung werden Partitionsfilter für Streamingabfragen von Delta-Tabellen jetzt vor dem Einschränken der Rate nach Delta verschoben.
Unterstützung für skalare benutzerdefinierte Scala-Funktionen in freigegebenen Clustern (Public Preview)
Sie können jetzt skalare benutzerdefinierte Funktionen auf Unity Katalog-fähigen Clustern verwenden, die mit dem Modus für gemeinsam genutzten Zugriff konfiguriert sind. Siehe Benutzerdefinierte Skalarfunktionen: Scala.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- fastjsonschema von 2.18.0 bis 2.19.0
- filelock von 3.12.3 auf 3.12.4
- googleapis-common-protos von 1.60.0 auf 1.61.0
- Aktualisierte R-Bibliotheken:
- Aktualisierte Java-Bibliotheken:
Apache Spark
Databricks Runtime 14.2 enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 14.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-45592] [DBRRM-624] Rückgängigmachen von "[SC-146977][sql] Korrektheitsproblem in AQE mit InMemoryTableScanExec"
- [SPARK-45524] [DBRRM-625] Rückgängig machen „[SC-146319][python][SQL] Erster Support für…"
- [SPARK-45433] [DBRRM-621] Revert „[SC-145163][sql] Fix CSV/JSON Schema-Erkennung...“
- [SPARK-45592] [SC-146977][sql] Problem mit der Korrektheit in AQE mit InMemoryTableScanExec
- [SPARK-45354] Revert "[SC-143991][sql] Funktionen von unten nach oben auflösen"
- [SPARK-45680] [ TEST-ONLY][sasp-2347][CONNECT] Fixtests
- [SPARK-45680] [CONNECT] Releasesitzung
- [SPARK-43380] [SC-146726][es-897115][SQL] Verlangsamung in Avro-Lesevorgang beheben
-
[SPARK-45649] [SC-146742][sql] Das Vorbereitungsframework vereinheitlichen für
OffsetWindowFunctionFrame - [SPARK-40820] [SC-146727][python][SQL] Erstellen von StructType aus JSON
- [SPARK-45620] [SC-146225][python] Korrektur von benutzerseitigen APIs im Zusammenhang mit Python UDTF, sodass diese camelCase verwenden
- [SPARK-45727] [SC-146978][ss] Entfernen einer nicht verwendeten Karte in der Wasserzeichenverteilungssimulation
- [SPARK-45723] [SC-146890][python][CONNECT] Katalogmethoden vermeiden Pandas Konvertierung
- [SPARK-45574] [SC-146106][sql] Fügen Sie die :: Syntax als Abkürzung für das Casting hinzu
-
[SPARK-45670] [SC-146725][core][3.5] SparkSubmit unterstützt
--total-executor-coresnicht bei der Bereitstellung auf K8s - [SPARK-45661] [SC-146594][SQL][PYTHON] Add toNullable in StructType, MapType und ArrayType
- [SPARK-45524] [SC-146319][python][SQL] Erste Unterstützung für python-Datenquellenlese-API
-
[SPARK-45542] [ SC-145892][core] Ersetzen
setSafeMode(HdfsConstants.SafeModeAction, boolean)durchsetSafeMode(SafeModeAction, boolean) - [SPARK-45652] [SC-146641][sql] SPJ: Behandeln leerer Eingabepartitionen nach dynamischer Filterung
- [SPARK-45454] [SC-144846][sql] Legen Sie den Standardbesitzer der Tabelle auf current_user
-
[SPARK-45554] [ SC-146875][python] Einführung flexibler Parameter für
assertSchemaEqual - [SPARK-45242] [SC-143410][sql] Verwenden der DataFrame-ID zum semantischen Überprüfen von CollectMetrics
- [SPARK-45674] [SC-146862][connect][PYTHON] Verbessern der Fehlermeldung für JVM-abhängige Attribute in Spark Connect.
- [SPARK-45646] [SC-146276][sql] Entfernen von hartcodierten Zeitvariablen vor Hive 2.0
- [SPARK-43380] [SC-146726][es-897115][SQL] Verlangsamung in Avro-Lesevorgang beheben
- [SPARK-45545] [SC-146484][core] Übergeben SSLOptions überall, wo wir einen SparkTransportConf erstellen.
- [SPARK-45641] [ SC-146260][ui] Zeigt die Startzeit der Anwendung auf AllJobsPage an.
- [SPARK-40154] [SC-146491][python][Docs] Korrigieren der Speicherebene in "Dataframe.cache docstring"
- [SPARK-45626] [SC-146259][sql] Umwandeln von _LEGACY_ERROR_TEMP_1055 in REQUIRES_SINGLE_PART_NAMESPACE
- [SPARK-45507] [SC-145900][sql] Korrektur der Korrektheit für geschachtelte korrelierte skalare Unterabfragen mit COUNT-Aggregaten
- [SPARK-45619] [SC-146226][connect][PYTHON] Wenden Sie die beobachteten Metriken auf das Beobachtungsobjekt an.
- [SPARK-45588] [SC-145909][protobuf][CONNECT][minor] Scaladoc-Verbesserung für StreamingForeachBatchHelper
- [SPARK-45616] [SC-146120][core] Vermeiden von ParVector, der ThreadLocals oder SparkSession nicht weitergibt.
- [SPARK-45604] [SC-146105][sql] LogicalType-Prüfung bei INT64 hinzufügen -> DateTime-Konvertierung bei Parquet Vectorized Reader
- [SPARK-44649] [SC-145891][sql] Der Laufzeitfilter unterstützt das Übergeben von gleichwertigen Ausdrücken der Erstellungsseite.
- [SPARK-41674] [SC-128408][sql] Der Laufzeitfilter sollte die mehrstufige Shuffle-Join-Seite als Filtererstellungsseite unterstützen.
- [SPARK-45547] [ SC-146228][ml] Überprüfen von Vektoren mit integrierter Funktion
- [SPARK-45558] [SC-145890][ss] Führt eine Metadatendatei für den Streamingstatusoperator ein
- [SPARK-45618] [SC-146252][core] BaseErrorHandler entfernen
- [SPARK-45638] [SC-146251][sql][Avro] Verbessern der Testabdeckung der Dezimalkonvertierung
- [SPARK-44837] [SC-146020][sql] Fehlermeldung "ALTER-Spalte ALTER TABLE ändernPARTITION"
- [SPARK-45561] [SC-146264][sql] Hinzufügen der richtigen Konvertierungen für TINYINT in MySQLDialect
- [SPARK-45632] [SC-146255][sql] Tabellencache sollte beim Aktivieren von AQE unnötige ColumnarToRow vermeiden
- [SPARK-45569] [SC-145932][sql] Weisen Sie dem Fehler _LEGACY_ERROR_TEMP_2152 einen Namen zu
- [SPARK-44784] [SC-141015][connect] Machen Sie SBT-Tests hermetisch.
-
[SPARK-45452] [SC-144836][sql]
InMemoryFileIndexzur Verwendung derFileSystem.listFilesAPI verbessern - [SPARK-44735] [SC-146186][sql] Warnmeldung hinzufügen beim Einfügen von Spalten mit demselben Namen in Zeilen, die nicht übereinstimmen.
-
[SPARK-45351] [SC-144791][core] Ändern des
spark.shuffle.service.db.backendStandardwerts in ROCKSDB -
[SPARK-45553] [ SC-145906][ps] Veraltet
assertPandasOnSparkEqual - [SPARK-45613] [SC-146022][core] DeterministicLevel als DeveloperApi verfügbar machen
-
[SPARK-45549] [SC-145895][Core] Entfernen Sie ungenutzte
numExistingExecutorsinCoarseGrainedSchedulerBackend - [SPARK-45609] [SC-146030][connect] Einbeziehen von SqlState in SparkThrowable-Protonachricht
- [SPARK-45595] [SC-146037] Verfügbarmachen von sqlstate in der Fehlermeldung
-
[SPARK-45628] [SC-146123][ml] Verbesserung
vector_to_arrayfür.mllib.linalg.SparseVector - [SPARK-45009] [SC-145884][SQL][NACHVERFOLGUNG] Deaktivieren der Dekorrelation in Verknüpfungsbedingungen für AQE InSubquery-Test
- [SPARK-45576] [SC-145883][core] Entfernen sie unnötige Debugprotokolle in ReloadingX509TrustManagerSuite
- [SPARK-45485] [SC-145719][connect] Verbesserungen des Benutzer-Agents: Verwenden SPARK_CONNECT_USER_AGENT env-Variable und Einschließen von umgebungsspezifischen Attributen
- [SPARK-45508] [SC-145513][core] Fügen Sie "-add-opens=java.base/jdk.internal.ref=ALL-UNNAMED" hinzu, damit die Plattform auf Cleaner auf Java 9+ zugreifen kann
- [SPARK-45595] Wiederherstellen von „[SC-146037] Verfügbarmachen von SQLSTATE in der Fehlermeldung“
- [SPARK-45595] [SC-146037] Verfügbarmachen von SQLSTATE in der Fehlermeldung
- [SPARK-45112] Rückgängig machen von "[SC-143259][sql] UnresolvedFunction verwenden ba..."
-
[SPARK-45257] [SC-143411][core] Standardmäßig aktivieren
spark.eventLog.compress - [SPARK-45586] [SC-145899][sql] Reduzierung der Compilerlatenz für Pläne mit großen Ausdrucksbäumen
- [SPARK-45517] [ SC-145691][connect][14.x] Erweitern Sie weitere Ausnahmekonstruktoren zur Unterstützung von Fehlerframeworkparametern.
- [SPARK-45581] [SC-145896] SQLSTATE ist erforderlich
- [SPARK-45427] [SC-145590][core] Hinzufügen von RPC-SSL-Einstellungen zu SSLOptions und SparkTransportConf
-
[SPARK-45261] [SC-143357][core] Fix
EventLogFileWritersumnoneals Codec zu behandeln - [SPARK-45582] [SC-145897][ss] Stellen Sie sicher, dass die Speicherinstanz nach dem Aufrufen des Commits innerhalb der Streamingaggregation im Ausgabemodus nicht verwendet wird.
- [SPARK-45562] [SC-145720][sc-144650][SQL] XML: Festlegen von "rowTag" als erforderliche Option
-
[SPARK-45392] [SC-144362][core][SQL][ss] Ersetzen durch
Class.newInstance()Class.getDeclaredConstructor().newInstance() - [SPARK-45433] [SC-145163][sql] Beheben der CSV/JSON-Schemaschlussfolgerung, wenn Zeitstempel nicht dem angegebenen timestampFormat entsprechen
- [SPARK-45458] [SC-145011][sql] IllegalArgumentException in SparkIllegalArgumentException in bitwiseExpressions konvertieren
- [SPARK-45564] [SC-145735][sql] Vereinfachen 'DataFrameStatFunctions.bloomFilter' über den Ausdruck 'BloomFilterAggregate'
- [SPARK-45566] [SC-145777][ps] Unterstützen Sie Pandas-ähnliche Testutils für die Pandas-API auf Spark
- [SPARK-45498] [SC-145509][Kern] Fortsetzung: Aufgabenabschluss aus alter Stufe ignorieren a...
- [SPARK-45483] [SC-145152][connect] Die Funktionsgruppen in "connect.functions" korrigieren.
- [SPARK-45577] [SC-145781][python] Fix UserDefinedPythonTableFunctionAnalyzeRunner, um gefaltete Werte aus benannten Argumenten zu übergeben
- [SPARK-45009] [ SC-138223][Nachverfolgung] Deaktivieren der Entkorrektur in Verknüpfungsbedingungen für AetherSQLQuerySuite
- [SPARK-45415] [SC-145344] Zulassen der selektiven Deaktivierung von „fallocate“ im RocksDB-StateStore
- [SPARK-45500] [SC-145134][core][WEBUI] Zeigt die Anzahl der ungewöhnlich abgeschlossenen Treiber in MasterPage an.
- [SPARK-44120] [ SC-144349][python] Unterstützung für Python 3.12
- [SPARK-45439] [SC-145589][sql][UI] Reduzieren der Speicherauslastung von LiveStageMetrics.accumIdsToMetricType
- [SPARK-45565] [SC-145717][ui] Unnötige JSON.stringify- und JSON.parse-Schleife für die Aufgabenliste im Phasendetail
- [SPARK-45567] [SC-145718][connect] Entfernen eines redundanten if in org.apache.spark.sql.connect.execution.ExecuteGrpcResponseSender#run
- [SPARK-45112] [SC-143259][sql] Verwenden der UnresolvedFunction-basierten Auflösung in SQL-Datasetfunktionen
- [SPARK-45486] [SASP-2457][sc-145612][CONNECT] Machen Sie die Anforderung für add_artifact idempotent
- [SPARK-44913] [SC-144326][sql] DS V2 unterstützt Pushdown V2 UDF mit magischer Methode
- [SPARK-45538] [SC-145635][python][CONNECT]pyspark connect overwrite_partitions Fehler
- [SPARK-45491] [SC-145622] Hinzufügen fehlender SQLSTATES 2/2
- [SPARK-45009] [SC-145620][sc-138223][SQL] Prädikats-Unterabfragen in Verknüpfungsbedingung dekorrelieren
- [SPARK-45377] [ SC-144377][core] Behandeln von InputStream in NettyLogger
- [SPARK-45248] [SC-143759][core]Festlegen des Timeouts für spark ui-Server
- [SPARK-44594] [SC-145611][ss] Entfernen des redundanten Methodenparameters in kafka connector
- [SPARK-45539] [SC-145621][ss] Hinzufügen von Assert und Protokoll zum Angeben der Wasserzeichendefinition ist für Streamingaggregationsabfragen im Anfügemodus erforderlich.
-
[SPARK-44262] [SC-145639][sql] Hinzufügen von
dropTableundgetInsertStatementzu JdbcDialect - [SPARK-45516] [SC-145480][connect] QueryContext in SparkThrowable-Proto-Nachricht einbeziehen
- [SPARK-45310] [SC-145127][Core] Der Bericht über den Shuffleblock-Status sollte den Shuffle-Dienst während der Außerbetriebnahmemigration berücksichtigen.
-
[SPARK-45521] [SC-145487][ml] Vermeiden der Neuberechnung von nnz in
VectorAssembler - [SPARK-45418] [SC-145485][sql][PYTHON][connect] Ändern sie current_database() Spaltenalias in current_schema()
-
[SPARK-45116] [SC-145142][sql] Fügen Sie einen Kommentar für Parameter von JdbcDialect hinzu.
createTable - [SPARK-45495] [SC-145529][core] Unterstützung für Aufgabenressourcenprofil auf Phasenebene für k8s-Cluster, wenn die dynamische Zuordnung deaktiviert ist
- [SPARK-45487] [SC-145559] Beheben von SQLSTATE- und temp-Fehlern
- [SPARK-45505] [ SC-145550][python] Refactor analyzeInPython, um es wiederverwendbar zu machen
- [SPARK-45132] [SC-145425][sql] Fix IDENTIFIER für Funktionsaufruf
- [SPARK-45213] [SC-145020][sql] Einen Namen dem Fehler _LEGACY_ERROR_TEMP_2151 zuweisen.
- [SPARK-45416] [ SC-145126][connect] Konsistenzüberprüfung der Pfeilergebnisse
- [SPARK-45163] [SC-143386][sql] Zusammenführung UNSUPPORTED_VIEW_OPERATION und UNSUPPORTED_TABLE_OPERATION und einige Probleme beheben
- [SPARK-45421] [SC-144814][sql] Erfasse AnalysisException über InlineCTE
-
[SPARK-43664] [SC-145404][connect][PS] Auslösen einer Ausnahme für
ps.sqldas Pandas-on-Spark-Objekt in Spark Connect. - [SPARK-45402] [SC-145371][sql][PYTHON] Fügen Sie UDTF-API für "eval"- und "terminate"-Methoden hinzu, um vorheriges "Analyseergebnis" zu nutzen.
- [SPARK-36112] [SC-67885][SQL] Unterstützung korrelierter EXISTS- und IN-Unterabfragen mithilfe des Frameworks „DecorrelateInnerQuery“
- [SPARK-45383] [SC-144929][sql] Behebt die Fehlermeldung für Zeitreisen mit einer nicht vorhandenen Tabelle
- [SPARK-43254] [SC-143318][sql] Weisen Sie dem Fehler einen Namen zu_LEGACY_ERROR_TEMP_2018
- [SPARK-45204] [SC-145167][connect] Hinzufügen optionaler ExecuteHolder zu SparkConnectPlanner
- [SPARK-45451] [SC-145144][sql] Konfigurieren der Standardspeicherebene des Datasetcaches
- [SPARK-45192] [SC-143194][ui] Überfälligen lineInterpolate-Parameter für graphviz-Kante beheben
-
[SPARK-45467] [ SC-145146][kern] Ersetzen
Proxy.getProxyClass()durchProxy.newProxyInstance().getClass - [SPARK-45397] [SC-145139][ml][CONNECT] Array Assembler-Featuretransformator hinzufügen
- [SPARK-44855] [SC-145226][connect] Kleine Optimierungen zum Anfügen von ExecuteGrpcResponseSender an ExecuteResponseObserver
-
[SPARK-45398] [SC-144796][sql] Anfügen
ESCAPEinsql()desLikeAusdrucks - [SPARK-45494] [SC-145129][Core][PYTHON] Einführen vonUtil-Funktionen zum Lesen/Schreiben eines Bytearrays für PythonWorkerUtils
- [SPARK-45464] [SC-145125][core] Verteilungserstellung für Netzwerk-Yarn beheben
- [SPARK-45461] [SC-144851][core][SQL][mllib] Einführung eines Mappers für StorageLevel
- [SPARK-45450] [SC-145009][python] Korrigieren Sie Importe gemäß PEP8: pyspark.pandas und pyspark (Core)
- [SPARK-45475] [SC-145018][sql] Verwendet DataFrame.foreachPartition anstelle von RDD.foreachPartition in JdbcUtils
- [SPARK-45271] [SC-143778][sql] Zusammenführen _LEGACY_ERROR_TEMP_1113 in TABLE_OPERATION und Löschen einiger nicht verwendeter Methode in QueryCompilationErrors
- [SPARK-45449] [SC-145013][sql] Problem mit der Cache-Ungültigkeit bei JDBC-Tabellen
- [SPARK-45473] [SC-145017][sql] Fehlermeldung für RoundBase beheben
- [SPARK-43299] [SC-145022][ss][CONNECT] StreamingQueryException in Scala Client konvertieren
- [SPARK-45474] [SC-145014][core][WEBUI] Unterstützen der Filterung auf oberster Ebene in der MasterPage-JSON-API
- [SPARK-45205] [SC-145012][sql] CommandResultExec zum Überschreiben von Iteratormethoden, um das Auslösen mehrerer Aufträge zu vermeiden.
- [SPARK-45472] [SC-145004][ss] RocksDB State Store Muss das Vorhandensein des Prüfpunktpfads nicht erneut überprüfen
- [SPARK-45470] [SC-145010][sql] Vermeiden des Einfügens des Zeichenfolgenwerts der Hive-ORC-Komprimierungsart
- [SPARK-45448] [SC-144829][python] Korrigieren Sie Importe nach PEP8: pyspark.testing, pyspark.mllib, pyspark.resource und pyspark.streaming
- [SPARK-45446] [ SC-144828][python] Korrigieren Sie Importe gemäß PEP8: pyspark.errors und pyspark.ml
- [SPARK-45239] [SC-144832][connect] Reduzieren Sie die Standardgröße von spark.connect.jvmStacktrace.maxSize
- [SPARK-45436] [ SC-144831][python][CONNECT] DataFrame-Methoden überprüfen dieselbe Sitzung
- [SPARK-45413] [ SC-144847][Core] Hinzufügen einer Warnung für die Vorbereitung der LevelDB-Unterstützung
-
[SPARK-45462] [ SC-144848][core][WEBUI] Show
DurationinApplicationPage - [SPARK-44527] [SC-144855][sql] Ersetzen Sie ScalarSubquery durch NULL, wenn die maxRows 0 ist.
-
[SPARK-45401] [SC-144854][python] Hinzufügen einer neuen Methode
cleanupin der UDTF-Schnittstelle -
[SPARK-43704] [SC-144849][connect][PS] Support
MultiIndexfürto_series() - [SPARK-45424] [SC-144888][sql] Fix TimestampFormatter gibt optionale Analyseergebnisse zurück, wenn nur eine Präfix-Übereinstimmung vorliegt
- [SPARK-45441] [ SC-144833][python] Einführen von mehrutil-Funktionen für PythonWorkerUtils
-
[SPARK-45412] [SC-144803][python][CONNECT] den Plan und die Sitzung validieren in
DataFrame.__init__ - [SPARK-45408] [SC-144810][core] Hinzufügen von RPC-SSL-Einstellungen zu TransportConf
-
[SPARK-45432] [SC-144818][core] Entfernen veralteter Hadoop-2-Konstruktor
LocatedFileStatus - [SPARK-45434] [ SC-144819][ml][CONNECT] LogisticRegression überprüft die Trainingslabels
- [SPARK-45420] [SC-144808][sql][PYTHON][connect] Add DataType.fromDDL into PySpark
-
[SPARK-45406] [SC-144793][python][CONNECT] Aus DataFrame-Konstruktor löschen
schema -
[SPARK-45404] [SC-144799][Kern] Unterstützung der Umgebungsvariable
AWS_ENDPOINT_URL - [SPARK-43620] [SC-144792][connect][PS] Fix Pandas-APIs hängt von nicht unterstützten Features ab
- [SPARK-45354] [SC-143991][sql] Auflösen von Funktionen von unten nach oben
- [SPARK-45394] [SASP-1480][sc-144712][PYTHON][connect] Fügen Sie Wiederholungsversuche für die Artefakt-API hinzu. Verbessern der Fehlerbehandlung (Nachverfolgung zu [SPARK-45093]).
- [SPARK-45120] [SC-142780][spark-45150][UI] Upgrade d3 von v3 auf v7(v7.8.5) und Anwenden von API-Änderungen auf der Benutzeroberfläche
- [SPARK-44838] [ SC-143983][sql] raise_error Verbesserung
- [SPARK-45312] [SC-143754][sql][UI] Unterstützung für das Umschalten der Anzeige/Ausblendung des Plans-SVG auf der Ausführungsseite
- [SPARK-45378] [SC-144448][core] Hinzufügen von convertToNettyForSsl zu ManagedBuffer
- [SPARK-44762] [SC-144338][connect][CORE] Dokumentation für SparkConnect.addJobTag und Connect SparkSession.addTag
- [SPARK-45383] Behandeln Sie nicht aufgelöste RelationTimeTravel ordnungsgemäß
- [SPARK-45347] [SC-144512][sql][CONNECT] Einschließen von SparkThrowable in FetchErrorDetailsResponse
- [SPARK-45012] [SC-141512][sql] CheckAnalysis sollte einen in den AnalysisException eingebetteten Plan auslösen
-
[SPARK-45359] [SC-144336][python][CONNECT]
DataFrame.{columns, colRegex, explain}sollte Ausnahmen auslösen, wenn der Plan ungültig ist. - [SPARK-45227] [SC-144233][core] Behebung eines subtilen Threadsicherheitsproblems im CoarseGrainedExecutorBackend
- [SPARK-45266] [SC-144171][python] Überarbeiten Sie die Regel des ResolveFunctions-Analyysators, um die Erstellung von seitlichen Joins zu verzögern, wenn Tabellenargumente verwendet werden.
- [SPARK-45266] Wiederherstellen der "[SC-144171][python] Umstrukturierung der Auflösungsfunktionen-Analyse-Regel, um die Erstellung eines lateralen Joins zu verzögern, wenn Tabellenargumente verwendet werden"
- [SPARK-45371] [SC-144389][connect] Beheben von Schattierungsproblemen im Spark Connect Scala Client
- [SPARK-45057] [SC-144214][core] Vermeiden der Lesesperre, wenn keepReadLock falsch ist
-
[SPARK-45385] [SC-144357][sql] Abkündigen
spark.sql.parser.escapedStringLiterals -
[SPARK-45340] [SC-143917][sql] Entfernen der SQL-Konfiguration
spark.sql.hive.verifyPartitionPath - [SPARK-45266] [SC-144171][python] Überarbeiten Sie die Regel des ResolveFunctions-Analyysators, um die Erstellung von seitlichen Joins zu verzögern, wenn Tabellenargumente verwendet werden.
- [SPARK-45362] [SC-144198][python] Blenden Sie PARTITION BY-Ausdrücke aus, bevor die Python UDTF "eval"-Methode sie verwendet
- [SPARK-45346] [ SC-143925][sql] Parquet-Schemainferenz sollte beim Zusammenführen von Schemata die Beachtung der Groß- und Kleinschreibung berücksichtigen.
-
[SPARK-45341] [SC-143933][core] Korrigieren Sie die Titelebene in den Kommentaren von KVStore.java, um erfolgreich mit Java 17 ausgeführt zu werden
sbt doc - [SPARK-45334] [SC-143914][sql] Entfernen irreführenden Kommentars im parquetSchemaConverter
-
[SPARK-45337] [ SC-143932][core] Refaktorieren
AbstractCommandBuilder#getScalaVersionum die Prüfung auf Scala 2.12 zu entfernen - [SPARK-45329] [SC-143918][python][CONNECT] Die DataFrame-Methoden überspringen die Pandas-Konvertierung
- [SPARK-43662] [SC-143923][ps][CONNECT] Unterstützung für merge_asof in Spark Connect
- [SPARK-44126] [SC-143751][Kern] Die Anzahl der Shuffle-Migrationsfehler sollte nicht erhöht werden, wenn der Ziel-Executor außer Betrieb genommen wird.
-
[SPARK-44550] [ SC-119768][sql] Aktivieren von Korrekturen für die Genauigkeit im Rahmen von
null IN (empty list)ANSI -
[SPARK-45316] [SC-143783][core][SQL] Fügen Sie neuen Parameter
ignoreCorruptFiles/ignoreMissingFileshinzu undHadoopRDDNewHadoopRDD - [SPARK-45093] [SC-143414][connect][PYTHON] Fehlerberichterstattung für addArtifacts-Abfrage
- [SPARK-44756] [SC-143787][core] Executor hängt, wenn RetryingBlockTransferor den Wiederholungsversuch nicht initiiert.
- [SPARK-45333] [SC-143768][Core] Beheben eines Fehlers bei einer Einheit im Zusammenhang mit spark.eventLog.buffer.kb
- [SPARK-45317] [SC-143750][sql][CONNECT] Behandeln von NULL-Dateinamen in Stapelablaufverfolgungen von Ausnahmen
- [SPARK-45191] [SC-143407][sql] InMemoryTableScanExec simpleStringWithNodeId fügt Spalteninformationen hinzu
-
[SPARK-45235] [SC-143314][connect][PYTHON] Map- und Array-Parameter unterstützen durch
sql() - [SPARK-45138] [SC-143309][ss] Definieren Sie eine neue Fehlerklasse, und wenden Sie sie an, wenn das Checkpointing des Zustands zu DFS fehlschlägt.
- [SPARK-45297] [SC-143644][sql] Umgehungslösung für den Datumsformatierer entfernen, die in SPARK-31827 hinzugefügt wurde
- [SPARK-44345] [SC-143593][core] Protokollebene auf WARN reduzieren, wenn die Shuffle-Migration aktiviert ist
- [SPARK-44463] [ SC-143251][ss][CONNECT] Verbessern der Fehlerbehandlung für Connect steaming Python Worker
- [SPARK-45207] [SC-143603][sql][CONNECT] Implementieren der Fehleranreicherung für Scala-Client
- [SPARK-45240] [SC-143602][sql][CONNECT] Implementieren der Fehleranreicherung für Python-Client
- [SPARK-45216] [SC-143288][sql] Das Beheben von nicht deterministischen Seeded-Dataset-APIs
- [SPARK-45251] [SC-143419][connect] Hinzufügen client_type Feld für FetchErrorDetails
-
[SPARK-45137] [SC-143001][connect] Unterstützen von Zuordnungs-/Arrayparametern in parametrisierter Weise
sql() -
[SPARK-45224] [ SC-143257][python] Fügen Sie Beispiele mit Map und Array als Parameter von hinzu.
sql() - [SPARK-44622] [SC-143205][sql][CONNECT] Implementieren von FetchErrorDetails RPC
- [SPARK-45178] [SC-136089] Fallback zum Ausführen eines einzelnen Batches für Trigger.AvailableNow mit nicht unterstützte Quellen anstelle von Wrappern
- [SPARK-44823] [14.x][sc-142979][PYTHON] Aktualisieren Sie Black auf 23.9.1 und beheben Sie die fehlerhafte Prüfung
-
[SPARK-45078] [SC-142954][sql] Fix
array_insertImplicitCastInputTypes funktioniert nicht - [SPARK-44579] [SC-138428][sql] Unterstützung Abbrechen bei Unterbrechung in SQLExecution
-
[SPARK-45252] [SC-143371][core] Die Größer/Kleiner-als-Symbole in den Kommentaren escapen, damit
sbt docerfolgreich ausgeführt wird. - [SPARK-45189] [SC-142973][sql] Das Erstellen von "UnresolvedRelation" aus "TableIdentifier" sollte das Katalogfeld enthalten.
- [SPARK-45229] [SC-143254][Core][UI] Zeigt die Anzahl der Driver an, die im übermittelten Status in MasterPage warten
-
[SPARK-43453] Rückgängig machen von “[SC-143135][ps] Ignorieren des
namesvonMultiIndexwennaxis=1fürconcat”
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Siehe Databricks Runtime 14.2 Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Skala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.0.5 | Attrs | 22.1.0 | Backcall | 0.2.0 |
| beautifulsoup4 | 4.11.1 | schwarz | 22.6.0 | Bleichmittel | 4.1.0 |
| Blinker | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.96 |
| Zertifizieren | 2022.12.7 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Charset-Normalizer | 2.0.4 | Klicken | 8.0.4 | Kommunikation | 0.1.2 |
| Contourpy | 1.0.5 | Kryptographie | 39.0.1 | Fahrradfahrer | 0.11.0 |
| Cython | 0.29.32 | Databricks-SDK | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | Dekorateur | 5.1.1 | defusedxml | 0.7.1 |
| Distlib | 0.3.7 | Docstring zu Markdown | 0,11 | Einstiegspunkte | 0,4 |
| ausführen | 0.8.3 | Übersicht der Facetten | 1.1.1 | fastjsonschema | 2.19.0 |
| Dateisperrung | 3.12.4 | fonttools | 4.25.0 | googleapis-common-protos | 1.61.0 |
| GRPCIO | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
| ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 3.1.2 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
| Jupyter-Client | 7.3.4 | Jupyter-Server | 1.23.4 | jupyter_core | 5.2.0 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | Schlüsselring | 23.5.0 |
| kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
| matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| verstimmen | 0.8.4 | more-itertools | 8.10.0 | mypy-Erweiterungen | 0.4.3 |
| nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
| nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
| Notebook | 6.5.2 | Notebook-Shim | 0.2.2 | numpy | 1.23.5 |
| oauthlib | 3.2.0 | Packen | 22.0 | Pandas | 1.5.3 |
| Pandocfilter | 1.5.0 | Parso | 0.8.3 | Pfadangabe | 0.10.3 |
| Sündenbock | 0.5.3 | pexpect | 4.8.0 | Pickleshare | 0.7.5 |
| Kissen | 9.4.0 | pip | 22.3.1 | platformdirs | 2.5.2 |
| Handlung | 5.9.0 | plugin-fähig | 1.0.0 | prometheus-client | 0.14.1 |
| Prompt-Toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | Pyarrow-Hotfix | 0,4 | Pycparser | 2.21 |
| Pydantisch | 1.10.6 | Pyflakes | 3.1.0 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | Pyright | 1.1.294 | Pyristent | 0.18.0 |
| Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | Python-LSP-Server | 1.8.0 |
| pytoolconfig | 1.2.5 | Pytz | 2022.7 | pyzmq | 23.2.0 |
| Anforderungen | 2.28.1 | Seil | 1.7.0 | s3transfer | 0.6.2 |
| scikit-lernen | 1.1.1 | SciPy | 1.10.0 | Seegeboren | 0.12.2 |
| SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
| sechs | 1.16.0 | sniffio | 1.2.0 | Sieb für Suppe | 2.3.2.post1 |
| ssh-import-id | 5.11 | Stapeldaten | 0.2.0 | StatistikModelle | 0.13.5 |
| Hartnäckigkeit | 8.1.0 | terminado | 0.17.1 | threadpoolctl | 2.2.0 |
| tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| Tornado | 6.1 | Traitlets | 5.7.1 | typing_extensions | 4.4.0 |
| ujson | 5.4.0 | unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.26.14 |
| virtualenv | 20.16.7 | Wadllib | 1.3.6 | wcwidth | 0.2.5 |
| Webkodierungen | 0.5.1 | WebSocket-Client | 0.58.0 | Was ist neu im Patch | 1.0.2 |
| Rad | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
| ZIPP | 1.0.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2023-02-10 installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 12.0.1 | Askpass | 1.1 | prüfen, dass | 0.2.1 |
| Backports | 1.4.1 | Basis | 4.3.1 | base64enc | 0.1-3 |
| Bit | 4.0.5 | Bit64 | 4.0.5 | Blob | 1.2.4 |
| Boot | 1.3-28 | brauen | 1,0 - 8 | Brio | 1.1.3 |
| Besen | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
| Callr | 3.7.3 | Caret | 6.0-94 | CellRanger | 1.1.0 |
| Chron | 2.3-61 | Klasse | 7.3-22 | cli | 3.6.1 |
| Schermaschine | 0.8.0 | Uhr | 0.7.0 | Gruppe | 2.1.4 |
| Codetools | 0.2-19 | Farbraum | 2.1-0 | Commonmark | 1.9.0 |
| Kompilierer | 4.3.1 | Konfiguration | 0.3.1 | im Zwiespalt | 1.2.0 |
| cpp11 | 0.4.4 | Buntstift | 1.5.2 | Anmeldeinformationen | 1.3.2 |
| curl | 5.0.1 | data.table | 1.14.8 | Datensätze | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Beschreibung | 1.4.2 |
| devtools | 2.4.5 | Diagramm | 1.6.5 | diffobj | 0.3.5 |
| verdauen | 0.6.33 | Nach unten gerichtete Beleuchtung | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | Ellipse | 0.3.2 |
| Evaluieren | 0,21 | Fans | 1.0.4 | Farben | 2.1.1 |
| fastmap | 1.1.1 | fontawesome | 0.5.1 | Sträflinge | 1.0.0 |
| foreach | 1.5.2 | Fremd | 0.8-82 | schmieden | 0.2.0 |
| fs | 1.6.2 | Zukunft | 1.33.0 | future.apply | 1.11.0 |
| gurgeln | 1.5.1 | Generika | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | Globale Werte | 0.16.2 | Klebstoff | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Grafiken | 4.3.1 | grGeräte | 4.3.1 | Raster | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | g-Tabelle | 0.3.3 |
| Schutzhelm | 1.3.0 | Hafen | 2.5.3 | Highr | 0,10 |
| HMS | 1.1.3 | HTML-Werkzeuge | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Ausweise | 1.0.1 | ini | 0.3.1 | IPRED | 0.9-14 |
| Isobande | 0.2.7 | Iteratoren | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | Knitr | 1,43 |
| Etikettierung | 0.4.2 | später | 1.3.1 | Gitter | 0.21-8 |
| Lava | 1.7.2.1 | Lebenszyklus | 1.0.3 | „listenv“ | 0.9.0 |
| Schmiermittel | 1.9.2 | magrittr | 2.0.3 | Abschlag | 1.7 |
| MASSE | 7.3-60 | Matrix | 1.5-4.1 | Zwischenspeichern | 2.0.1 |
| Methoden | 4.3.1 | mgcv | 1.8-42 | Mime-Kunst | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-162 | NNET | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.0.6 | parallel | 4.3.1 |
| parallel dazu | 1.36.0 | Säule | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| PLOGR | 0.2.0 | plyr | 1.8.8 | loben | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.4 | Prozessx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | Fortschritt | 1.2.2 |
| progressr | 0.13.0 | Versprechungen | 1.2.0.1 | Prototyp | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.7.5 | schnurren | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | Ragg | 1.2.5 |
| randomForest (Zufälliger Wald) | 4.7-1.1 | Rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrauer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| READR | 2.1.4 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.3 | Rezepte | 1.0.6 |
| Rückspiel | 1.0.1 | Rückspiel2 | 2.1.2 | fernbedienungen | 2.4.2 |
| reproduzierbares Beispiel | 2.0.2 | Umform2 | 1.4.4 | rlang | 1.1.1 |
| RMarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| RVEST | 1.0.3 | Sass | 0.4.6 | Waage | 1.2.1 |
| selectr | 0.4-2 | Sitzungsinformationen | 1.2.2 | Gestalt | 1.4.6 |
| glänzend | 1.7.4.1 | sourcetools | 0.1.7-1 | Sparklyr | 1.8.1 |
| räumlich | 7.3-15 | Splines | 4.3.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiken | 4.3.1 | Statistiken4 | 4.3.1 |
| Stringi | 1.7.12 | stringr | 1.5.0 | Überleben | 3.5-5 |
| sys | 3.4.2 | systemfonts | 1.0.4 | TCLTK | 4.3.1 |
| testthat | 3.1.10 | Textgestaltung | 0.3.6 | Tibble | 3.2.1 |
| tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
| Zeitumstellung | 0.2.0 | timeDatum | 4022.108 | tinytex | 0.45 |
| Tools | 4.3.1 | Zeitzonendatenbank (tzdb) | 0.4.0 | URL-Prüfer | 1.0.1 |
| Nutze dies | 2.2.2 | utf8 | 1.2.3 | Dienstprogramme und Funktionen | 4.3.1 |
| Universelle eindeutige Kennung (UUID) | 1.1-0 | VCTRS | 0.6.3 | viridisLite | 0.4.2 |
| Vroom | 1.6.3 | Waldo | 0.5.1 | Backenbart | 0.4.1 |
| Withr | 2.5.0 | xfun | 0.39 | xml2 | 1.3.5 |
| xopen | 1.0.0 | xtable | 1.8-4 | YAML-Dateiformat | 2.3.7 |
| schwirren | 2.3.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-schattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.coffein | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | Profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,25 |
| io.delta | delta-sharing-client_2.12 | 1.0.2 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 4.2.19 |
| io.dropwizard.metrics | Metrics-Graphit | 4.2.19 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 4.2.19 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | Netty-Buffer | 4.1.96.Final |
| io.netty | Netty Codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | Netty-Codec-Socken | 4.1.96.Final |
| io.netty | Netty-common | 4.1.96.Final |
| io.netty | Netty-Handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | Netty-Resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-Klassen | 2.0.61.Final |
| io.netty | Netty-Transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammlung | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | Ant-Launcher | 1.9.16 |
| org.apache.arrow | Pfeilformat | 12.0.1 |
| org.apache.arrow | Pfeilspeicherkern | 12.0.1 |
| org.apache.arrow | Arrow-Memory-Netty | 12.0.1 |
| org.apache.arrow | Pfeil-Vektor | 12.0.1 |
| org.apache.avro | avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | Kurator-Framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-Client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-speicher-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-Anpassungen-Common | 2.3.9 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Efeu | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
| org.apache.orc | Orc-Shims | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.3 |
| org.checkerframework | Prüferqualifikation | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | Jersey-Client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | Jersey-Server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.7.Endgültig |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Klemmstücke | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | Katzen-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |