Freigeben über


Databricks Runtime 11.3 LTS (EoS)

Hinweis

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Das Support-Enddatum finden Sie in der Supporthistorie. Eine Übersicht aller unterstützten Databricks Runtime-Versionen finden Sie unter Versionshinweise und Kompatibilität von Databricks Runtime.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 11.3 LTS, unterstützt von Apache Spark 3.3.0. Databricks hat diese Version im Oktober 2022 veröffentlicht.

Hinweis

LTS bedeutet, dass diese Version langfristig unterstützt wird. Siehe Databricks Runtime LTS-Versionslebenszyklus.

Verhaltensänderungen

[Bahnbrechende Änderung] Für die neue Python-Version ist das Aktualisieren von Databricks Connect V1 Python-Clients erforderlich.

Hinweis

Ein nachfolgendes Update verschiebt die Python-Version in Databricks Runtime 11.3 LTS auf 3.9.21. Die Version 3.9.21 führt keine Verhaltensänderungen ein.

Um erforderliche Sicherheitspatches anzuwenden, wird die Python-Version in Databricks Runtime 11.3 LTS von 3.9.5 auf 3.9.19 aktualisiert. Da diese Änderungen möglicherweise Fehler in Clients verursachen, die bestimmte PySpark-Funktionen verwenden, müssen alle Clients, die Databricks Connect V1 für Python mit Databricks Runtime 11.3 LTS verwenden, auf Python 3.9.7 oder höher aktualisiert werden.

Neue Features und Verbesserungen

Python hat von 3.9.19 auf 3.9.21 aktualisiert

Die Python-Version in Databricks Runtime 11.3 LTS wird von 3.9.19 auf 3.9.21 aktualisiert.

Der "Trigger Once" für strukturiertes Streaming ist als veraltet markiert.

Die Trigger.Once Einstellung ist veraltet. Databricks empfiehlt die Nutzung von Trigger.AvailableNow. Weitere Informationen finden Sie unter Konfigurieren von Triggerintervallen für strukturiertes Streaming.

Ändern des Quellpfads für das automatische Laden

Sie können jetzt den Verzeichniseingabepfad für das automatische Ladeprogramm ändern, das mit dem Verzeichnislistenmodus konfiguriert ist, ohne ein neues Prüfpunktverzeichnis auswählen zu müssen. Weitere Informationen finden Sie unter Ändern des Quellpfads für das automatische Laden.

Databricks Kinesis Connector unterstützt jetzt das Lesen von Kinesis-Datenströmen im EFO-Modus.

Sie können jetzt die Databricks Kinesis strukturierte Streaming-Quelle in Databricks Runtime 11.3 LTS verwenden, um Abfragen zu erstellen, die von Kinesis-Datenstreams im erweiterten Fanout-Modus gelesen werden. Dies ermöglicht den dedizierten Durchsatz pro Shard, pro Consumer und Datensatzübermittlung im Pushmodus.

Neue H3-Geospatialfunktionen und hinzugefügte Photon-Unterstützung für alle H3-Funktionen

Einführung in 4 neue H3-Funktionen, h3_maxchild, , h3_minchild, h3_pointash3und h3_pointash3string. Diese Funktionen sind in SQL, Scala und Python verfügbar. Alle H3-Ausdrücke werden jetzt in Photon unterstützt. Siehe H3-Geospatialfunktionen.

Neue Funktionen für Predictive I/O

Photon unterstützt den Bereichsmodus für die Ausführung von Frames mithilfe von RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Photon unterstützt auch den Bereichsmodus für wachsende Frames mithilfe von RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

Erhöhen der anfänglichen Partitionen zum Abtasten gezielter Abfragen

Der Wert der anfänglichen Partitionen, die gescannt werden sollen, wurde für selektive Abfragen mit take/tail/limit in Photon-fähigen Clustern und LIMIT in Databricks SQL auf 10 erhöht. Mit 10 Partitionen können Sie den Aufwand des Startens mehrerer kleiner Aufträge und einer langsamen Skalierung vermeiden. Sie können dies auch über spark.sql.limit.selectiveInitialNumPartitions.

Visualisierung neuer AQE-Planversionen

Einführung von AQE-Planversionen, mit denen Sie Ihre Laufzeitplan-Updates aus der adaptiven Abfrageausführung (AQE) visualisieren können.

Neue asynchrone Statusverfolgungs- und Protokollbereinigungsmodi

Einführung in strukturierte Streamingmodi, die als asynchrone Statusnachverfolgung und asynchrones Löschen von Protokollen bezeichnet werden. Der asynchrone Protokolllöschmodus verringert die Latenz von Streamingabfragen, indem Protokolle entfernt werden, die für die Statusnachverfolgung im Hintergrund verwendet werden.

Strukturiertes Streaming im Unity-Katalog unterstützt jetzt display()

Sie können jetzt verwenden display() , wenn Sie strukturiertes Streaming verwenden, um mit Tabellen zu arbeiten, die im Unity-Katalog registriert sind.

Pipelineereignisse werden jetzt im JSON-Format protokolliert.

Azure Databricks schreibt nun Pipeline-Ereignisse in das Treiberprotokoll im JSON-Format. Obwohl jedes Ereignis JSON-analysefähig ist, enthalten große Ereignisse möglicherweise nicht alle Felder, oder die Felder werden abgeschnitten. Jedes Ereignis wird in einer einzelnen Zeile mit dem Präfix Event received: protokolliert. Im Folgenden sehen Sie ein Beispielereignis.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Beliebige zustandsbehaftete Verarbeitung im strukturierten Streaming mit Python

Einführung der applyInPandasWithState Funktion, die verwendet werden kann, um eine beliebige zustandsbehaftete Verarbeitung in PySpark durchzuführen. Dies entspricht der flatMapGroupsWithState Funktion in der Java-API.

Datumsreferenz in CSV-Dateien

Einführung einer verbesserten Ableitung von Datumstypspalten in CSV-Dateien. Wenn das Datumsformat für die Datensätze für eine Spalte konsistent ist, können diese Spalten als DateTypeabgeleitet werden. Sie können auch eine Kombination aus Datumsformaten über verschiedene Spalten hinweg haben. Azure Databricks kann das Datumsformat für jede Spalte automatisch ableiten. Datumsspalten in CSV-Dateien vor Databricks Runtime 11.3 LTS bleiben erhalten als StringType.

Klonunterstützung für Apache-Parkett- und Apache Iceberg-Tische (Public Preview)

Clone kann jetzt verwendet werden, um Delta-Tabellen zu erstellen und inkrementell zu aktualisieren, die Apache Parquet- und Apache Iceberg-Tabellen spiegeln. Sie können ihre Quell-Parketttabelle aktualisieren und die Änderungen mit dem Klonbefehl inkrementell auf die geklonte Delta-Tabelle anwenden. Siehe Inkrementelles Klonen von Parquet- und Apache Iceberg-Tabellen auf Delta Lake.

Verwenden von SQL zum Angeben von Speicherorten auf Schema- und Katalogebene für verwaltete Tabellen im Unity-Katalog

Sie können nun den MANAGED LOCATION SQL-Befehl verwenden, um einen Cloudspeicherort für verwaltete Tabellen auf Katalog- und Schemaebene anzugeben. Siehe CREATE CATALOG und CREATE SCHEMA.

Verhaltensänderungen

Databricks Connect 11.3.2

Databricks Connect-Clientupdate 11.3.2 wird jetzt unterstützt. Siehe Databricks Connect und Versionshinweise zu Databricks Connect.

Azure Databricks Snowflake Connector aktualisiert

Der Azure Databricks Snowflake Connector wurde auf die neueste Codeversion aus dem Open-Source-Repository Snowflake Data Source für Apache Spark aktualisiert. Es ist jetzt vollständig kompatibel mit Databricks Runtime 11.3 LTS, einschließlich Prädikat-Pushdown und interner Abfrageplan-Pushdown, während alle Features der Open-Source-Version beibehalten werden.

Hadoop-Cache für S3A ist jetzt deaktiviert

Der Hadoop-Cache (FileSystem Apache Hadoop Main 3.3.4 API) für S3A ist jetzt deaktiviert. Dies dient der Angleichung an andere Cloud-Speicher-Konnektoren. Stellen Sie bei Workloads, die auf Dateisystem-Caching angewiesen sind, sicher, dass neu erstellte Dateisysteme mit den richtigen Hadoop-Konfigurationen bereitgestellt werden, einschließlich Zugangsdatenanbietern.

Das Schema der Delta Lake-Statistikensammlung entspricht jetzt der Spaltenreihenfolge in der Tabellenschema-Definition.

Diese Änderung behebt einen Fehler im Delta Lake-Protokoll, bei dem Statistiken aufgrund einer Diskrepanz in der Datenframe- und Tabellenspaltenreihenfolge nicht für Spalten gesammelt wurden. In einigen Fällen kann es vorkommen, dass aufgrund einer Statistikerhebung für zuvor nicht nachverfolgte Felder Leistungseinbußen auftreten. Weitere Informationen finden Sie unter Überspringen von Daten für Delta Lake.

applyInPandasWithState löst einen Fehler aus, wenn nach dem Operator eine Shuffle-Abfrage vorhanden ist.

Der Operator applyInPandasWithState löst einen Fehler aus, wenn die Abfrage shuffle nach dem Operator enthält. Dies geschieht, wenn der Benutzer shuffle nach dem Vorgang hinzufügt oder der Optimierer oder die Senke shuffle implizit hinzufügt.

Verbesserungen der Bibliothek

  • Aktualisierte Python-Bibliotheken:
    • distlib von 0.3.5 bis 0.3.6
  • Aktualisierte R-Bibliotheken:
    • broom von 1.0.0 auf 1.0.1
    • Callr von 3.7.1 bis 3.7.2
    • dplyr von 1.0.9 bis 1.0.10
    • dtplyr von 1.2.1 bis 1.2.2
    • forcats von Version 0.5.1 auf Version 0.5.2
    • Zukunft von 1.27.0 bis 1.28.0
    • future.apply von 1.9.0 bis 1.9.1
    • gert von 1.7.0 bis 1.8.0
    • Globals von 0.16.0 auf 0.16.1
    • Update von gtable von 0.3.0 auf 0.3.1
    • haven von 2.5.0 bis 2.5.1
    • hms von 1.1.1 bis 1.1.2
    • httr von 1.4.3 bis 1.4.4
    • knitr von 1.39 bis 1.40
    • modelr von Version 0.1.8 auf Version 0.1.9
    • Säule von 1.8.0 bis 1.8.1
    • progressr von 0.10.1 auf 0.11.0
    • readxl von 1.4.0 bis 1.4.1
    • Reprex von Version 2.0.1 auf 2.0.2
    • rlang von 1.0.4 bis 1.0.5
    • rmarkdown von Version 2.14 auf 2.16
    • RSQLite von 2.2.15 bis 2.2.16
    • rstudioapi von 0.13 bis 0.14
    • rversions von 2.1.1 auf 2.1.2
    • rvest von Version 1.0.2 auf Version 1.0.3
    • skaliert von 1.2.0 auf 1.2.1
    • sparklyr von 1.7.7 bis 1.7.8
    • stringr von Version 1.4.0 bis Version 1.4.1
    • Überleben von 3.2-13 bis 3.4-0
    • Tinytex von 0,40 bis 0,41
    • viridisLite von 0.4.0 bis 0.4.1
  • Aktualisierte Java-Bibliotheken:
    • com.fasterxml.jackson.core.jackson-annotations von 2.13.3 bis 2.13.4
    • com.fasterxml.jackson.core.jackson-core von 2.13.3 bis 2.13.4
    • com.fasterxml.jackson.core.jackson-databind von 2.13.3 bis 2.13.4
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor von 2.13.3 bis 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda von 2.13.3 bis 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 von 2.13.3 bis 2.13.4
    • com.fasterxml.jackson.module.jackson-module-paranamer von 2.13.3 bis 2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 von 2.13.3 bis 2.13.4
    • org.apache.hadoop.hadoop-client-api von 3.3.2-databricks bis 3.3.4-databricks
    • org.apache.hadoop.hadoop-client-runtime von 3.3.2 bis 3.3.4
    • org.apache.orc.orc-core von 1.7.5 bis 1.7.6
    • org.apache.orc.orc-mapreduce von 1.7.5 bis 1.7.6
    • org.apache.orc.orc-shims von 1.7.5 bis 1.7.6
    • org.apache.parquet.parquet-column von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
    • org.apache.parquet.parquet-common von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
    • org.apache.parquet.parquet-encoding von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
    • org.apache.parquet.parquet-format-structures von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
    • org.apache.parquet.parquet-jackson von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet von 2.34 bis 2.36
    • org.glassfish.jersey.containers.jersey-container-servlet-core von 2.34 bis 2.36
    • org.glassfish.jersey.core.jersey-client von 2.34 bis 2.36
    • org.glassfish.jersey.core.jersey-common von 2.34 bis 2.36
    • org.glassfish.jersey.core.jersey-server von 2.34 bis 2.36
    • org.glassfish.jersey.inject.jersey-hk2 von 2.34 bis 2.36

Apache Spark

Databricks Runtime 11.3 LTS umfasst Apache Spark 3.3.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 11.2 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-39957][WARMFIX][sc-111425][CORE] Verzögerung bei "onDisconnected", damit der Treiber den ExecutorExitCode empfangen kann.
  • [SPARK-39955] [WARMFIX][sc-111424][CORE] Verbessern des LaunchTask-Prozesses, um Phasenfehler zu vermeiden, die durch fehlzuschickende LaunchTask-Nachrichten verursacht werden
  • [SPARK-40474] [SC-106248][cherry-pick] Korrigieren des CSV-Schemaableitungsverhaltens für Datumsspalten und Einführen der automatischen Erkennung für Datumsfelder
  • [SPARK-40535] [SC-111243][sql] Behebung des Fehlers, dass der Puffer von AggregatingAccumulator nicht erstellt wird, wenn die Eingabezeilen leer sind
  • [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][PYTHON] Implement applyInPandasWithState in PySpark
  • [SPARK-40460] [ SC-110832][ss] Beheben von Streamingmetriken beim Auswählen _metadata
  • [SPARK-40324] [ SC-109943][sql] Bereitstellen eines Abfragekontexts von ParseException
  • [SPARK-40466] [SC-110899][ss] Verbessern Sie die Fehlermeldung, wenn DSv2 deaktiviert ist, während DSv1 nicht verfügbar ist.
  • [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext sollte günstig sein, wenn es wiederholt aufgerufen wird
  • [SPARK-40169] [SC-110772][sql] Parquet-Filter ohne Bezug zum Datenschema nicht pushen
  • [SPARK-40467] [SC-110759][ss] Split FlatMapGroupsWithState auf mehrere Test-Suites aufteilen
  • [SPARK-40468] [SC-110813][sql] Behebung des Zuschnitts von Spalten in CSV, wenn _corrupt_record ausgewählt ist
  • [SPARK-40291] [SC-110085][sql] Verbesserung der Fehlermeldung für Spalten, die nicht in der GROUP BY-Klausel enthalten sind
  • [SPARK-40398] [SC-110762][core][SQL] Verwenden Sie "Loop" anstelle der Arrays.stream-API.
  • [SPARK-40433] [SC-110684][ss][PYTHON] Funktion zuJVMRow zu PythonSQLUtils hinzufügen, um eine gepickelte PySpark Row in eine JVM Row zu konvertieren
  • [SPARK-40414] [SC-110568][SQL][PYTHON] Allgemeinerer Typ für PythonArrowInput und PythonArrowOutput
  • [SPARK-40352] [SC-109945][sql] Hinzufügen von Funktionsaliasen: len, datepart, dateadd, date_diff und curdate
  • [SPARK-40470] [SC-110761][sql] Handle GetArrayStructFields und GetMapValue in der Funktion "arrays_zip"
  • [SPARK-40387] [ SC-110685][sql] Verbessern der Implementierung von Spark Decimal
  • [SPARK-40429] [SC-110675][sql] Legt KeyGroupedPartitioning nur fest, wenn sich die spalte, auf die verwiesen wird, in der Ausgabe befindet.
  • [SPARK-40432] [SC-110716][PYTHON] Einführen von GroupStateImpl und GroupStateTimeout in PySpark
  • [SPARK-39915] [SC-110496][sql] Stellen Sie sicher, dass die Ausgabepartitionierung in AQE vom Benutzer angegeben ist.
  • [SPARK-29260] [SQL] Unterstützung, falls HMS unterstützt wirdALTER DATABASE SET LOCATION
  • [SPARK-40185] [SC-110056][sql] Spaltenvorschlag entfernen, wenn die Kandidatenliste leer ist
  • [SPARK-40362] [SC-110401][sql] Beheben der Kanonisierung von BinaryComparison
  • [SPARK-40411] [SC-110381][ss] Refactor FlatMapGroupsWithStateExec für eine übergeordnete Eigenschaft
  • [SPARK-40293] [SC-110084][sql] Machen Sie die V2-Tabellenfehlermeldung aussagekräftiger
  • [SPARK-38734] [SC-110383][sql] Entfernen der Fehlerklasse INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][sql] Beheben von Spaltennamen in der Funktion "arrays_zip" beim Verweisen auf Arrays aus geschachtelten Strukturen
  • [SPARK-40276] [SC-109674][core] Größe des Ergebnisses von RDD.takeOrdered verringern
  • [SPARK-40197] [SC-109176][sql] Ersetzen des Abfrageplans durch Kontext für MULTI_VALUE_SUBQUERY_ERROR
  • [SPARK-40300] [SC-109942][sql] Migrieren zur DATATYPE_MISMATCH Fehlerklasse
  • [SPARK-40149] [SC-110055][sql] Verteilen von Metadatenspalten über Project
  • [SPARK-40280] [SC-110146][sql] Fügen Sie Unterstützung für Parkettschub nach unten für kommentierte Int und long hinzu
  • [SPARK-40220] [SC-110143][sc-109175][SQL] Geben Sie die leere Map der Fehlermeldungsparameter nicht aus.
  • [SPARK-40295] [SC-110070][sql] Zulassen von v2-Funktionen mit Literalargumenten bei der Schreibverteilung/-sortierung
  • [SPARK-40156] [SC-109264][sql] url_decode() sollte eine Fehlerklasse zurückgeben
  • [SPARK-39195] [ SQL] Spark OutputCommitCoordinator sollte das Stadium abbrechen, wenn die zugesicherte Datei nicht mit dem Vorgangsstatus übereinstimmt.
  • [SPARK-40260] [SC-109424][sql] Verwenden von Fehlerklassen in den Kompilierungsfehlern GROUP BY einer Position
  • [SPARK-40205] [ SC-110144][sc-109082][SQL] Geben Sie einen Abfragekontext für ELEMENT_AT_BY_INDEX_ZERO
  • [SPARK-40112] [ SC-109676][sql] Verbessern der funktion TO_BINARY()
  • [SPARK-40209] [SC-109081][sql] Ändern Sie den Intervallwert von Decimal bei Fehlern nicht.
  • [SPARK-40319] [SC-109873][sql] Entfernen duplizierter Abfrageausführungsfehlermethode für PARSE_DATETIME_BY_NEW_PARSER
  • [SPARK-40222] [SC-109209][sql] Numerische try_add/try_divide/try_subtract/try_multiply sollte fehler von ihren untergeordneten Elementen auslösen
  • [SPARK-40183] [SC-108907][sql] Verwenden der Fehlerklasse NUMERIC_VALUE_OUT_OF_RANGE für den Überlauf bei der Umwandlung in Dezimalzahlen
  • [SPARK-40180] [ SC-109069][sql] Fehlermeldungen formatieren durch spark-sql
  • [SPARK-40153] [SC-109165][sql] Vereinheitlichung der Resolvierfunktionen und tabellenwertigen Funktionen
  • [SPARK-40308] [SC-109880][sql] Nicht faltenbare Trennzeichenargumente für die str_to_map-Funktion zulassen
  • [SPARK-40219] [SC-110052][sc-109663][SQL] Logischer Plan für aufgelöste Ansicht sollte das Schema enthalten, um redundante Suche zu vermeiden
  • [SPARK-40098] [SC-109939][sc-108693][SQL] Formatieren von Fehlermeldungen im Thrift Server
  • [SPARK-39917] [SC-109038][sql] Verwendung verschiedener Fehlerklassen für numerischen Überlauf/Intervallüberläufe
  • [SPARK-40033] [SC-109875][sql] Geschachtelte Schemabereinigungsunterstützung durch element_at
  • [SPARK-40194] [SC-109660][sql] SPLIT-Funktion für leere regex sollte nachfolgende leere Zeichenfolge abschneiden.
  • [SPARK-40228] [SC-109835][sql] Vereinfachen Sie multiLike nicht, wenn das untergeordnete Element kein günstiger Ausdruck ist.
  • [SPARK-40039] [SC-109896][sc-109260][SS] Einführung eines auf der Abortable-Schnittstelle von Hadoop basierenden Streaming-Checkpoint-Dateimanagers
  • [SPARK-40285] [SC-109679][sql] Vereinfachung des roundTo[Numeric] für Spark Decimal
  • [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison sollte funktionieren, wenn das Literal von In/InSet-Downcast fehlgeschlagen ist.
  • [SPARK-40040] [SC-109662][sql] Lokale Grenze an beide Seiten pushen, wenn die Verknüpfungsbedingung leer ist
  • [SPARK-40055] [SC-109075][sql] listCatalogs sollten auch spark_catalog zurückgeben, auch wenn spark_catalog Implementierung defaultSessionCatalog ist.
  • [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) erstellt möglicherweise keine N-Partitionen, die nicht AQE-Teil sind
  • [SPARK-40207] [SC-109401][sql] Geben Sie den Spaltennamen an, wenn der Datentyp von der Datenquelle nicht unterstützt wird.
  • [SPARK-40245] [SC-109295][sql] Korrektur der Gleichheitsprüfung von FileScan, wenn Partitions- oder Datenfilterspalten nicht gelesen werden
  • [SPARK-40113] [SC-109405][sql] Reactor ParquetScanBuilder DataSourceV2-Schnittstellenimplementierungen
  • [SPARK-40211] [SC-109226][core][SQL] Ermöglicht die Anpassung der anfänglichen Partitionsanzahl im Verhalten der take()-Funktion.
  • [SPARK-40252] [ SC-109379][sql] Ersetzen Stream.collect(Collectors.joining) durch StringJoiner API
  • [SPARK-40247] [SC-109272][sql] Korrigieren der BitSet-Gleichheitsprüfung
  • [SPARK-40067] [ SQL] Verwenden Sie Table#name() anstelle von Scan#name(), um den Tabellennamen im BatchScan-Knoten in SparkUI zu befüllen.
  • [SPARK-39966] [ SQL] V2-Filter in SupportsDelete verwenden
  • [SPARK-39607] [SC-109268][sql][DSV2] Verteilung und Sortierung unterstützen V2-Funktion schriftlich
  • [SPARK-40224] [SC-109271][sql] Make ObjectHashAggregateExec gibt Arbeitsspeicher eifrig frei, wenn Fallback auf sortierbasierte Weise ausgeführt wird
  • [SPARK-40013] [SQL] DS V2-Ausdrücke sollten den Standardwert verwenden.
  • [SPARK-40214] [SC-109079][python][SQL] Hinzufügen von "Get" zu Funktionen
  • [SPARK-40192] [SC-109089][sql][ML] Redundante Groupby entfernen
  • [SPARK-40146] [SC-108694][sql] Einfach der Codegen zum Abrufen des Kartenwerts
  • [SPARK-40109] [SQL] Neue SQL-Funktion : get()
  • [SPARK-39929] [ SQL] DS V2 unterstützt Pushdown-Zeichenfolgenfunktionen (nicht ANSI)
  • [SPARK-39819] [SQL] DS V2-Aggregat-Pushdown kann mit Top-N oder Paging (Sortieren mit Ausdrücken) arbeiten.
  • [SPARK-40213] [SC-109077][sql] Unterstützung der ASCII-Wertkonvertierung für Latin-1-Zeichen
  • [SPARK-39887] [SQL] RemoveRedundantAliases soll Aliase beibehalten, die die Ausgabe von Projektionsknoten eindeutig machen
  • [SPARK-39764] [SQL] Vereinheitlichen Sie PhysicalOperation mit ScanOperation
  • [SPARK-39964] [ SQL] DS V2-Pushdown sollte den Übersetzungspfad vereinheitlichen
  • [SPARK-39528] [ SQL] Verwenden des V2-Filters in SupportsRuntimeFiltering
  • [SPARK-40066] [SQL] ANSI-Modus: Immer NULL bei ungültigem Zugriff auf eine Map-Spalte zurückgeben.
  • [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
  • [SPARK-39833] [SC-108736][sql] Deaktivieren Sie den Parquet-Spaltenindex in DSv1, um ein Problem bei der Korrektheit im Falle überlappender Partitionen und Datenspalten zu beheben.
  • [SPARK-39880] [SQL] V2-Befehl SHOW FUNCTIONS sollte qualifizierten Funktionsnamen wie v1 drucken
  • [SPARK-39767] [SQL] Entfernen UnresolvedDBObjectName und Hinzufügen von UnresolvedIdentifier
  • [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Karte)
  • [SPARK-40136] [SQL] Fragment von SQL-Abfragekontexten beheben
  • [SPARK-40107] [SC-108689][sql] Herausziehen der empty2null-Konvertierung aus FileFormatWriter
  • [SPARK-40121] [PYTHON][sql] Initialisierung der Projektion für Python UDF
  • [SPARK-40128] [SQL] Den VectorizedColumnReader so anpassen, dass er DELTA_LENGTH_BYTE_ARRAY als eigenständige Spaltenkodierung erkennt.
  • [SPARK-40132] [ ML] RawPredictionCol in MultilayerPerceptronClassifier.setParams wiederherstellen
  • [SPARK-40050] [ SC-108696][sql] Erweitern EliminateSorts, um das Entfernen von Sortierungen durch LocalLimit zu unterstützen.
  • [SPARK-39629] [SQL] Support v2 SHOW FUNCTIONS
  • [SPARK-39925] [SC-108734][sql] Hinzufügen der Funktion 'array_sort(column, comparator)' als Überladung in DataFrame-Operationen.
  • [SPARK-40117] [PYTHON][sql] Bedingung in Java in DataFrameWriterV2.overwrite konvertieren
  • [SPARK-40105] [SQL] Verbesserung der Repartitionierung in ReplaceCTERefWithRepartition
  • [SPARK-39503] [ SQL] Hinzufügen des Sitzungskatalognamens für v1-Datenbanktabelle und -funktion
  • [SPARK-39889] [SQL] Verwenden Sie unterschiedliche Fehlerklassen für numerische Werte/Intervalle, die durch 0 geteilt werden.
  • [SPARK-39741] [ SQL] Unterstützung der URL-Codierung/Decodierung als integrierte Funktion und Bereinigung der URL-bezogenen Funktionen
  • [SPARK-40102] [ SQL] Verwenden Von SparkException anstelle von IllegalStateException in SparkPlan
  • [SPARK-40014] [ SQL] Unterstützung für die Umwandlung von Dezimalzahlen in ANSI-Intervalle
  • [SPARK-39776] [SQL][Fortsetzung] Aktualisierung des Unit-Tests von PlanStabilitySuite im ANSI-Modus
  • [SPARK-39963] [SQL] Vereinfachen SimplifyCasts.isWiderCast

Wartungsupdates

Siehe Databricks Runtime 11.3 Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 20.04.5 LTS
    • Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.21
  • R: 4.1.3
  • Delta Lake: 2.1.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
argon2-cffi 20.1.0 asynchroner Generator 1.10 Attrs 21.2.0
Backcall 0.2.0 backports.entry-points-selectable 1.1.1 schwarz 22.3.0
Bleichmittel 4.0.0 boto3 1.21.18 Botocore 1.24.18
Zertifikat 2021.10.8 cffi 1.14.6 Chardet 4.0.0
Charset-Normalizer 2.0.4 klicken 8.0.3 Kryptographie 3.4.8
Fahrradfahrer 0.10.0 Cython 0.29.24 dbus-python 1.2.16
debugpy 1.4.1 Dekorateur 5.1.0 defusedxml 0.7.1
Distlib 0.3.6 Einstiegspunkte 0,3 Übersicht der Facetten 1.0.0
Dateisperrung 3.8.0 idna 3.2 ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets 7.7.0
Jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 Jupyter-Client 6.1.12
jupyter-core 4.8.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
matplotlib-inline 0.1.2 mistune 0.8.4 mypy-Erweiterungen 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
nest-asyncio 1.5.1 Notebook 6.4.5 numpy 1.20.3
Verpackung 21.0 Pandas 1.3.4 Pandocfilter 1.4.3
Parso 0.8.2 pathspec 0.9.0 patsy 0.5.2
pexpect 4.8.0 Pickleshare 0.7.5 Kissen 8.4.0
pip 21.2.4 platformdirs 2.5.2 plotly 5.9.0
prometheus-client 0.11.0 Prompt-Toolkit 3.0.20 protobuf 4.21.5
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
Pyristent 0.18.0 Python-dateutil 2.8.2 Pytz 2021.3
pyzmq 22.2.1 requests 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 SciPy 1.7.1
Seegeboren 0.11.2 Send2Trash 1.8.0 setuptools 58.0.4
Sechs 1.16.0 ssh-import-id 5.10 StatistikModelle 0.12.2
Hartnäckigkeit 8.0.1 terminado 0.9.4 Testpfad 0.5.0
Threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
Tornado 6.1 traitlets 5.1.0 Erweiterungen für Typisierung 3.10.0.2
unbeaufsichtigte Aktualisierungen 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 Webkodierungen 0.5.1 Rad 0.37.0
widgetsnbextension 3.6.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme am 2022-09-08 installiert. Die Momentaufnahme ist nicht mehr verfügbar.

Bibliothek Version Bibliothek Version Bibliothek Version
Askpass 1.1 prüfen, dass 0.2.1 backports 1.4.1
Basis 4.1.3 base64enc 0.1-3 bit 4.0.4
Bit64 4.0.5 Klumpen 1.2.3 boot 1.3-28
brew 1.0-7 brio 1.1.3 Besen 1.0.1
bslib 0.4.0 cachem 1.0.6 callr 3.7.2
Caret 6.0-93 CellRanger 1.1.0 Chron 2.3-57
class 7.3-20 cli 3.3.0 clipr 0.8.0
Gruppe 2.1.3 Codetools 0.2-18 Farbraum 2.0-3
Commonmark 1.8.0 Kompilierer 4.1.3 config 0.3.1
cpp11 0.4.2 Buntstift 1.5.1 Zugangsdaten 1.3.2
cURL 4.3.2 data.table 1.14.2 Datensätze 4.1.3
DBI 1.1.3 dbplyr 2.2.1 Beschreibung 1.4.1
devtools 2.4.4 diffobj 0.3.5 verdauen 0.6.29
downlit 0.4.2 dplyr 1.0.10 dtplyr 1.2.2
e1071 1.7-11 Ellipse 0.3.2 auswerten 0.16
Fans 1.0.3 farver 2.1.1 fastmap 1.1.0
fontawesome 0.3.0 forcats 0.5.2 foreach 1.5.2
Fremd 0.8-82 schmieden 0.2.0 fs 1.5.2
Zukunft 1.28.0 future.apply 1.9.1 gargle 1.2.0
Generika 0.1.3 gert 1.8.0 ggplot2 3.3.6
gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globals 0.16.1 Klebstoff 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 gower 1.0.0 Graphik 4.1.3
grGeräte 4.1.3 grid 4.1.3 gridExtra 2.3
gsubfn 0.7 g-Tabelle 0.3.1 Schutzhelm 1.2.0
Hafen 2.5.1 highr 0.9 hms 1.1.2
HTML-Werkzeuge 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 Ausweise 1.0.1 ini 0.3.1
IPRED 0.9-13 Isobande 0.2.5 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
Knitr 1.40 Etikettierung 0.4.2 later 1.3.0
lattice 0.20-45 lava 1.6.10 Lebenszyklus 1.0.1
„listenv“ 0.8.0 Schmiermittel 1.8.0 magrittr 2.0.3
markdown 1.1 MASS 7.3-56 Matrix 1.4-1
memoise 2.0.1 Methodik 4.1.3 mgcv 1.8-40
Mime-Kunst 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
Modellierer 0.1.9 munsell 0.5.0 nlme 3.1-157
NNET 7.3-17 numDeriv 2016.8 bis 1.1 OpenSSL 2.0.2
parallel 4.1.3 parallel dazu 1.32.1 Säule 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
loben 1.0.0 prettyunits 1.1.1 pROC 1.18.0
Prozessx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
Fortschritt 1.2.2 progressr 0.11.0 Versprechungen 1.2.0.1
proto 1.0.0 Stellvertreter 0.4-27 P.S. 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 READR 2.1.2 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.1
Rezepte 1.0.1 Rückspiel 1.0.1 Rückspiel2 2.1.2
fernbedienungen 2.4.2 reprex 2.0.2 Umform2 1.4.4
rlang 1.0.5 RMarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0.14
rversions 2.1.2 RVEST 1.0.3 Sass 0.4.2
scales 1.2.1 selectr 0.4-2 Sitzungsinformationen 1.2.2
Gestalt 1.4.6 glänzend 1.7.2 sourcetools 0.1.7
Sparklyr 1.7.8 SparkR 3.3.0 spatial 7.3-11
splines 4.1.3 sqldf 0.4-11 SQUAREM 2021.1
Statistiken 4.1.3 Statistiken4 4.1.3 Stringi 1.7.8
stringr 1.4.1 Überleben 3.4-0 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
Textgestaltung 0.3.6 Tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 timeDate 4021.104
tinytex 0,41 Werkzeuge 4.1.3 Zeitzonendatenbank (tzdb) 0.3.0
URL-Prüfer 1.0.1 Nutze dies 2.1.6 utf8 1.2.2
utils 4.1.3 Universelle eindeutige Kennung (UUID) 1.1-0 VCTRS 0.4.1
viridisLite 0.4.1 vroom 1.5.7 Waldo 0.4.0
whisker 0.4 Withr 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML-Dateiformat 2.3.5 zip 2.2.0

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws AWS Java SDK für Auto Scaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws AWS-Java-SDK-Config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-Protokolle 1.12.189
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.189
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core Jackson-Datenbindung 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine Koffein 2.3.4
com.github.fommil Jniloader 1.1
com.github.fommil.netlib Kern 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guave 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi Quellcode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,21
io.delta delta-sharing-spark_2.12 0.5.1
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics Metrics-Graphit 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics Metrics-Jetty9 4.1.1
io.dropwizard.metrics Metrics-JMX 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics Metrik-Servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty Netty Codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty Netty-Resolver 4.1.74.Final
io.netty netty-tcnative-Klassen 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammler 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.Schneeflocke Snowflake-JDBC 3.13.14
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow Pfeilformat 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow Arrow-Memory-Netty 7.0.0
org.apache.arrow Pfeil-Vektor 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.9
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-Client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Hive-Shims-Scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc Orc-Shims 1.7.6
org.apache.parkett parquet-column 1.12.0-databricks-0007
org.apache.parkett parquet-common 1.12.0-databricks-0007
org.apache.parkett Parquet-Kodierung 1.12.0-databricks-0007
org.apache.parkett parquet-format-structures 1.12.0-databricks-0007
org.apache.parkett parquet-hadoop 1.12.0-databricks-0007
org.apache.parkett parquet-jackson 1.12.0-databricks-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus audience-annotations 0.5.0
org.apache.zookeeper Tierpfleger 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty Jetty-HTTP 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty Jetty-Plus 9.4.46.v20220331
org.eclipse.jetty Jetty-Proxy 9.4.46.v20220331
org.eclipse.jetty Jetty-Sicherheit 9.4.46.v20220331
org.eclipse.jetty Jetty Server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty Jetty-Util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Jetty-Webanwendung 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-API 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-Client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-Server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2,36
org.glassfish.jersey.core jersey-common 2,36
org.glassfish.jersey.core jersey-server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.aspx mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Klemmstücke 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark ungenutzt 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel Katzen-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1