Freigeben über


Databricks Runtime 15.2 (EoS)

Note

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Das Support-Enddatum finden Sie in der Supporthistorie. Eine Übersicht aller unterstützten Databricks Runtime-Versionen finden Sie unter Versionshinweise und Kompatibilität von Databricks Runtime.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 15.2, unterstützt von Apache Spark 3.5.0.

Databricks hat diese Version im Mai 2024 veröffentlicht.

Verhaltensänderungen

Vakuum bereinigt COPY INTO Metadatendateien

Wenn VACUUM auf eine Tabelle angewendet wird, die mit COPY INTO geschrieben wurde, bereinigt dies jetzt nicht referenzierte Metadaten, die mit der Nachverfolgung von erfassten Dateien verbunden sind. Es gibt keine Auswirkungen auf die operative Semantik von COPY INTO.

Lakehouse Federation ist allgemein verfügbar (GA)

In Databricks Runtime 15.2 und höher sind Lakehouse Federation Connectors in den folgenden Datenbanktypen allgemein verfügbar (GA):

  • MySQL
  • PostgreSQL
  • Amazon Redshift
  • Snowflake
  • Microsoft SQL Server
  • Azure Synapse (SQL Data Warehouse)
  • Databricks

In dieser Version werden auch die folgenden Verbesserungen eingeführt:

  • Unterstützung für zusätzliche Pushdowns (Zeichenfolgen-, mathematische und verschiedene andere Funktionen).
  • Verbesserte Pushdown-Erfolgsrate bei verschiedenen Abfrageformen.
  • Zusätzliche Pushdown-Debuggingfunktionen:
    • Die EXPLAIN FORMATTED-Ausgabe zeigt den heruntergedrückten Abfragetext an.
    • Die Benutzeroberfläche des Abfrageprofils zeigt den Pushdown-Abfragetext, Verbundknotenbezeichner und Ausführungszeiten für JDBC-Abfragen (im ausführlichen Modus). Siehe Anzeigen der vom System generierten Verbundabfragen.

BY POSITION für die Spaltenzuordnung unter Verwendung von COPY INTO mit headerlosen CSV-Dateien

In Databricks Runtime 15.2 und höher können Sie die BY POSITION Schlüsselwörter (oder die alternative Syntaxoption ( col_name [ , <col_name> ... ] )) in Kombination mit COPY INTO für headerlose CSV-Dateien verwenden, um die Zuordnung von Quellspalten zur Zieltabellenspalte zu vereinfachen. Siehe Parameter.

Verringern des Arbeitsspeicherverbrauchs, wenn Spark-Aufgaben mit einem Resubmitted Fehler fehlschlagen

In Databricks Runtime 15.2 und höher ist der Rückgabewert der Spark-Methode TaskInfo.accumulables() leer, wenn Vorgänge mit einem Resubmitted Fehler fehlschlagen. Zuvor hat die Methode die Werte eines früheren erfolgreichen Vorgangsversuchs zurückgegeben. Diese Verhaltensänderung wirkt sich auf die folgenden Verbraucher aus:

  • Spark-Aufgaben, die die EventLoggingListener Klasse verwenden.
  • Benutzerdefinierte Spark Listener.

Um das vorherige Verhalten wiederherzustellen, legen Sie spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled auf false fest.

Anzeigen adaptiver Abfrageausführungsplanversionen ist deaktiviert.

Um den Arbeitsspeicherverbrauch zu verringern, werden die Planversionen der adaptiven Abfrageausführung (AQE) jetzt standardmäßig in der Spark-Benutzeroberfläche deaktiviert. Um die Anzeige von AQE-Planversionen in der Spark-Benutzeroberfläche zu aktivieren, legen Sie die spark.databricks.sql.aqe.showPlanChangesInUI.enabled auf true fest.

Der Grenzwert für beibehaltene Abfragen wird verringert, um die Speicherauslastung von Spark UI zu verringern.

In Databricks Runtime 15.2 und höher wird der von der Spark-Benutzeroberfläche in Azure Databricks verbrauchte Speicher reduziert, der Grenzwert für die Anzahl der in der Benutzeroberfläche sichtbaren Abfragen wird von 1000 auf 1000 gesenkt. Um den Grenzwert zu ändern, legen Sie einen neuen Wert mithilfe der spark.sql.ui.retainedExecutions Spark-Konfiguration fest.

DESCRIBE HISTORY zeigt jetzt Cluster-Spalten für Tabellen an, die Liquid Clustering verwenden

Wenn Sie eine DESCRIBE HISTORY Abfrage ausführen, zeigt die spalte operationParameters standardmäßig ein clusterBy Feld für CREATE OR REPLACE- und OPTIMIZE-Vorgänge an. Bei einer Delta-Tabelle, die flüssigen Clustering verwendet, wird das clusterBy Feld mit den Clusterspalten der Tabelle aufgefüllt. Wenn die Tabelle keine flüssige Clusterung verwendet, ist das Feld leer.

Die Syntax des Notizbuch-Widgets ist veraltet.

Ab Databricks Runtime 15.2 ist die Syntax für den ${param} Zugriff auf Notizbuch-Widgetwerte in SQL-Zellen veraltet. Verwenden Sie stattdessen die Parametermarkierungssyntax (:param). Die Parametermarkierungssyntax bietet einen besseren SQL-Einfügungsschutz und verbesserte Abfrageleistung.

Anleitungen und Beispiele für die Migration finden Sie unter Legacy-Notizbuch-Widgets. Informationen zum aktuellen empfohlenen Ansatz finden Sie unter Databricks Widgets.

Neue Features und Verbesserungen

Unterstützung für Primär- und Fremdschlüssel ist GA

Die Unterstützung für Primär- und Fremdschlüssel in Databricks Runtime ist allgemein verfügbar. Die GA-Version enthält die folgenden Änderungen an den Berechtigungen, die für die Verwendung von Primär- und Fremdschlüsseln erforderlich sind:

  • Zum Definieren eines Fremdschlüssels benötigen Sie die SELECT-Berechtigung für die Tabelle mit dem Primärschlüssel, auf den der Fremdschlüssel verweist. Sie müssen die Tabelle nicht mit dem Primärschlüssel besitzen, der zuvor erforderlich war.
  • Das Ablegen eines Primärschlüssels mithilfe der CASCADE-Klausel erfordert keine Berechtigungen für die Tabellen, die Fremdschlüssel definieren, die auf den Primärschlüssel verweisen. Zuvor mussten Sie die referenzierenden Tabellen besitzen.
  • Das Ablegen einer Tabelle, die Einschränkungen enthält, erfordert jetzt dieselben Berechtigungen wie das Ablegen von Tabellen, die keine Einschränkungen enthalten.

Informationen zum Verwenden von Primär- und Fremdschlüsseln mit Tabellen oder Ansichten finden Sie unter CONSTRAINT Klausel, ADD CONSTRAINT Klauselund DROP CONSTRAINT Klausel.

Liquid Clustering erreicht allgemeine Verfügbarkeit (GA)

Unterstützung für flüssigen Clustering ist jetzt allgemein mit Databricks Runtime 15.2 und höher verfügbar. Siehe Verwenden von Flüssigclustering für Tabellen.

Typerweiterung in Public Preview

Sie können jetzt die Typweiterung für Tabellen aktivieren, die von Delta Lake unterstützt werden. Tabellen mit aktivierter Typverbreiterung ermöglichen das Ändern des Spaltentyps in einen breiteren Datentyp, ohne zugrunde liegende Datendateien neu zu schreiben. Weitere Informationen finden Sie unter Typerweiterung.

Hinzufügung der Schema-Evolutionsklausel zur SQL-Merge-Syntax

Sie können nun die WITH SCHEMA EVOLUTION Klausel zu einer SQL Merge-Anweisung hinzufügen, um die Schemaentwicklung für den Vorgang zu aktivieren. Siehe Schemaentwicklungssyntax für Merge.

PySpark benutzerdefinierte Datenquellen sind in der öffentlichen Vorschau verfügbar.

Eine PySpark DataSource kann mit der Python-API (PySpark) DataSource erstellt werden, die das Lesen von benutzerdefinierten Datenquellen und das Schreiben in benutzerdefinierte Datensenken in Apache Spark mithilfe von Python ermöglicht. Siehe pySpark benutzerdefinierte Datenquellen

applyInPandas und mapInPandas sind jetzt mit dem gemeinsamen Zugriffsmodus auf Unity Catalog Compute verfügbar.

Als Teil einer Wartungsversion von Databricks Runtime 14.3 LTS werden jetzt applyInPandas- und mapInPandas-UDF-Typen für den gemeinsam genutzten Zugriffsmodus unterstützt, der Databricks Runtime 14.3 und höher ausführt.

Verwenden von dbutils.widgets.getAll() zum Abrufen aller Widgets in einem Notizbuch

Verwenden Sie dbutils.widgets.getAll(), um alle Widgetwerte in einem Notizbuch abzurufen. Dies ist besonders hilfreich, wenn mehrere Widgetswerte an eine Spark SQL-Abfrage übergeben werden.

Vakuuminventarunterstützung

Sie können jetzt einen Bestand an Dateien angeben, die sie berücksichtigen sollten, wenn Sie den Befehl VACUUM in einer Delta-Tabelle ausführen. Siehe OSS Delta-Dokumente.

Unterstützung für Zstandardkomprimierungsfunktionen

Sie können jetzt die Funktionen zst_compress, zstd_decompressund try_zstd_decompress verwenden, um BINARY Daten zu komprimieren und zu dekomprimieren.

Fehlerkorrekturen

Abfragepläne in der SQL-Benutzeroberfläche werden jetzt ordnungsgemäß angezeigt PhotonWriteStage

Wenn sie in der SQL-Benutzeroberfläche angezeigt werden, werden write-Befehle in Abfrageplänen fälschlicherweise als PhotonWriteStage-Operator dargestellt. Mit dieser Version wird die Benutzeroberfläche aktualisiert, um PhotonWriteStage als Phase anzuzeigen. Dies ist nur eine Änderung der Benutzeroberfläche und wirkt sich nicht auf die Ausführung von Abfragen aus.

Ray wird aktualisiert, um Probleme beim Starten von Ray-Clustern zu beheben.

Diese Version enthält eine gepatchte Version von Ray, die eine bahnbrechende Änderung behebt, die verhindert, dass Ray-Cluster mit Databricks Runtime for Machine Learning beginnen. Durch diese Änderung wird sichergestellt, dass die Ray-Funktionalität mit versionen von Databricks Runtime vor 15.2 identisch ist.

Korrigierte Fehlerklasse für DataFrame.sort() und DataFrame.sortWithinPartitions() Funktionen

Diese Version enthält eine Aktualisierung der Funktionen von PySpark DataFrame.sort() und DataFrame.sortWithinPartitions(), um sicherzustellen, dass die ZERO_INDEX-Fehlerklasse ausgelöst wird, wenn 0 als Indexargument übergeben wird. Zuvor wurde die Fehlerklasse INDEX_NOT_POSITIVE geworfen.

ipywidgets wird von 8.0.4 auf 7.7.2 herabgestuft.

Um Fehler zu beheben, die durch ein Upgrade von ipywidgets auf 8.0.4 in Databricks Runtime 15.0 eingeführt wurden, wird ipywidgets in Databricks Runtime 15.2 auf 7.7.2 herabgestuft. Dies ist die gleiche Version, die in früheren Databricks-Runtime-Versionen enthalten ist.

Verbesserungen der Bibliothek

  • Aktualisierte Python-Bibliotheken:
    • GitPython von 3.1.42 bis 3.1.43
    • google-api-core von 2.17.1 bis 2.18.0
    • google-auth von 2.28.1 auf 2.29.0
    • google-cloud-storage von 2.15.0 bis 2.16.0
    • googleapis-common-protos von 1.62.0 bis 1.63.0
    • ipywidgets von 8.0.4 bis 7.7.2
    • mlflow-skinny von 2.11.1 bis 2.11.3
    • s3transfer von 0.10.0 auf 0.10.1
    • sqlparse von 0.4.4 bis 0.5.0
    • typing_extensions von 4.7.1 bis 4.10.0
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • com.amazonaws.aws-java-sdk-autoscaling von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cloudformation, Version: 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cloudfront von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cloudhsm von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cloudsearch von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cloudtrail von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cloudwatch von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cloudwatchmetrics von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-codedeploy von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-cognitoidentity von Version 1.12.390 bis Version 1.12.610
    • com.amazonaws.aws-java-sdk-cognitosync von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-config von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-core von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-datapipeline von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-directconnect von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-directory von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-dynamodb von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-ec2 von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-ecs von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-efs von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-elasticache von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-elasticbeanstalk von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-elasticloadbalancing von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-elastictranscoder von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-emr von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-glacier von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-glue von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-iam von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-importexport von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-kinesis von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-kms von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-lambda von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-logs von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-machinelearning von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-opsworks von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-rds von 1.12.390 auf 1.12.610
    • com.amazonaws.aws-java-sdk-redshift von 1.12.390 auf 1.12.610
    • com.amazonaws.aws-java-sdk-route53 von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-s3 von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-ses von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-simpledb von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-simpleworkflow von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-sns von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-sqs von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-ssm von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-storagegateway von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-sts von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-support von 1.12.390 bis 1.12.610
    • com.amazonaws.aws-java-sdk-workspaces von 1.12.390 bis 1.12.610
    • com.amazonaws.jmespath-java von 1.12.390 bis 1.12.610

Apache Spark

Databricks Runtime 15.2 umfasst Apache Spark 3.5.0. Diese Version enthält alle Spark Fixes und Verbesserungen, die in Databricks Runtime 15.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-47941] [SC-163568] [SS] [Connect] Weiterleitung von ForeachBatch-Workerinitialisierungsfehlern an Benutzern für PySpark
  • [SPARK-47412] [SC-163455][sql] Sortierunterstützung für LPad/RPad hinzufügen.
  • [SPARK-47907] [SC-163408][sql] Knall unter eine Konfiguration setzen
  • [SPARK-46820] [SC-157093][python] Beheben der Fehlermeldungsregression durch Wiederherstellen new_msg
  • [SPARK-47602] [SPARK-47577][spark-47598][SPARK-47577]Core/MLLib/Resource Managers: strukturierte Protokollierungsmigration
  • [SPARK-47890] [SC-163324][connect][PYTHON] Fügen Sie Variantenfunktionen zu Scala und Python hinzu.
  • [SPARK-47894] [SC-163086][core][WEBUI] Hinzufügen Environment einer Seite zur Master-Benutzeroberfläche
  • [SPARK-47805] [ SC-163459][ss] Implementieren von TTL für MapState
  • [SPARK-47900] [SC-163326] Überarbeitung der Überprüfung für implizite Sortierung (UTF8_BINARY)
  • [SPARK-47902] [SC-163316][sql]Berechnungs-Ausdrücke für aktuelle Zeit* faltbar machen
  • [SPARK-47845] [SC-163315][sql][PYTHON][connect] Spaltentyp in geteilter Funktion für Scala und Python unterstützen
  • [SPARK-47754] [ SC-162144][sql] Postgres: Unterstützen des Lesens von mehrdimensionalen Arrays
  • [SPARK-47416] [SC-163001][sql] Hinzufügen neuer Funktionen zu CollationBenchmark #90339
  • [SPARK-47839] [SC-163075][sql] Beheben des Aggregatfehlers in RewriteWithExpression
  • [SPARK-47821] [ SC-162967][sql] is_variant_null Ausdruck implementieren
  • [SPARK-47883] [SC-163184][sql] Machen Sie CollectTailExec.doExecute faul mit RowQueue
  • [SPARK-47390] [SC-163306][sql] PostgresDialect unterscheidet TIMESTAMP von TIMESTAMP_TZ
  • [SPARK-47924] [ SC-163282][core] Hinzufügen eines DEBUG-Protokolls zu DiskStore.moveFileToBlock
  • [SPARK-47897] [SC-163183][sql][3.5] Behebung der ExpressionSet-Performance-Regressions in Scala 2.12
  • [SPARK-47565] [SC-161786][python] PySpark-Worker-Pool Absturzresilienz
  • [SPARK-47885] [SC-162989][python][CONNECT] Sorge dafür, dass pyspark.resource mit pyspark-connect kompatibel ist.
  • [SPARK-47887] [ SC-163122][connect] Nicht verwendeten Import spark/connect/common.proto aus spark/connect/relations.proto entfernen
  • [SPARK-47751] [SC-161991][python][CONNECT] Machen Sie pyspark.worker_utils kompatibel mit pyspark-connect
  • [SPARK-47691] [SC-161760][sql] Postgres: Unterstützung von mehrdimensionalen Arrays auf der Schreibseite
  • [SPARK-47617] [SC-162513][sql] Hinzufügen TPC-DS Testinfrastruktur für Sortierungen
  • [SPARK-47356] [SC-162858][sql] Unterstützung für ConcatWs & Elt (alle Kollationen) hinzufügen
  • [SPARK-47543] [SC-161234][connect][PYTHON] dict als MapType aus einem Pandas DataFrame ableiten, um die Erstellung eines DataFrames zu ermöglichen
  • [SPARK-47863] [SC-162974][sql] Korrigiere die beginntMit und endetMit sortierungsbewusste Implementierung für ICU
  • [SPARK-47867] [SC-162966][sql] Unterstützungsvariante im JSON-Scan.
  • [SPARK-47366] [SC-162475][sql][PYTHON] Add VariantVal für PySpark
  • [SPARK-47803] [ SC-162726][sql] Unterstützung für das Konvertieren in eine Variante.
  • [SPARK-47769] [SC-162841][sql] Fügen Sie schema_of_variant_agg Ausdruck hinzu.
  • [SPARK-47420] [ SC-162842][sql] Testausgabe korrigieren
  • [SPARK-47430] [SC-161178][sql] Unterstützung GROUP BY für MapType
  • [SPARK-47357] [SC-162751][sql] Unterstützung für Upper, Lower, InitCap (alle Sortierungen)
  • [SPARK-47788] [SC-162729][ss] Stellen Sie die gleiche Hashpartitionierung für Streamingstatus-Ops sicher.
  • [SPARK-47776] [ SC-162291][ss] Verhindere die Verwendung der binären Ungleichheitskollation im Schlüsselschema des zustandsbehafteten Operators.
  • [SPARK-47673] [ SC-162824][ss] Implementieren von TTL für ListState
  • [SPARK-47818] [SC-162845][connect] Einführung des Plancaches in SparkConnectPlanner zur Verbesserung der Leistung von Analyseanforderungen
  • [SPARK-47694] [SC-162783][connect] Maximale Nachrichtengröße auf clientseitiger Seite konfigurierbar machen
  • [SPARK-47274] Rückgängigmachen von "[SC-162479][python][SQL] Bereitstellen von nützlicheren...
  • [SPARK-47616] [SC-161193][sql] Hinzufügen eines Benutzerdokuments zum Zuordnen von Spark SQL-Datentypen aus MySQL
  • [SPARK-47862] [SC-162837][python][CONNECT]Korrektur bei der Erstellung von Proto-Dateien
  • [SPARK-47849] [SC-162724][python][CONNECT] Ändern des Releaseskripts zur Veröffentlichung von pyspark-connect
  • [SPARK-47410] [SC-162518][sql] Umstrukturierung von UTF8String und CollationFactory
  • [SPARK-47807] [SC-162505][python][ML] Machen Sie pyspark.ml kompatibel mit pyspark-connect
  • [SPARK-47707] [SC-161768][sql] Spezielle Behandlung des JSON-Typs für MySQL Connector/J 5.x
  • [SPARK-47765] Revertieren “[SC-162636][sql] Add SET COLLATION to pars...
  • [SPARK-47081] [SC-162151][connect][FOLLOW] Verbesserung der Benutzerfreundlichkeit des Fortschrittsanzeigers
  • [SPARK-47289] [SC-161877][sql] Erweiterungen erlauben, erweiterte Informationen im Erläuterungsplan zu protokollieren
  • [SPARK-47274] [SC-162479][python][SQL] Bereitstellen von nützlicheren Kontext für PySpark DataFrame-API-Fehler
  • [c0][SPARK-47765] [SC-162636][sql] KOLLATION zu Parserregeln hinzufügen
  • [SPARK-47828] [SC-162722][connect][PYTHON] DataFrameWriterV2.overwrite schlägt mit ungültigen Plan fehl
  • [SPARK-47812] [SC-162696][connect] Unterstützung der Serialisierung von SparkSession für den Einsatz in ForEachBatch-Worker
  • [SPARK-47253] [SC-162698][core] Zulassen, dass der LiveEventBus beendet wird, ohne dass die Ereigniswarteschlange vollständig geleert wird
  • [SPARK-47827] [ SC-162625][python] Fehlende Warnungen für veraltete Features
  • [SPARK-47733] [ SC-162628][ss] Hinzufügen benutzerdefinierter Metriken für transformWithState-Operatorteil des Abfragefortschritts
  • [SPARK-47784] [SC-162623][ss] Führen Sie TTLMode und TimeoutMode in einem einzigen TimeMode zusammen.
  • [SPARK-47775] [SC-162319][sql] Unterstützen verbleibende Skalartypen in der Variantenspezifikation.
  • [SPARK-47736] [ SC-162503][sql] Hinzufügen von Unterstützung für AbstractArrayType
  • [SPARK-47081] [SC-161758][connect] Unterstützung für den Fortschritt der Abfrageausführung
  • [SPARK-47682] [SC-162138][sql] Unterstützung der Umwandlung von Variant.
  • [SPARK-47802] [SC-162478][sql] Wiederherstellen () aus der Bedeutung "struct() zurück zur Bedeutung *
  • [SPARK-47680] [SC-162318][sql] Fügen Sie variant_explode Ausdruck hinzu.
  • [SPARK-47809] [SC-162511][sql] checkExceptionInExpression sollte den Fehler für jeden Codegenmodus überprüfen.
  • [SPARK-41811] [ SC-162470][python][CONNECT] Implementieren SQLStringFormatter mit WithRelations
  • [SPARK-47693] [SC-162326][sql] Optimierung für den Kleinschreibvergleich von UTF8String hinzufügen, der in UTF8_BINARY_LCASE-Kollation verwendet wird.
  • [SPARK-47541] [SC-162006][sql] Sortierte Zeichenfolgen in komplexen Typen, die Vorgänge umgekehrt unterstützen, array_join, Verketten, Zuordnung
  • [SPARK-46812] [SC-161535][connect][PYTHON] Unterstützung von ResourceProfile in mapInPandas / mapInArrow ermöglichen
  • [SPARK-47727] [SC-161982][python] Machen Sie SparkConf auf Root-Ebene für sowohl SparkSession als auch SparkContext
  • [SPARK-47406] [SC-159376][sql] Behandeln von TIMESTAMP und DATETIME in MYSQLDialect
  • [SPARK-47081] Rückgängig machen “[SC-161758][connect] Unterstützung für Abfragenausführ…
  • [SPARK-47681] [SC-162043][sql] Fügen Sie den Ausdruck schema_of_variant hinzu.
  • [SPARK-47783] [ SC-162222] Fügen Sie einige fehlende SQLSTATEs hinzu, um den zu verwendenden YYY000 zu bereinigen...
  • [SPARK-47634] [SC-161558][sql] Hinzufügen von Legacyunterstützung zum Deaktivieren der Normalisierung von Kartenschlüsseln
  • [SPARK-47746] [ SC-162022] Implementierung der ordinalbasierten Bereichscodierung im RocksDBStateEncoder
  • [SPARK-47285] [SC-158340][sql] AdaptiveSparkPlanExec sollte immer den Context.session verwenden.
  • [SPARK-47643] [SC-161534][ss][PYTHON] Hinzufügen von Pyspark-Test für Python-Streamingquelle
  • [SPARK-47582] [SC-161943][sql] Migrieren von Catalyst logInfo mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-47558] [ SC-162007][ss] State TTL-Unterstützung für ValueState
  • [SPARK-47358] [SC-160912][sql][COLLATION] Verbessern der Unterstützung von Wiederholungsausdrücken, um korrekten Datentyp zurückzugeben
  • [SPARK-47504] [SC-162044][sql] Auflösung der AbstractDataType simpleStrings für StringTypeCollated
  • [SPARK-47719] Revertiere “[SC-161909][sql] Ändern spark.sql.legacy.t...”
  • [SPARK-47657] [SC-162010][sql] Unterstützung für Kollationsfilter-Pushdowns pro Dateiquelle implementieren
  • [SPARK-47081] [SC-161758][connect] Unterstützung für den Fortschritt der Abfrageausführung
  • [SPARK-47744] [ SC-161999] Hinzufügen von Unterstützung für negative Bytes im Bereichs-Encoder
  • [SPARK-47713] [SC-162009][sql][CONNECT] Beheben eines Self-Join-Fehlers
  • [SPARK-47310] [SC-161930][ss] Hinzufügen eines Mikro-Benchmarks für Zusammenführungsvorgänge für mehrere Werte im Wertbereich des Zustandsspeichers
  • [SPARK-47700] [SC-161774][sql] Beheben der Formatierung von Fehlermeldungen mit treeNode
  • [SPARK-47752] [SC-161993][ps][CONNECT] Machen Pyspark.pandas kompatibel mit pyspark-connect
  • [SPARK-47575] [SC-161402][spark-47576][SPARK-47654] Implementieren der LogWarning/logInfo-API im strukturierten Protokollierungsframework
  • [SPARK-47107] [SC-161201][ss][PYTHON] Implementieren des Partitionslesers für python-Streamingdatenquelle
  • [SPARK-47553] [SC-161772][ss] Hinzufügen der Java-Unterstützung für transformWithState-Operator-APIs
  • [SPARK-47719] [SC-161909][sql] Ändern spark.sql.legacy.timeParserPolicy standardmäßig in KORRIGIERT
  • [SPARK-47655] [SC-161761][ss] Integrieren des Zeitgebers in die Behandlung des Anfangszustands für Zustand v2
  • [SPARK-47665] [SC-161550][sql] Verwenden von SMALLINT zum Schreiben von ShortType in MYSQL
  • [SPARK-47210] [SC-161777][sql] Hinzufügen von impliziten Umwandlungen ohne bestimmte Unterstützung
  • [SPARK-47653] [ SC-161767][ss] Unterstützung für negative numerische Typen und Encoder für Bereichsscanschlüssel hinzufügen.
  • [SPARK-46743] [SC-160777][sql] Zählfehler nach konstanter Faltung
  • [SPARK-47525] [SC-154568][sql] Unterstützung der korrelierten Verknüpfung von Unterabfragen bei Kartenattributen
  • [SPARK-46366] [SC-151277][sql] Verwenden Sie WITH-Ausdruck in BETWEEN, um doppelte Ausdrücke zu vermeiden
  • [SPARK-47563] [SC-161183][sql] Hinzufügen der Kartennormalisierung beim Erstellen
  • [SPARK-42040] [SC-161171][sql] SPJ: Einführung einer neuen API für V2-Eingabepartition zum Melden von Partitionsstatistiken
  • [SPARK-47679] [ SC-161549][sql] Verwenden HiveConf.getConfVars oder Hive übertragen Namen direkt
  • [SPARK-47685] [SC-161566][sql] Unterstützung für Stream Typ in Dataset#groupBy wiederherstellen
  • [SPARK-47646] [SC-161352][sql] Stellen Sie try_to_number NULL für falsch formatierte Eingaben zurück.
  • [SPARK-47366] [ SC-161324][python] Hinzufügen von Pyspark- und Dataframe-parse_json Aliasen
  • [SPARK-47491] [ SC-161176][core] Fügen Sie slf4j-api zuerst dem Klassenpfad hinzu, vor den anderen im jars Verzeichnis.
  • [SPARK-47270] [SC-158741][sql] Dataset.isEmpty projiziert CommandResults lokal
  • [SPARK-47364] [SC-158927][Core] Plugins warnen lassen, wenn sie auf unidirektionale Nachrichten antworten
  • [SPARK-47280] [SC-158350][sql] Zeitzoneneinschränkung für ORACLE TIMESTAMP WITH entfernen TIMEZONE
  • [SPARK-47551] [SC-161542][sql] Fügen Sie den Ausdruck variant_get hinzu.
  • [SPARK-47559] [ SC-161255][sql] Codegen-Unterstützung für Variante parse_json
  • [SPARK-47572] [SC-161351][sql] Sicherstellen, dass FensterpartitionSpec sortierbar ist.
  • [SPARK-47546] [SC-161241][sql] Verbesserung der Validierung beim Lesen der Variante aus Parquet
  • [SPARK-47543] [SC-161234][connect][PYTHON] dict als MapType aus einem Pandas DataFrame ableiten, um die Erstellung eines DataFrames zu ermöglichen
  • [SPARK-47485] [SC-161194][sql][PYTHON][connect] Erstellen einer Spalte mit Sortierungen in der Dataframe-API
  • [SPARK-47641] [ SC-161376][sql] Verbessern der Leistung für UnaryMinus und Abs
  • [SPARK-47631] [ SC-161325][sql] Nicht verwendete SQLConf.parquetOutputCommitterClass Methode entfernen
  • [SPARK-47674] [SC-161504][core] Standardmäßig aktivieren spark.metrics.appStatusSource.enabled
  • [SPARK-47273] [SC-161162][ss][PYTHON] implementieren die Python-Datenstrom-Writer-Schnittstelle.
  • [SPARK-47637] [SC-161408][sql] Verwendung von errorCapturingIdentifier an mehr Stellen
  • [SPARK-47497] Wiederherstellen von "[SC-160724][sql] Make to_csv support the output of array/struct/map/binary as pretty strings""
  • [SPARK-47492] [SC-161316][sql] Leerzeichenregeln im Lexer erweitern
  • [SPARK-47664] [SC-161475][python][CONNECT] Überprüfen des Spaltennamens mit zwischengespeicherten Schemas
  • [SPARK-47638] [SC-161339][ps][CONNECT] Spaltennamenüberprüfung überspringen in PS
  • [SPARK-47363] [SC-161247][ss] Anfangszustand ohne Zustandsleserimplementierung für Die Status-API v2.
  • [SPARK-47447] [SC-160448][sql] Zulassen des Lesens von ZeitstempelLTZ als TimestampNTZ
  • [SPARK-47497] Rückgängig machen von “[SC-160724][sql] to_csv so anpassen, dass die Ausgabe von array/struct/map/binary als lesbare Zeichenfolgen unterstützt wird”
  • [SPARK-47434] [SC-160122][webui] Korrigiere statistics Link in StreamingQueryPage
  • [SPARK-46761] [SC-159045][sql] Zitierte Zeichenfolgen in einem JSON-Pfad sollten unterstützt werden? characters
  • [SPARK-46915] [ SC-155729][sql] Vereinfachen UnaryMinusAbs und Fehlerklasse ausrichten
  • [SPARK-47431] [SC-160919][sql] Sitzungsebene Standardkollation hinzufügen
  • [SPARK-47620] [SC-161242][python][CONNECT] Hinzufügen einer Hilfsfunktion zum Sortieren von Spalten
  • [SPARK-47570] [SC-161165][ss] Integration der Änderungen am Bereichsscan-Encoder mit der Implementierung des Zeitgebers
  • [SPARK-47497] [SC-160724][sql] to_csv unterstützt die Ausgabe von array/struct/map/binary als ansprechend formatierte Zeichenfolgen.
  • [SPARK-47562] [ SC-161166][connect] Faktorliteralbehandlung außerhalb des plan.py
  • [SPARK-47509] [SC-160902][sql] Unterabfrageausdrücke in Lambda- und Höherordnungsfunktionen blockieren
  • [SPARK-47539] [SC-160750][sql] Festlegen des Rückgabewerts der Methode castToStringAny => UTF8String
  • [SPARK-47372] [SC-160905][ss] Hinzufügen von Unterstützung für bereichsbasierten Schlüsselstatus-Encoder für die Verwendung mit dem Statusspeicheranbieter
  • [SPARK-47517] [SC-160642][core][SQL] Bevorzuge Utils.bytesToString für die Größendarstellung
  • [SPARK-47243] [ SC-158059][ss] Korrigieren Sie den Paketnamen von StateMetadataSource.scala
  • [SPARK-47367] [SC-160913][python][CONNECT] Unterstützen von Python-Datenquellen mit Spark Connect
  • [SPARK-47521] [SC-160666][Core] Beim Lesen von Shuffle-Daten aus externem Speicher verwenden Utils.tryWithResource
  • [SPARK-47474] [SC-160522][Core] Zurücksetzen von SPARK-47461 und Hinzufügen einiger Kommentare
  • [SPARK-47560] [SC-160914][python][CONNECT] Vermeiden von RPC, um den Spaltennamen mit zwischengespeichertem Schema zu validieren
  • [SPARK-47451] [SC-160749][sql] Unterstützung für to_json(variant).
  • [SPARK-47528] [SC-160727][sql] Hinzufügen der UserDefinedType-Unterstützung zu DataTypeUtils.canWrite
  • [SPARK-44708] Rückgängig machen von “[SC-160734][python] Migration von test_reset_index assert_eq zur Verwendung von assertDataFrameEqual”
  • [SPARK-47506] [SC-160740][sql] Unterstützung für alle Dateiformate für sortierte Datentypen hinzufügen
  • [SPARK-47256] [SC-160784][sql] Zuweisen von Namen zu Fehlerklassen _LEGACY_ERROR_TEMP_102[4-7]
  • [SPARK-47495] [SC-160720][core] Fehlerbehebung: primäre Ressource Jar wird zweimal im "spark.jars" im k8s-Cluster-Modus hinzugefügt.
  • [SPARK-47398] [SC-160572][sql] Extrahieren sie eine Eigenschaft für InMemoryTableScanExec, um die Erweiterung der Funktionalität zu ermöglichen.
  • [SPARK-47479] [SC-160623][sql] Optimize kann keine Daten in Beziehungen mit mehreren Pfaden schreiben
  • [SPARK-47483] [SC-160629][sql] Unterstützung für Aggregations- und Verknüpfungsvorgänge für Arrays sortierter Zeichenfolgen hinzufügen
  • [SPARK-47458] [SC-160237][Kern] Behebung des Problems bei der Berechnung der maximalen gleichzeitigen Aufgaben für die Barrierestufe
  • [SPARK-47534] [ SC-160737][sql] Wechseln o.a.s.variant zu o.a.s.types.variant
  • [SPARK-47396] [SC-159312][sql] Allgemeine Abbildung für TIME WITHOUT TIME ZONE auf TimestampNTZType hinzufügen
  • [SPARK-44708] [SC-160734][python] Migrieren test_reset_index assert_eq zur Verwendung von assertDataFrameEqual
  • [SPARK-47309] [SC-157733][sc-160398][SQL] XML: Hinzufügen von Schema-Inferenztests für Wert-Tags
  • [SPARK-47007] [SC-160630][sql] Hinzufügen des MapSort Ausdrucks
  • [SPARK-47523] [ SC-160645][sql] Ersetze das veraltete JsonParser#getCurrentName durch JsonParser#currentName
  • [SPARK-47440] [SC-160635][sql] Korrigieren des Übertragens nicht unterstützter Syntax auf MsSqlServer
  • [SPARK-47512] [SC-160617][ss] Tag-Vorgangstyp, der zusammen mit dem Erwerb/Freigabe der RocksDB-Zustandsspeicher-Instanz-Sperre verwendet wird
  • [SPARK-47346] [SC-159425][python] Den Daemonmodus beim Erstellen von Python-Planer-Workers konfigurierbar machen
  • [SPARK-47446] [SC-160163][Kern] BlockManager rechtzeitig vor removeBlockInternal warnen
  • [SPARK-46526] [SC-156099][sql] Unterstützung LIMIT über korrelierte Unterabfragen, bei denen prädikate nur auf äußere Tabelle verweisen
  • [SPARK-47461] [SC-160297][Kern] Private Funktion totalRunningTasksPerResourceProfile von ExecutorAllocationManager entfernen
  • [SPARK-47422] [SC-160219][sql] Unterstützung von kollationierten Zeichenfolgen in Arrayvorgängen
  • [SPARK-47500] [ SC-160627][python][CONNECT] Verarbeitung von Faktorspaltennamen außerhalb von plan.py
  • [SPARK-47383] [SC-160144][core] Unterstützung von spark.shutdown.timeout Konfiguration
  • [SPARK-47342] [SC-159049]Revert "[SQL] Support TimestampNTZ for DB2 TIMESTAMP WITH TIME ZONE"
  • [SPARK-47486] [SC-160491][connect] Entfernen der nicht verwendeten privaten ArrowDeserializers.getString Methode
  • [SPARK-47233] [SC-154486][connect][SS][2/2] Client- und Server-Logik für clientseitigen Streaming-Abfrage-Listener
  • [SPARK-47487] [SC-160534][sql] Vereinfachen von Code in AnsiTypeCoercion
  • [SPARK-47443] [ SC-160459][sql] Unterstützung von Fensteraggregaten für Sortierungen
  • [SPARK-47296] [SC-160457][sql][COLLATION] Nicht unterstützte Funktionen für nicht binäre Kollationen fehlschlagen
  • [SPARK-47380] [SC-160164][connect] Stellen Sie auf der Serverseite sicher, dass die SparkSession identisch ist.
  • [SPARK-47327] [SC-160069][sql] Test zur Parallelität von Sortierschlüsseln in CollationFactorySuite verschieben
  • [SPARK-47494] [ SC-160495][Dokumentation] Migration der Dokumentation zur Verhaltensänderung der Parquet-Zeitstempel-Erkennung seit Spark 3.3 hinzufügen
  • [SPARK-47449] [SC-160372][ss] Listen-/Timer-Unit-Tests neu strukturieren und aufteilen.
  • [SPARK-46473] [SC-155663][sql] Wiederverwendungsmethode getPartitionedFile
  • [SPARK-47423] [SC-160068][sql] Sortations - Festlegen der Vorgangsunterstützung für Zeichenfolgen mit Sortierungen
  • [SPARK-47439] [SC-160115][python] Dokumentiere die Python Data Source API auf der API-Referenzseite
  • [SPARK-47457] [ SC-160234][sql] Anpassung IsolatedClientLoader.supportsHadoopShadedClient für die Unterstützung von Hadoop 3.4+
  • [SPARK-47366] [SC-159348][sql] Implementieren sie parse_json.
  • [SPARK-46331] [SC-152982][sql] Entfernen von CodegenFallback aus einer Teilmenge von DateTime-Ausdrücken und Version()-Ausdruck
  • [SPARK-47395] [ SC-159404] Füge Kollation und Sortierung zu anderen APIs hinzu
  • [SPARK-47437] [SC-160117][python][CONNECT] Korrigieren Sie die Fehlerklasse für DataFrame.sort*
  • [SPARK-47174] [SC-154483][connect][SS][1/2] Serverseitiger SparkConnectListenerBusListener für Client-seitige Streaming-Query-Listener
  • [SPARK-47324] [SC-158720][sql] Fügen Sie fehlende Zeitstempelkonvertierung für JDBC geschachtelte Typen hinzu.
  • [SPARK-46962] [SC-158834][ss][PYTHON] Hinzufügen der Schnittstelle für die Python Streaming-Datenquellen-API und Implementieren von Python-Workern zum Ausführen der Python-Streamingdatenquelle
  • [SPARK-45827] [SC-158498][sql] Verschieben von Datentypüberprüfungen in CreatableRelationProvider
  • [SPARK-47342] [SC-158874][sql] Unterstützung von TimestampNTZ für DB2 TIMESTAMP WITH TIME ZONE
  • [SPARK-47399] [SC-159378][sql] Deaktiviert generierte Spalten für Ausdrücke mit Kollationen
  • [SPARK-47146] [ SC-158247][Core] Mögliches Thread-Leck beim Sort-Merge-Join
  • [SPARK-46913] [SC-159149][ss] Hinzufügen von Unterstützung für Verarbeitungs-/Ereigniszeitbasierte Zeitgeber mit transformWithState-Operator
  • [SPARK-47375] [SC-159063][sql] Fügen Sie Richtlinien für die Zeitstempelzuordnung in JdbcDialect#getCatalystType
  • [SPARK-47394] [SC-159282][sql] Unterstützt TIMESTAMP MIT ZEITZONE für H2Dialect
  • [SPARK-45827] Rückgängig machen von „[SC-158498][sql] Verschieben von Datentypüberprüfungen in ...
  • [SPARK-47208] [SC-159279][core] Überschreibung des Basis-Overhead-Speichers erlauben
  • [SPARK-42627] [SC-158021][spark-26494][SQL] Unterstützung von Oracle TIMESTAMP MIT LOKALER ZEITZONE
  • [SPARK-47055] [ SC-156916][python] Upgrade MyPy 1.8.0
  • [SPARK-46906] [SC-157205][ss] Hinzufügen einer Überprüfung für die Änderung zustandsbehafteter Operatoren im Streaming
  • [SPARK-47391] [SC-159283][sql] Entfernen Sie die Problemumgehung für Testfälle für JDK 8.
  • [SPARK-47272] [SC-158960][ss] MapState-Implementierung für State-API v2 hinzufügen.
  • [SPARK-47375] [SC-159278][doc][FollowUp] Korrektur eines Fehlers in der Dokumentation der Option preferTimestampNTZ in JDBC.
  • [SPARK-42328] [SC-157363][sql] Entfernen von _LEGACY_ERROR_TEMP_1175 aus Fehlerklassen
  • [SPARK-47375] [SC-159261][doc][FollowUp] Korrigieren Sie die Beschreibung der Option preferTimestampNTZ in der JDBC-Dokumentation.
  • [SPARK-47344] [SC-159146] Erweitern Sie den INVALID_IDENTIFIER-Fehler über das Abfangen von '-' in einem nicht-angeführten Bezeichner hinaus und beheben Sie „IS! NULL“ et al.
  • [SPARK-47340] [SC-159039][sql] „collate“ im StringType-Typnamen in Kleinbuchstaben ändern.
  • [SPARK-47087] [SC-157077][sql] Auslösen der Spark-Ausnahme mit einer Fehlerklasse bei der Überprüfung des Konfigurationswerts
  • [SPARK-47327] [SC-158824][sql] Beheben von Threadsicherheitsproblem in ICU Collator
  • [SPARK-47082] [SC-157058][sql] Behebung des out-of-bounds Fehlerzustands
  • [SPARK-47331] [SC-158719][ss] Serialisierung mithilfe von Fallklassen/Primitiven/POJOs, basierend auf einem SQL-Encoder für die beliebigen Zustands-API v2.
  • [SPARK-47250] [ SC-158840][ss] Fügen Sie zusätzliche Validierungen und NERF-Änderungen für den RocksDB-Zustandsanbieter hinzu und verwenden Sie Spaltenfamilien.
  • [SPARK-47328] [SC-158745][sql] Kollation UCS_BASIC umbenennen in UTF8_BINARY
  • [SPARK-47207] [SC-157845][core] Unterstützung spark.driver.timeout und DriverTimeoutPlugin
  • [SPARK-47370] [SC-158956][Dokumentation] Migrationsdokument: TimestampNTZ-Typherleitung auf Parquet-Dateien
  • [SPARK-47309] [ SC-158827][sql][XML] Füge Unit-Tests zur Schema-Inferenz hinzu
  • [SPARK-47295] [ SC-158850][sql] ICU StringSearch für die startsWith und endsWith Funktionen hinzugefügt
  • [SPARK-47343] [SC-158851][sql] Beheben sie NPE, wenn sqlString der Variable Wert null ist, wird sofort ausgeführt.
  • [SPARK-46293] [SC-150117][connect][PYTHON] Verwenden transitiver protobuf Abhängigkeit
  • [SPARK-46795] [ SC-154143][sql] Ersetzen UnsupportedOperationException durch SparkUnsupportedOperationException in sql/core
  • [SPARK-46087] [ SC-149023][python] Synchronisieren von PySpark-Abhängigkeiten in Dokumenten und Entwicklungsanforderungen
  • [SPARK-47169] [SC-158848][sql] Deaktivieren des Bucketings für collatierte Spalten
  • [SPARK-42332] [SC-153996][sql] Änderung des 'require' zu einer SparkException in ComplexTypeMergingExpression
  • [SPARK-45827] [SC-158498][sql] Verschieben von Datentypüberprüfungen in CreatableRelationProvider
  • [SPARK-47341] [SC-158825][connect] Ersetzen von Befehlen durch Relationen in einigen Tests der SparkConnectClientSuite
  • [SPARK-43255] [SC-158026][sql] Ersetzen Sie die Fehlerklasse _LEGACY_ERROR_TEMP_2020 durch einen internen Fehler.
  • [SPARK-47248] [SC-158494][sql][COLLATION] Verbesserte Unterstützung der Zeichenfolgenfunktion: enthält:
  • [SPARK-47334] [ SC-158716][sql] Lassen Sie withColumnRenamed die Implementierung von withColumnsRenamed wiederverwenden
  • [SPARK-46442] [SC-153168][sql] DS V2 unterstützt das Herunterdrücken von PERCENTILE_CONT und PERCENTILE_DISC.
  • [SPARK-47313] [SC-158747][sql] scala.MatchError-Behandlung innerhalb von QueryExecution.toInternalError hinzugefügt.
  • [SPARK-45827] [SC-158732][sql] Variante Singleton-Typ für Java hinzufügen
  • [SPARK-47337] [SC-158743][sql][DOCKER] Upgrade DB2 Docker-Image-Version auf 11.5.8.0
  • [SPARK-47302] [SC-158609][sql] Schlüsselwort als Bezeichner gruppieren
  • [SPARK-46817] [SC-154196][core] Behebung der spark-daemon.sh Verwendung durch Hinzufügen des decommission Befehls
  • [SPARK-46739] [ SC-153553][sql] Fügen Sie die Fehlerklasse hinzu. UNSUPPORTED_CALL
  • [SPARK-47102] [ SC-158253][sql] Hinzufügen des COLLATION_ENABLED Konfigurationsflags
  • [SPARK-46774] [SC-153925][sql][AVRO] Verwenden Sie mapreduce.output.fileoutputformat.compress anstelle veralteter mapred.output.compress in Avro-Schreibaufträgen
  • [SPARK-45245] [SC-146961][python][CONNECT] PythonWorkerFactory: Timeout, wenn der Worker keine Verbindung zurück herstellt.
  • [SPARK-46835] [SC-158355][sql][Collations] Join-Unterstützung für nicht binäre Sortierungen
  • [SPARK-47131] [SC-158154][sql][COLLATION] Zeichenfolgenfunktionsunterstützung: enthält, beginnt mit, endet mit
  • [SPARK-46077] [SC-157839][sql] Berücksichtigen Sie den Typ, der von TimestampNTZConverter in JdbcDialect.compileValue generiert wird.
  • [SPARK-47311] [SC-158465][sql][PYTHON] Unterdrücken von Python-Ausnahmen, bei denen PySpark sich nicht im Python-Pfad befindet
  • [SPARK-47319] [SC-158599][sql] Verbesserung der Berechnung der fehlenden Eingaben
  • [SPARK-47316] [SC-158606][sql] Fix TimestampNTZ in Postgres Array
  • [SPARK-47268] [SC-158158][sql][Collations] Unterstützung für die Neupartitionierung mit Kollationen
  • [SPARK-47191] [SC-157831][sql] Vermeidung unnötiger Relationssuche beim Aufheben des Caches für Tabellen/Ansichten
  • [SPARK-47168] [SC-158257][sql] Deaktivieren Sie das Parquet-Filter-Pushdown beim Arbeiten mit nicht standardmäßig sortierten Zeichenfolgen.
  • [SPARK-47236] [SC-158015][Core] Fix deleteRecursivelyUsingJavaIO zum Überspringen nicht vorhandener Dateieingaben
  • [SPARK-47238] [SC-158466][sql] Reduzieren der Speicherauslastung durch Erstellen von generiertem Code in WSCG als Übertragungsvariable
  • [SPARK-47249] [SC-158133][connect] Behebung eines Fehlers, bei dem alle Verbindungsausführungen unabhängig vom tatsächlichen Status als abgebrochen betrachtet werden
  • [SPARK-47202] [SC-157828][python] Tippfehler korrigieren, der Datumszeiten mit tzinfo zerstört.
  • [SPARK-46834] [SC-158139][sql][Kollationen] Unterstützung für Aggregate
  • [SPARK-47277] [ SC-158351][3.5] PySpark util function assertDataFrameEqual sollte das Streamen von DF nicht unterstützen
  • [SPARK-47155] [SC-158473][python] Fehlerklassenproblem beheben
  • [SPARK-47245] [SC-158163][sql] Verbessern des Fehlercodes für INVALID_PARTITION_COLUMN_DATA_TYPE
  • [SPARK-39771] [SC-158425][core] Fügen Sie eine Warnung Dependency hinzu, wenn eine zu große Anzahl von Shuffle-Blöcken erstellt werden soll.
  • [SPARK-47277] [ SC-158329] PySpark util function assertDataFrameEqual sollte streaming DF nicht unterstützen
  • [SPARK-47293] [SC-158356][core] Erstelle batchSchema mit sparkSchema anstatt sequentieller Anfügung einzelner Komponenten
  • [SPARK-46732] [SC-153517][connect] Ermöglichen, dass der Subquery/Broadcast-Thread mit der Artefaktverwaltung von Connect funktioniert.
  • [SPARK-44746] [SC-158332][python] Hinzufügen weiterer Python UDTF-Dokumentation für Funktionen, die Eingabetabellen akzeptieren
  • [SPARK-47120] [SC-157517][sql] Null-Vergleichsdatenfilter aus Unterabfragen erzeugt in NPE im Parkettfilter
  • [SPARK-47251] [SC-158291][python] Blockieren ungültiger Typen aus dem args Argument für sql Befehl
  • [SPARK-47251] Rückgängig machen: “[SC-158121][python] Ungültige Typen aus dem args Argument für sql Befehl blockieren”
  • [SPARK-47015] [SC-157900][sql] Deaktivieren der Partitionierung für sortierte Spalten
  • [SPARK-46846] [ SC-154308][core] WorkerResourceInfo explizit auf Serializable erweitern
  • [SPARK-46641] [ SC-156314][ss] MaxBytesPerTrigger-Schwellenwert hinzufügen
  • [SPARK-47244] [SC-158122][connect]SparkConnectPlanner interne Funktionen privat machen
  • [SPARK-47266] [ SC-158146][connect] Geben Sie ProtoUtils.abbreviate denselben Typ wie die Eingabe zurück.
  • [SPARK-46961] [SC-158183][ss] Verwenden von ProcessorContext zum Speichern und Abrufen des Handles
  • [SPARK-46862] [SC-154548][sql] Deaktivieren des Löschens von CSV-Spalten im mehrzeiligen Modus
  • [SPARK-46950] [SC-155803][core][SQL] Fehlerklasse ausrichten not available codec
  • [SPARK-46368] [ SC-153236][core] Unterstützung readyz in der REST-Übermittlungs-API
  • [SPARK-46806] [SC-154108][python] Verbessern der Fehlermeldung für spark.table, wenn der Argumenttyp falsch ist
  • [SPARK-47211] [SC-158008][connect][PYTHON] Fix ignorierte PySpark Connect-Zeichenfolgensortierung
  • [SPARK-46552] [ SC-151366][sql] Ersetzen UnsupportedOperationException durch SparkUnsupportedOperationException in catalyst
  • [SPARK-47147] [SC-157842][python][SQL] Beheben des Fehlers bei der konvertierung von PySpark sortierten Zeichenfolgen
  • [SPARK-47144] [SC-157826][connect][SQL][python] Beheben des Spark Connect-Sortierfehlers durch Hinzufügen des CollateId-Protobuf-Felds
  • [SPARK-46575] [SC-153200][sql][HIVE] HiveThriftServer2.startWithContext DevelopApi wiederholbar machen und die Unzuverlässigkeit von ThriftServerWithSparkContextInHttpSuite beheben
  • [SPARK-46696] [SC-153832][core] In ResourceProfileManager sollten Funktionsaufrufe nach Variablendeklarationen auftreten.
  • [SPARK-47214] [SC-157862][python] Erstellen der UDTF-API für die Analysemethode zum Unterscheiden konstanter NULL-Argumente und anderer Arten von Argumenten
  • [SPARK-46766] [SC-153909][sql][AVRO] ZSTD-Pufferpoolunterstützung für AVRO-Datenquelle
  • [SPARK-47192] [SC-157819] Einige _LEGACY_ERROR_TEMP_0035-Fehler konvertieren
  • [SPARK-46928] [SC-157341][ss] Fügen Sie Unterstützung für ListState in der Api für den beliebigen Zustand v2 hinzu.
  • [SPARK-46881] [ SC-154612][core] Support spark.deploy.workerSelectionPolicy
  • [SPARK-46800] [ SC-154107][core] Support spark.deploy.spreadOutDrivers
  • [SPARK-45484] [SC-146014][sql] Beheben Des Fehlers, der falsche Parkettkomprimierungscodec lz4raw verwendet
  • [SPARK-46791] [SC-154018][sql] Unterstützung für Java Set in JavaTypeInference
  • [SPARK-46332] [SC-150224][sql] Migrieren CatalogNotFoundException zur Fehlerklasse CATALOG_NOT_FOUND
  • [SPARK-47164] [SC-157616][sql] Standardwert eines breiteren Typs, der als schmales Literal von v2 definiert ist, verhält sich genauso wie in v1.
  • [SPARK-46664] [SC-153181][Kern] Verbesserung von Master, um bei null Workern und Apps schnell wiederherzustellen.
  • [SPARK-46759] [SC-153839][sql][AVRO] Codec xz und zstandard unterstützen das Kompressionsniveau für Avro-Dateien

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Siehe Databricks Runtime 15.2 Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.4 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Skala: 2.12.15
  • Python: 3.11.0
  • R: 4.3.2
  • Delta Lake: 3.2.0

Installierte Python-Bibliotheken

Library Version Library Version Library Version
asttokens 2.0.5 astunparse 1.6.3 azure-core 1.30.1
azure-storage-blob 12.19.1 azure-storage-file-datalake 12.14.0 backcall 0.2.0
black 23.3.0 blinker 1.4 boto3 1.34.39
botocore 1.34.39 cachetools 5.3.3 certifi 2023.7.22
cffi 1.15.1 chardet 4.0.0 charset-normalizer 2.0.4
click 8.0.4 cloudpickle 2.2.1 comm 0.1.2
contourpy 1.0.5 cryptography 41.0.3 cycler 0.11.0
Cython 0.29.32 databricks-sdk 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 decorator 5.1.1 distlib 0.3.8
entrypoints 0.4 executing 0.8.3 facets-overview 1.1.1
filelock 3.13.1 fonttools 4.25.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth 2.29.0
google-cloud-core 2.4.1 google-cloud-storage 2.16.0 google-crc32c 1.5.0
google-resumable-media 2.7.0 googleapis-common-protos 1.63.0 grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jedi 0.18.1 jeepney 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 keyring 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-skinny 2.11.3
more-itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 packaging 23.2
pandas 1.5.3 parso 0.8.3 pathspec 0.10.3
patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Pillow 9.4.0 pip 23.2.1 platformdirs 3.10.0
plotly 5.9.0 prompt-toolkit 3.0.36 proto-plus 1.23.0
protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.38
pyparsing 3.0.9 python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
pytz 2022.7 PyYAML 6.0 pyzmq 23.2.0
requests 2.31.0 rsa 4.9 s3transfer 0.10.1
scikit-learn 1.3.0 scipy 1.11.1 seaborn 0.12.2
SecretStorage 3.3.1 setuptools 68.0.0 six 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id 5.11
stack-data 0.2.0 statsmodels 0.14.0 tenacity 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traitlets 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
ujson 5.4.0 unattended-upgrades 0.1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 wcwidth 0.2.5
wheel 0.38.4 zipp 3.11.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Momentaufnahme des Posit Package Manager CRAN installiert.

Library Version Library Version Library Version
arrow 14.0.0.2 askpass 1.2.0 assertthat 0.2.1
backports 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 blob 1.2.4 boot 1.3-28
brew 1.0-10 brio 1.1.4 broom 1.0.5
bslib 0.6.1 cachem 1.0.8 callr 3.7.3
caret 6.0-94 cellranger 1.1.0 chron 2.3-61
class 7.3-22 cli 3.6.2 clipr 0.8.0
clock 0.7.0 cluster 2.1.4 codetools 0.2-19
colorspace 2.1-0 commonmark 1.9.1 compiler 4.3.2
config 0.3.2 conflicted 1.2.0 cpp11 0.4.7
crayon 1.5.2 credentials 2.0.1 curl 5.2.0
data.table 1.15.0 datasets 4.3.2 DBI 1.2.1
dbplyr 2.4.0 desc 1.4.3 devtools 2.4.5
diagram 1.6.5 diffobj 0.3.5 digest 0.6.34
downlit 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 ellipsis 0.3.2 evaluate 0.23
fansi 1.0.6 farver 2.1.1 fastmap 1.1.1
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
foreign 0.8-85 forge 0.2.0 fs 1.6.3
future 1.33.1 future.apply 1.11.1 gargle 1.5.2
generics 0.1.3 gert 2.0.1 ggplot2 3.4.4
gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.2 glue 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
graphics 4.3.2 grDevices 4.3.2 grid 4.3.2
gridExtra 2.3 gsubfn 0.7 gt 0.10.1
gtable 0.3.4 hardhat 1.3.1 haven 2.5.4
highr 0.10 hms 1.1.3 htmltools 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 ids 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 knitr 1.45 labeling 0.4.3
later 1.3.2 lattice 0.21-8 lava 1.7.3
lifecycle 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.12 MASS 7.3-60
Matrix 1.5-4.1 memoise 2.0.1 methods 4.3.2
mgcv 1.8-42 mime 0.12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 parallel 4.3.2
parallelly 1.36.0 pillar 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 praise 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 progress 1.2.3
progressr 0.14.0 promises 1.2.1 proto 1.0.0
proxy 0.4-27 ps 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reactable 0.4.4
reactR 0.5.0 readr 2.1.5 readxl 1.4.3
recipes 1.0.9 rematch 2.0.0 rematch2 2.1.2
remotes 2.4.2.1 reprex 2.1.0 reshape2 1.4.4
rlang 1.1.3 rmarkdown 2.25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 rvest 1.0.3 sass 0.4.8
scales 1.3.0 selectr 0.4-2 sessioninfo 1.2.2
shape 1.4.6 shiny 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 spatial 7.3-15 splines 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.3.2
stats4 4.3.2 stringi 1.8.3 stringr 1.5.1
survival 3.5-5 swagger 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
textshaping 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 timechange 0.3.0
timeDate 4032.109 tinytex 0.49 tools 4.3.2
tzdb 0.4.0 urlchecker 1.0.1 usethis 2.2.2
utf8 1.2.4 utils 4.3.2 uuid 1.2-0
V8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
vroom 1.6.5 waldo 0.5.2 whisker 0.4.1
withr 3.0.0 xfun 0.41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
zeallot 0.1.0 zip 2.3.1

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-machinelearning 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-support 1.12.610
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics stream 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.17.1
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine caffeine 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 72.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.25
io.delta delta-sharing-client_2.12 1.0.5
io.dropwizard.metrics metrics-annotation 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collector 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow arrow-vector 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap shims 0.9.45-databricks
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-compatible 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1