Freigeben über


Databricks Runtime 14.3 LTS

Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 14.3 LTS, die von Apache Spark 3.5.0 unterstützt wird.

Diese Version wurde von Databricks im Februar 2024 veröffentlicht.

Hinweis

LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.

Tipp

Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.

Neue Features und Verbesserungen

Unterstützung des Arbeitsbereichsdateisystems in PySpark User-Defined Functions (UDFs) in Standardzugriffsmodusclustern (früher freigegebener Zugriffsmodus)

PySpark UDFs auf Standardclustern können jetzt Python-Module aus Git-Ordnern, Arbeitsbereichsdateienoder UC Volumesimportieren.

Weitere Informationen zum Verwenden von Modulen in Git-Ordnern oder Arbeitsbereichsdateien finden Sie unter Arbeiten mit Python- und R-Modulen.

Unterstützung für MERGE-Optimierungen für Löschvektoren ohne Photon

Photon ist für MERGE-Vorgänge nicht mehr erforderlich, um Löschvektoroptimierungen zu nutzen. Weitere Informationen finden Sie unter Was sind Löschvektoren?.

Spark-Katalog-APIs werden jetzt vollständig im Standardzugriffsmodus unterstützt

Sie können jetzt alle Funktionen in der spark.catalog-API sowohl in Python als auch scala auf compute verwenden, die mit standardzugriffsmodus konfiguriert ist.

Delta UniForm ist jetzt allgemein verfügbar.

UniForm ist jetzt allgemein verfügbar und verwendet die Tabellenfunktion IcebergCompatV2. Sie können UniForm jetzt für vorhandene Tabellen aktivieren oder aktualisieren. Siehe Lesen von Delta-Tabellen mit Iceberg-Clients.

Neue SQL-Funktion EXECUTE IMMEDIATE

Sie können jetzt die EXECUTE IMMEDIATE-Syntax verwenden, um parametrisierte Abfragen in SQL zu unterstützen. Siehe EXECUTE IMMEDIATE.

Neuberechnen von Statistiken mit Überspringen von Daten für Delta-Tabellen

Sie können Statistiken, die im Delta-Protokoll gespeichert sind, jetzt neu berechnen, nachdem Sie zum Überspringen von Daten verwendete Spalten geändert haben. Weitere Informationen finden Sie unter Angeben von Delta-Statistikspalten.

Abfragen von Statusinformationen für zustandsbehaftete Streamingabfragen

Sie können jetzt Daten und Metadaten zu strukturierten Streamingstatus abfragen. Weitere Informationen finden Sie unter Lesen von strukturierten Streamingstatusinformationen.

Verwenden der Microsoft Entra-ID für die Kafka-Authentifizierung auf Standardclustern

Sie können jetzt Event Hubs-Dienste über OAuth mit Microsoft Entra ID auf der Rechenumgebung authentifizieren, die im Standardzugriffsmodus konfiguriert ist. Weitre Informationen finden Sie unter Dienstprinzipal-Authentifizierung mit Microsoft Entra ID und Azure Event Hubs.

Unterstützung für die Datei- und Partitionsbereinigung zum Verbessern der Abfrageleistung hinzugefügt

Um einige Abfragen zu beschleunigen, die in JOIN-Bedingungen Gleichheit mit Nulltoleranz erfordern, werden jetzt DynamicFilePruning und DynamicPartitionPruning für den EqualNullSafe-Operator in JOINs unterstützt.

Deklarieren temporärer Variablen in einer SQL-Sitzung

In dieser Version wird die Möglichkeit eingeführt, temporäre Variablen in einer Sitzung zu deklarieren, die innerhalb von Abfragen festgelegt und dann darauf verwiesen werden kann. Siehe Variablen.

Thrift-Serverupdates zum Entfernen nicht verwendeter Features

Der Thrift-Servercode wurde aktualisiert, um Code für veraltete Features zu entfernen. Aufgrund dieser Änderungen werden die folgenden Konfigurationen nicht mehr unterstützt:

  • Die Hive-Zusatz-JARs, die mit der hive.aux.jars.path-Eigenschaft konfiguriert sind, werden für hive-thriftserver-Verbindungen nicht mehr unterstützt.
  • Die globale Hive-init-Datei (.hiverc), deren Speicherort mit der Eigenschaft hive.server2.global.init.file.location oder der Umgebungsvariable HIVE_CONF_DIR konfiguriert wird, wird für hive-thriftserver-Verbindungen nicht mehr unterstützt.

Verwenden von Truststore- und Keystoredateien in Unity-Katalogvolumes

Sie können nun Truststore- und Keystoredateien in Unity-Katalogvolumes verwenden, um sich bei einer Confluent Schema Registry für Avro- oder Protokollpufferdaten zu authentifizieren. Weitere Informationen finden Sie in der Dokumentation zu Avro- oder Protokollpuffern.

Unterstützung für native XML-Dateiformate (Public Preview)

Native XML-Dateiformatunterstützung befindet sich jetzt in der Public Preview. Die XML-Dateiformatunterstützung ermöglicht das Aufnehmen, Abfragen und Analysieren von XML-Daten für die Batchverarbeitung oder das Streaming. Sie kann Schema- und Datentypen automatisch ableiten und entwickeln, SQL-Ausdrücke wie from_xml unterstützen und XML-Dokumente generieren. Es erfordert keine externen JAR-Dateien und arbeitet nahtlos mit Auto Loader, read_files, COPY INTO und DLT. Weitere Informationen unter Lesen und Schreiben von XML-Dateien.

Unterstützung für den Cloudflare R2-Speicher (Public Preview)

Sie können Cloudflare R2 jetzt als Cloudspeicher für Daten verwenden, die in Unity Catalog registriert sind. Cloudflare R2 ist in erster Linie für Delta Sharing-Anwendungsfälle vorgesehen, in denen Sie die von Cloudanbietern berechneten Datenausgangsgebühren vermeiden möchten, wenn Daten regionsübergreifend übermittelt werden. R2-Speicher unterstützt alle Databricks-Daten und KI-Ressourcen, die in AWS S3, Azure Data Lake Storage und Google Cloud Storage unterstützt werden. Weitere Informationen finden Sie unter Verwenden von Cloudflare R2-Replikaten oder Migrieren von Speicher zu R2 und Erstellen von Speicheranmeldeinformationen zum Herstellen einer Verbindung mit Cloudflare R2.

Spark- und dbutils-Zugriff auf Arbeitsbereichsdateien unterstützen standardzugriffsbasierte Unity-Katalogcluster

Spark- und Lese- und dbutils Schreibzugriff auf Arbeitsbereichsdateien wird jetzt in Unity-Katalogclustern im Standardzugriffsmodusunterstützt. Weitere Informationen finden Sie unter Arbeiten mit Arbeitsbereichsdateien.

Unterstützung von Init-Skripten und Clusterbibliotheken auf Unity-Katalog-Clustern mit Standardzugriff

Die Installation von cluster-übergreifenden Init-Skripts und Python- und JAR-Bibliotheken in Unity-Katalogclustern im Standardzugriffsmodus, einschließlich der Installation mit Clusterrichtlinien, ist jetzt allgemein verfügbar. Databricks empfiehlt, init-Skripts und -Bibliotheken aus Unity Catalog-Volumes zu installieren.

Bibliotheksaktualisierungen

  • Aktualisierte Python-Bibliotheken:
    • „fastjsonschema“ von 2.19.0 auf 2.19.1
    • „filelock“ von 3.12.4 auf 3.13.1
    • „googleapis-common-protos“ von 1.61.0 auf 1.62.0
    • „packaging“ von 22.0 auf 23.2
  • Aktualisierte R-Bibliotheken:
    • „foreign“ von 0.8-82 auf 0.8-85
    • „nlme“ von 3.1-162 auf 3.1-163
    • „rpart“ von 4.1.19 auf 4.1.21
  • Aktualisierte Java-Bibliotheken:
    • „com.databricks.databricks-sdk-java“ von 0.7.0 auf 0.13.0
    • „org.apache.orc.orc-core“ von „1.9.1-shaded-protobuf“ auf „1.9.2-shaded-protobuf“
    • „org.apache.orc.orc-mapreduce“ von „1.9.1-shaded-protobuf“ auf „1.9.2-shaded-protobuf“
    • „org.apache.orc.orc-shims“ von 1.9.1 auf 1.9.2
    • „org.scala-lang.modules.scala-collection-compat_2.12“ von 2.9.0 auf 2.11.0

Apache Spark

Databricks Runtime 14.3 umfasst Apache Spark 3.5.0. Diese Version enthält alle Spark Fixes und Verbesserungen, die in Databricks Runtime 14.2 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-46541] [SC-153546][sql][CONNECT] Korrektur des mehrdeutigen Spaltenverweises in Self-Joins
  • [SPARK-45433] Wiederherstellung von „[SC-145163][sql] Fix von CSV/JSON Schema-Inferenz…
  • [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] addArtifact wiederholbar machen
  • [SPARK-46660] [SC-153391][connect] Aktualisierung des Aktivitätsstatus von SessionHolder durch ReattachExecute-Anforderungen
  • [SPARK-46670] [SC-153273][python][SQL] Machen Sie DataSourceManager selbst klonend, indem statische und Laufzeit-Python-Datenquellen getrennt werden
  • [SPARK-46720] [SC-153410][sql][PYTHON] Umgestalten der Python-Datenquelle zur Ausrichtung an anderen integrierten DSv2-Datenquellen
  • [SPARK-46684] [SC-153275][python][CONNECT] Fix CoGroup.applyInPandas/Arrow, um Argumente ordnungsgemäß zu übergeben
  • [SPARK-46667] [SC-153271][sc-153263][SQL] XML: Auslösen eines Fehlers für mehrere XML-Datenquellen
  • [SPARK-46382] [SC-151881][sql]XML: Festlegung des Standardwerts von ignoreSurroundingSpaces auf „true“
  • [SPARK-46382] [SC-153178][sql] XML: Dokument für ignoreSurroundingSpaces aktualisieren
  • [SPARK-45292] Wiederherstellung von „[SC-151609][sql][HIVE] Entfernen von Guava aus freigegebenen Klassen in IsolatedClientLoader“
  • [SPARK-45292] [SC-151609][sql][HIVE] Guava aus freigegebenen Klassen im IsolatedClientLoader entfernen
  • [SPARK-46311] [SC-150137][core] Protokollierung des endgültigen Zustands von Treibern während Master.removeDriver
  • [SPARK-46413] [SC-151052][python] Überprüfung des returnType der benutzerdefinierten Arrow-Python-Funktion (User-Defined Function, UDF)
  • [SPARK-46633] [WARMFIX][sc-153092][SQL] Korrigieren des Avro-Readers zur Behandlung von Blöcken mit Nulllänge
  • [SPARK-46537] [SC-151286][sql] Konvertierung von NPEs (NullPointerException) und Asserts aus Befehlen in interne Fehler
  • [SPARK-46179] [SC-151678][sql] Hinzufügung von CrossDbmsQueryTestSuites, wodurch ab Postgres andere Datenbank-Managementsysteme (DMBS) für goldene Dateien mit anderen DMBS ausgeführt werden
  • [SPARK-44001] [SC-151413][protobuf] Hinzufügung einer Option zum Zulassen des Entpackens von bekannten protobuf-Wrappertypen
  • [SPARK-40876] [SC-151786][sql] Ausweitung der Typerweiterung für größere Dezimalzahlen in Parquet-Readern
  • [SPARK-46605] [SC-151769][connect] Sicherstellung der Funktionalität von lit/typedLit in der Unterstützung für das Connect-Modul s.c.immutable.ArraySeq
  • [SPARK-46634] [SC-153005][sql] Die Literalüberprüfung darf nicht zu NULL-Feldern vertiefen.
  • [SPARK-37039] [SC-153094][ps] Korrektur von Series.astype zur ordnungsgemäßen Funktion mit dem fehlenden Wert
  • [SPARK-46312] [SC-150163][core] Verwende lower_camel_case in store_types.proto
  • [SPARK-46630] [SC-153084][sql] XML: Überprüfen des XML-Elementnamens beim Schreiben
  • [SPARK-46627] [SC-152981][ss][UI] Korrektur von QuickInfo-Inhalten der Zeitachse in der Streamingbenutzeroberfläche
  • [SPARK-46248] [SC-151774][sql] XML: Unterstützung für ignoreCorruptFiles und ignoreMissingFiles-Optionen
  • [SPARK-46386] [SC-150766][python] Verbessern der Beobachtungsbehauptungen (pyspark.sql.observation)
  • [SPARK-46581] [SC-151789][core] Updatekommentar zu isZero in AccumulatorV2
  • [SPARK-46601] [SC-151785] [CORE] Korrektur des Protokollfehlers in handleStatusMessage
  • [SPARK-46568] [SC-151685][python] Festlegung von Python-Datenquellenoptionen als Wörterbuch ohne Beachtung der Groß-/Kleinschreibung
  • [SPARK-46611] [SC-151783][core] Entfernen Von ThreadLocal durch Ersetzen von SimpleDateFormat durch DateTimeFormatter
  • [SPARK-46604] [SC-151768][sql] Hinzufügung der Unterstützung von Literal.apply durch s.c.immuable.ArraySeq
  • [SPARK-46324] [SC-150223][sql][PYTHON] Korrigieren Sie den Ausgabenamen von pyspark.sql.functions.user und session_user
  • [SPARK-46621] [SC-151794][python] Behandlung von NULL-Werten von Exception.getMessage in der abgefangenen Py4J-Ausnahme
  • [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader sollte beim Erstellen von Spaltenvektoren für die fehlende Spalte den Speichermodus berücksichtigen.
  • [SPARK-46613] [SC-151778][SQL][python] Ausnahme „Protokoll voll“, wenn die Suche in Python-Datenquellen fehlschlägt
  • [SPARK-46559] [SC-151364][mllib] Umschließung von export im Paketnamen mit umgekehrten Schrägstrichen
  • [SPARK-46522] [SC-151784][python] Blockieren der Python-Datenquellenregistrierung mit Namenskonflikten
  • [SPARK-45580] [SC-149956][sql] Behandlung von Fällen, in denen eine geschachtelte Unterabfrage zu einem Existenz-Join wird
  • [SPARK-46609] [SC-151714][sql] Vermeidung einer exponentiellen Zunahme (Explosion) in PartitioningPreservingUnaryExecNode
  • [SPARK-46535] [SC-151288][sql] Korrektur von NPEs, wenn eine Spalte ohne Spaltenstatistiken durch „describe“ erweitert wurde
  • [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Verwenden Sie TypeCoercion.findTightestCommonType für die Kompatibilitätsprüfung
  • [SPARK-40876] [SC-151129][sql] Ausweitung der Typerweiterungen in Parquet-Readern
  • [SPARK-46179] [SC-151069][sql] Abrufen von Code in wiederverwendbare Funktionen in SQLQueryTestSuite
  • [SPARK-46586] [SC-151679][sql] Unterstützen s.c.immutable.ArraySeq als customCollectionCls in MapObjects
  • [SPARK-46585] [SC-151622][core] Direkte Erstellung von metricPeaks als immutable.ArraySeq anstelle der Verwendung von mutable.ArraySeq.toSeq in Executor
  • [SPARK-46488] [SC-151173][sql] Überspringen des TrimAll-Aufrufs während der Zeitstempelanalyse
  • [SPARK-46231] [SC-149724][python] Migration aller verbleibenden Fehler vom Typ NotImplementedError & TypeError zum PySpark-Fehlerframework
  • [SPARK-46348] [SC-150281][core] Unterstützung von spark.deploy.recoveryTimeout
  • [SPARK-46313] [SC-150164][core] Protokollierung der Spark HA-Wiederherstellungsdauer
  • [SPARK-46358] [SC-150307][connect] Vereinfachung der Bedingungsüberprüfung in der ResponseValidator#verifyResponse
  • [SPARK-46380] [SC-151078][sql]Ersetzen der aktuellen Uhrzeit/des aktuellen Datums, bevor die Inlinetabellenausdrücke ausgewertet werden.
  • [SPARK-46563] [SC-151441][sql] Anzeige von simpleString, die nicht „conf spark.sql.debug.maxToStringFields“ folgt
  • [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] Reduzieren Sie die Stapeltiefe, indem Sie (String|Array).size durch (String|Array).length ersetzen.
  • [SPARK-46539] [SC-151469][sql] SELECT * EXCEPT(alle Felder aus einer Struktur) führt zu einem Assertionsfehler.
  • [SPARK-46565] [SC-151414][python] Fehlerklassen und Fehlermeldungen für Python-Datenquellen verfeinern
  • [SPARK-46576] [SC-151614][sql] Verbessern von Fehlermeldungen für den Speichermodus für nicht unterstützte Datenquellen
  • [SPARK-46540] [SC-151355][python] Beachten Sie Spaltennamen, wenn die Lesefunktion der Python-Datenquelle benannte Row-Objekte ausgibt.
  • [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite leakt des Hive SessionState
  • [SPARK-44556] [SC-151562][sql] Wiederverwenden von OrcTail beim Aktivieren von vectorizedReader
  • [SPARK-46587] [SC-151618][sql] XML: Korrektur der Konvertierung großer ganzer XSD-Zahlen
  • [SPARK-46382] [SC-151297][sql] XML: Erfassen von Werten zwischen Elementen
  • [SPARK-46567] [SC-151447][core] Entfernung von ThreadLocal für ReadAheadInputStream
  • [SPARK-45917] [SC-151269][python][SQL] Automatische Registrierung der Python-Datenquelle beim Start
  • [SPARK-28386] [SC-151014][sql] Kann ORDER BY Spalten mit GROUP BY und HAVING nicht auflösen
  • [SPARK-46524] [SC-151446][sql] Verbesserung der Fehlermeldungen für einen ungültigen Speichermodus
  • [SPARK-46294] [SC-150672][sql] Bereinigen der Semantik von Init und Nullwert
  • [SPARK-46301] [SC-150100][core] Unterstützung von spark.worker.(initial|max)RegistrationRetries
  • [SPARK-46542] [SC-151324][sql] Entfernung der Überprüfung c>=0 aus ExternalCatalogUtils#needsEscaping, da das Ergebnis immer „true“ ist
  • [SPARK-46553] [SC-151360][ps] FutureWarning für interpolate mit Objekt-dtype
  • [SPARK-45914] [SC-151312][python] Unterstützung der Commit- und Abbruch-API für Schreibvorgänge in Python-Datenquellen
  • [SPARK-46543] [SC-151350][python][CONNECT] json_tuple soll für leere Felder PySparkValueError auslösen
  • [SPARK-46520] [SC-151227][python] Unterstützung des Überschreibungsmodus für Schreibvorgänge in Python-Datenquellen
  • [SPARK-46502] [SC-151235][sql] Unterstützung von Zeitstempeltypen in UnwrapCastInBinaryComparison
  • [SPARK-46532] [SC-151279][connect] Übergeben von Nachrichtenparametern in Metadaten von ErrorInfo
  • [SPARK-46397] Wiederherstellung von „[SC-151311][python][CONNECT] sha2-Funktion sollte PySparkValueError für ungültige numBits auslösen”
  • [SPARK-46170] [SC-149472][sql] Unterstützung für das Einfügen von Postplaner-Strategieregeln für adaptive Abfragen in SparkSessionExtensions
  • [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable sollte die Tabelle nicht laden.
  • [SPARK-46397] [SC-151311][python][CONNECT] Funktion sha2 sollte PySparkValueError für ungültige numBits auslösen
  • [SPARK-46145] [SC-149471][sql] spark.catalog.listTables löst keine Ausnahme aus, wenn die Tabelle oder Ansicht nicht gefunden wird.
  • [SPARK-46272] [SC-151012][sql] Unterstützung von CTAS (CREATE TABLE AS SELECT) mithilfe von DSv2-Quellen
  • [SPARK-46480] [SC-151127][core][SQL] Korrektur von NPEs beim Versuch, einen Zwischenspeicherungstask für Tabellen auszuführen
  • [SPARK-46100] [SC-149051][core][PYTHON] Reduzierung der Stapeltiefe durch Ersetzen von „(string|array).size“ durch „(string|array).length“
  • [SPARK-45795] [SC-150764][sql] DS V2 unterstützt den Pushdownmodus.
  • [SPARK-46485] [SC-151133][sql] V1Write sollte keine Sortierung hinzufügen, wenn nicht erforderlich.
  • [SPARK-46468] [SC-151121] [SQL] Behandlung des COUNT-Fehlers für EXISTS-Unterabfragen mit „Aggregate“ ohne Gruppierungsschlüssel
  • [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE SQL-Unterstützung
  • [SPARK-46498] [SC-151199][core] Entfernen shuffleServiceEnabled aus o.a.spark.util.Utils#getConfiguredLocalDirs
  • [SPARK-46440] [SC-150807][sql] Legen Sie die Neubasiskonfigurationen standardmäßig auf den modus CORRECTED fest.
  • [SPARK-45525] [SC-151120][sql][PYTHON] Unterstützung für Python-Datenquellenschreibzugriff mit DSv2
  • [SPARK-46505] [SC-151187][connect] Byteschwellenwert konfigurierbar machen in ProtoUtils.abbreviate
  • [SPARK-46447] [SC-151025][sql] Entfernung der Legacy-SQL-Konfigurationen für den datetime-Rebasevorgang
  • [SPARK-46443] [SC-151123][sql] Dezimalgenauigkeit und Skalierung sollte durch den H2-Dialekt entschieden werden.
  • [SPARK-46384] [SC-150694][SPARK-46404][SS][ui] Korrektur des Stapeldiagramms zur Vorgangsdauer auf der Seite für strukturiertes Streaming
  • [SPARK-46207] [SC-151068][sql] Unterstützung von MergeInto in DataFrameWriterV2
  • [SPARK-46452] [SC-151018][sql] Fügen Sie eine neue API in DataWriter hinzu, um einen Iterator von Datensätzen zu schreiben.
  • [SPARK-46273] [SC-150313][sql] Unterstützung von INSERT INTO/OVERWRITE mit DSv2-Quellen
  • [SPARK-46344] [SC-150267][core] Korrekte Ausgabe einer Warnung, wenn ein Treiber vorhanden, der Master aber getrennt ist
  • [SPARK-46284] [SC-149944][python][CONNECT] Hinzufügen session_user Funktion zu Python
  • [SPARK-46043] [SC-149786][sql] Unterstützung beim Erstellen einer Tabelle mit DSv2-Quellen
  • [SPARK-46323] [SC-150191][python] Korrigieren Sie den Ausgabe-Namen von pyspark.sql.functions.now.
  • [SPARK-46465] [SC-151059][python][CONNECT] Hinzufügen von Column.isNaN in PySpark
  • [SPARK-46456] [SC-151050][core] Hinzufügung von spark.ui.jettyStopTimeout, um das Beendigungstimeout des Jetty-Servers zum Aufheben der Blockierung des Herunterfahrens von SparkContext festzulegen
  • [SPARK-43427] [SC-150356][protobuf] Spark Protobuf: Zulassen des Upcastings von ganzzahligen Typen ohne Vorzeichen
  • [SPARK-46399] [SC-151013][14.x][Core] Beendigungsstatus zum Ende-Ereignis der Anwendung hinzufügen, um den Spark-Listener zu verwenden.
  • [SPARK-46423] [SC-150752][python][SQL] Erstellen Sie die Python Data Source-Instanz bei DataSource.lookupDataSourceV2
  • [SPARK-46424] [SC-150765][python][SQL] Unterstützen von Python-Metriken in Python-Datenquelle
  • [SPARK-46330] [SC-151015] Das Laden der Spark-Benutzeroberfläche wird lange blockiert, wenn HybridStore aktiviert ist.
  • [SPARK-46378] [SC-150397][sql] Weiterhin Entfernung der Sortierung (Sort) nach der Konvertierung von „Aggregate“ in „Project“
  • [SPARK-45506] [SC-146959][connect] Hinzufügen der Ivy-URI-Unterstützung zu SparkConnect addArtifact
  • [SPARK-45814] [SC-147871][connect][SQL] Veranlassen Sie ArrowConverters.createEmptyArrowBatch, close() aufzurufen, um ein Speicherleck zu vermeiden.
  • [SPARK-46427] [SC-150759][python][SQL] Ändern Sie die Beschreibung der Python-Datenquelle, damit sie im Explain-Modus ansprechend formatiert wird.
  • [SPARK-45597] [SC-150730][python][SQL] Unterstützen des Erstellens einer Tabelle mit einer Python-Datenquelle in SQL (DSv2 exec)
  • [SPARK-46402] [SC-150700][python] Hinzufügen von getMessageParameters und getQueryContext-Unterstützung
  • [SPARK-46453] [SC-150897][connect] Auslösung einer Ausnahme über internalError() in SessionHolder
  • [SPARK-45758] [SC-147454][sql] Stellen Sie einen Mapper für Hadoop-Komprimierungscodecs vor
  • [SPARK-46213] [PYTHON] Einführung von PySparkImportError für das Fehlerframework
  • [SPARK-46230] [SC-149960][python] Migration von RetriesExceeded zu einem PySpark-Fehler
  • [SPARK-45035] [SC-145887][sql] Korrektur der Meldung eines Fehlers bei ignoreCorruptFiles/ignoreMissingFiles mit mehrzeiligen CSV-/JSON-Dateien
  • [SPARK-46289] [SC-150846][sql] Unterstützung der Sortierung von UDTs im interpretierten Modus
  • [SPARK-46229] [SC-150798][python][CONNECT] Füge applyInArrow zu groupBy und cogroup in Spark Connect hinzu
  • [SPARK-46420] [SC-150847][sql] Entfernen des nicht verwendeten Transports in SparkSQLCLIDriver
  • [SPARK-46226] [SC-149724][PYTHON] Migration aller verbleibenden Fehler vom Typ RuntimeError zum PySpark-Fehlerframework
  • [SPARK-45796] [SC-150613][sql] Unterstützung von MODE() WITHIN GROUP (ORDER BY col)
  • [SPARK-40559] [SC-149686][python][14.X] Füge applyInArrow zu groupBy und cogroup hinzu
  • [SPARK-46069] [SC-149672][sql] Unterstützung für das Aufheben des Umbruchs des Zeitstempeltyps in den Datumstyp
  • [SPARK-46406] [SC-150770][sql] Weisen Sie der Fehlerklasse einen Namen zu_LEGACY_ERROR_TEMP_1023
  • [SPARK-46431] [SC-150782][ss] Konvertierung von IllegalStateException zu internalError in Sitzungsiteratoren
  • [SPARK-45807] [SC-150751][sql] Verbessern der ViewCatalog-API
  • [SPARK-46009] [SC-149771][sql][CONNECT] Zusammenführen der Analyseregel von PercentileCont und PercentileDisc in functionCall
  • [SPARK-46403] [SC-150756][sql] Parquet-Binärdaten mit der Methode getBytesUnsafe dekodieren
  • [SPARK-46389] [SC-150779][core] Manuelles Schließen der RocksDB/LevelDB Instanz, wenn checkVersion Ausnahme auslösen
  • [SPARK-46360] [SC-150376][python] Verbessern des Debuggens von Fehlermeldungen mit der neuen getMessage-API
  • [SPARK-46233] [SC-149766][python] Migration aller verbleibenden Fehler vom Typ AttributeError zum PySpark-Fehlerframework
  • [SPARK-46394] [SC-150599][sql] Beheben von Problemen mit spark.catalog.listDatabases() für Schemas mit Sonderzeichen, wenn spark.sql.legacy.keepCommandOutputSchema auf "true" festgelegt sind
  • [SPARK-45964] [SC-148484][sql] Entfernung des privaten SQL-Accessors in XML- und JSON-Paketen unter dem Catalyst-Paket
  • [SPARK-45856] [SC-148691] Verschiebung von ArtifactManager von Spark Connect in SparkSession (sql/core)
  • [SPARK-46409] [SC-150714][connect] Korrektur des Startskripts „spark-connect-scala-client“
  • [SPARK-46416] [SC-150699][core] Hinzufügen von @tailrec zu HadoopFSUtils#shouldFilterOutPath
  • [SPARK-46115] [SC-149154][sql] Einschränken von Zeichenmengen in encode()
  • [SPARK-46253] [SC-150416][python] Planung des Lesens der Python-Datenquelle mit MapInArrow
  • [SPARK-46339] [SC-150266][ss] Verzeichnis mit Batchnummernname sollte nicht als Metadatenprotokoll behandelt werden.
  • [SPARK-46353] [SC-150396][core] Umgestaltung zum Verbessern der Abdeckung des RegisterWorker-Komponententests
  • [SPARK-45826] [SC-149061][sql] Hinzufügen einer SQL-Konfiguration für Stapelüberwachungen im DataFrame-Abfragekontext
  • [SPARK-45649] [SC-150300][sql] Vereinheitlichen des Vorbereitungsframeworks für OffsetWindowFunctionFrame
  • [SPARK-46346] [SC-150282][core] Korrektur des Masters zum Aktualisieren eine Workers von UNKNOWN auf ALIVE in der RegisterWorker-Meldung
  • [SPARK-46388] [SC-150496][sql] Fehlen des Musterwächters query.resolved in HiveAnalysis
  • [SPARK-46401] [SC-150609][core] Verwenden Sie !isEmpty() auf RoaringBitmap anstelle von getCardinality() > 0 in RemoteBlockPushResolver
  • [SPARK-46393] [SC-150603][sql] Klassifizieren von Ausnahmen im JDBC-Tabellenkatalog
  • [SPARK-45798] [SC-150513][connect] Nachtrag: serverSessionId zu SessionHolderInfo hinzufügen
  • [SPARK-46153] [SC-146564][sc-150508][SQL] XML: Hinzufügen der Unterstützung von TimestampNTZType
  • [SPARK-46075] [SC-150393][connect] Verbesserungen an SparkConnectSessionManager
  • [SPARK-46357] [SC-150596] Ersetzung der falschen Verwendung von setConf in der Dokumentation durch „conf.set“
  • [SPARK-46202] [SC-150420][connect] Machen Sie neue ArtifactManager-APIs verfügbar, um benutzerdefinierte Zielverzeichnisse zu unterstützen.
  • [SPARK-45824] [SC-147648][sql] Erzwingung der Fehlerklasse in ParseException
  • [SPARK-45845] [SC-148163][ss][UI] Hinzufügung der Anzahl entfernter Zustandszeilen zur Streamingbenutzeroberfläche
  • [SPARK-46316] [SC-150181][core] Aktivieren von buf-lint-action für core Modul
  • [SPARK-45816] [SC-147656][sql] Rückgabe von NULL bei einem Überlauf während der Umwandlung von Zeitstempeln in ganze Zahlen
  • [SPARK-46333] [SC-150263][sql] Ersetzen sie IllegalStateException durch SparkException.internalError im Katalysator
  • [SPARK-45762] [SC-148486][core] Unterstützung von in Benutzer-JARs definierten Shuffle-Managern durch Änderung der Startreihenfolge
  • [SPARK-46239] [SC-149752][core] Die Jetty Informationen ausblenden
  • [SPARK-45886] [SC-148089][sql] Ausgabe der vollständigen Stapelüberwachung in callSite des DataFrame-Kontexts
  • [SPARK-46290] [SC-150059][python] SaveMode in ein boolesches Flag für DataSourceWriter ändern
  • [SPARK-45899] [SC-148097][connect] Festlegung von errorClass in errorInfoToThrowable
  • [SPARK-45841] [SC-147657][sql] Stapelablaufverfolgung sichtbar machen durch DataFrameQueryContext
  • [SPARK-45843] [SC-147721][core] Unterstützung für killall in der REST Submission API
  • [SPARK-46234] [SC-149711][python] Einführen von PySparkKeyError für PySpark-Fehlerframework
  • [SPARK-45606] [SC-147655][sql] Releasebeschränkungen für mehrschichtigen Laufzeitfilter
  • [SPARK-45725] [SC-147006][sql] Entfernung des nicht standardmäßigen IN-Unterabfrage-Laufzeitfilters
  • [SPARK-45694] [SC-147314][spark-45695][SQL] Bereinigen veralteter API-Verwendung View.force und ScalaNumberProxy.signum
  • [SPARK-45805] [SC-147488][sql] withOrigin allgemeiner gestalten
  • [SPARK-46292] [SC-150086][core][UI] Anzeige einer Zusammenfassung von Workern in MasterPage
  • [SPARK-45685] [SC-146881][core][SQL] Verwenden Sie LazyList anstelle von Stream
  • [SPARK-45888] [SC-149945][ss] Anwenden des Fehlerklassenframeworks auf Zustandsdatenquelle (Metadaten)
  • [SPARK-46261] [SC-150111][connect] DataFrame.withColumnsRenamed sollte die Sortierung des Wörterbuchs bzw. der Zuordnung beibehalten
  • [SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Bereinigen SeqOps.view und ArrayOps.view Konvertierungen
  • [SPARK-46029] [SC-149255][sql] Setzen von einfachen Anführungszeichen, _ und % in Escapezeichen für den DS V2-Pushdown
  • [SPARK-46275] [SC-150189] Protobuf: Rückgabe von NULL im permissiven Modus, wenn die Deserialisierung fehlschlägt
  • [SPARK-46320] [SC-150187][core] Unterstützung von spark.master.rest.host
  • [SPARK-46092] [SC-149658][sql] Keine Parquet-Zeilengruppenfilter anwenden, die zu einem Überlauf führen
  • [SPARK-46300] [SC-150097][python][CONNECT] Abgleich mit dem Mindestverhalten in der Spalte bei vollständiger Testabdeckung
  • [SPARK-46298] [SC-150092][python][CONNECT] Abgleich von Warnungen zur Veraltung, Testfällen und Fehlern von Catalog.createExternalTable
  • [SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Beseitigen Sie die veraltete API-Verwendung im Zusammenhang mit StringContext/StringOps/RightProjection/LeftProjection/Either und Typverwendung von BufferedIterator/CanBuildFrom/Traversable
  • [SPARK-33393] [SC-148407][sql] Unterstützung von SHOW TABLE EXTENDED in v2
  • [SPARK-45737] [SC-147011][sql] Entfernen Sie unnötige .toArray[InternalRow] in SparkPlan#executeTake
  • [SPARK-46249] [SC-149797][ss] Erfordert eine Instanzsperre zum Abrufen von RocksDB-Metriken, um das Rennen mit Hintergrundvorgängen zu verhindern
  • [SPARK-46260] [SC-149940][python][SQL] DataFrame.withColumnsRenamed sollte die Sortierung des Diktats beachten
  • [SPARK-46274] [SC-150043] [SQL] Korrektur des Range-Operators computeStats(), um vor der Konvertierung die Gültigkeitsdauer zu überprüfen
  • [SPARK-46040] [SC-149767][sql][Python] Aktualisieren der UDTF-API für "analysieren" Partitionierung/Sortierung von Spalten zur Unterstützung allgemeiner Ausdrücke
  • [SPARK-46287] [SC-149949][python][CONNECT] DataFrame.isEmpty sollten mit allen Datentypen funktionieren.
  • [SPARK-45678] [SC-146825][core] Abdeckung von BufferReleasingInputStream.available/reset unter tryOrFetchFailedException
  • [SPARK-45667] [SC-146716][core][SQL][connect] Bereinigen Sie die veraltete API-Verwendung im Zusammenhang mit IterableOnceExtensionMethods.
  • [SPARK-43980] [SC-148992][sql] Einführung der select * except-Syntax
  • [SPARK-46269] [SC-149816][ps] Aktivieren weiterer NumPy-Kompatibilitätsfunktionstests
  • [SPARK-45807] [SC-149851][sql] Hinzufügen von createOrReplaceView(..) / replaceView(..) zum ViewCatalog
  • [SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Führen Sie eine implizite Funktion für Scala Array ein, um in immutable.ArraySeqeinzuschließen.
  • [SPARK-46205] [SC-149655][core] Verbessere die Leistung von PersistenceEngine mit KryoSerializer
  • [SPARK-45746] [SC-149359][python] Gibt spezifische Fehlermeldungen zurück, wenn DIE UDTF-Methode "analyze" oder "eval" -Methode falsche Werte akzeptiert oder zurückgibt.
  • [SPARK-46186] [SC-149707][connect] Korrektur des unzulässigen Statusübergangs, wenn ExecuteThreadRunner vor dem Start unterbrochen wird
  • [SPARK-46262] [SC-149803][ps] Aktivierung des Tests für np.left_shift für Pandas-on-Spark-Objekt.
  • [SPARK-45093] [SC-149679][connect][PYTHON] Fehlerbehandlung und Konvertierung für AddArtifactHandler ordnungsgemäß unterstützen
  • [SPARK-46188] [SC-149571][doc][3.5] Beheben des CSS der generierten Tabellen des Spark-Dokuments
  • [SPARK-45940] [SC-149549][python] Hinzufügen von InputPartition zur DataSourceReader-Schnittstelle
  • [SPARK-43393] [SC-148301][sql] Behandlung des Sequenzausdruck-Überlauffehlers.
  • [SPARK-46144] [SC-149466][sql] Fehler bei INSERT INTO… REPLACE-Anweisung, wenn die Bedingung eine Unterabfrage enthält
  • [SPARK-46118] [SC-149096][sql][SS][connect] Verwenden Sie SparkSession.sessionState.conf anstelle von SQLContext.conf, und markieren Sie SQLContext.conf als veraltet
  • [SPARK-45760] [SC-147550][sql] Hinzufügung eines With-Ausdrucks zur Vermeidung doppelter Ausdrücke
  • [SPARK-43228] [SC-149670][sql] Joinschlüssel gleichen auch PartitioningCollection in CoalesceBucketsInJoin ab
  • [SPARK-46223] [SC-149691][ps] Testen von SparkPandasNotImplementedError mit Bereinigung nicht genutzten Codes
  • [SPARK-46119] [SC-149205][sql] Außerkraftsetzung der toString-Methode für UnresolvedAlias
  • [SPARK-46206] [SC-149674][ps] Verwenden Sie eine engere Bereichs ausnahme für den SQL-Prozessor
  • [SPARK-46191] [SC-149565][core] Verbesserung der FileSystemPersistenceEngine.persist-Fehlermeldung bei Vorhandensein der Datei
  • [SPARK-46036] [SC-149356][sql] Fehlerklasse aus raise_error Funktion entfernen
  • [SPARK-46055] [SC-149254][sql] Implementieren von Katalogdatenbank-APIs neu
  • [SPARK-46152] [SC-149454][sql] XML: Hinzufügen der DecimalType-Unterstützung in XML-Schemazuleitung
  • [SPARK-45943] [SC-149452][sql] Verschieben DetermineTableStats zu Auflösungsregeln
  • [SPARK-45887] [SC-148994][sql] Ausrichten von codegener und nicht-codegener Implementierung von Encode
  • [SPARK-45022] [SC-147158][sql] Bereitstellen von Kontext für Dataset-API-Fehler
  • [SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Ersetzen Sie toIterator durch iterator für IterableOnce
  • [SPARK-46141] [SC-149357][sql] Standardwert für spark.sql.legacy.ctePrecedencePolicy auf KORRIGIERT setzen
  • [SPARK-45663] [SC-146617][core][MLLIB] Ersetzen Sie IterableOnceOps#aggregate durch IterableOnceOps#foldLeft
  • [SPARK-45660] [SC-146493][sql] Wiederverwendung von Literal-Objekten in der ComputeCurrentTime-Regel
  • [SPARK-45803] [SC-147489][core] Entfernen Sie die nicht mehr verwendete RpcAbortException
  • [SPARK-46148] [SC-149350][ps] Korrektur des Tests „pyspark.pandas.mlflow.load_model“ (Python 3.12)
  • [SPARK-46110] [SC-149090][python] Verwenden Sie Fehlerklassen in den Modulen Katalog, Konfiguration, Connect, Observation, pandas
  • [SPARK-45827] [SC-149203][sql] Verschiedene Korrekturen bei deaktiviertem Codegenerierungs- und vektorisiertem Reader
  • [SPARK-46080] Rückgängigmachen der “[SC-149012][python] Aktualisierung von Cloudpickle auf 3.0.0”
  • [SPARK-45460] [SC-144852][sql] Ersetzen sie scala.collection.convert.ImplicitConversions durch scala.jdk.CollectionConverters
  • [SPARK-46073] [SC-149019][sql] Entfernen Sie die spezielle Auflösung von "UnresolvedNamespace" für bestimmte Befehle.
  • [SPARK-45600] [SC-148976][python] Erstellen der Sitzungsebene der Python-Datenquellenregistrierung
  • [SPARK-46074] [SC-149063][connect][SCALA] Unzureichende Details in der Fehlermeldung zu UDF-Fehlern
  • [SPARK-46114] [SC-149076][python] Hinzufügen von PySparkIndexError für Fehlerframework
  • [SPARK-46120] [SC-149083][connect][PYTHON] Hilfsfunktion entfernen DataFrame.withPlan
  • [SPARK-45927] [SC-148660][python] Updatepfadbehandlung für Python-Datenquelle
  • [SPARK-46062] [14.x][sc-148991][SQL] Synchronisierung des isStreaming-Flags zwischen CTE-Definition und -Referenz
  • [SPARK-45698] [SC-146736][core][SQL][ss] Bereinigen Sie die veraltete API-Verwendung im Zusammenhang mit Buffer
  • [SPARK-46064] [SC-148984][sql][SS] Verschiebung von EliminateEventTimeWatermark in das Analysetool und Anwendung einer Änderung, sodass nur das aufgelöste untergeordnete Element betroffen ist
  • [SPARK-45922] [SC-149038][connect][CLIENT] Geringfügige Umgestaltungen (Ergänzung zu mehreren Richtlinien)
  • [SPARK-45851] [SC-148419][connect][SCALA] Unterstützung mehrerer Richtlinien im Scala-Client
  • [SPARK-45974] [SC-149062][sql] Hinzufügung der Überprüfung auf „nicht leere“ Werte von scan.filterAttributes für RowLevelOperationRuntimeGroupFiltering
  • [SPARK-46085] [SC-149049][connect] Dataset.groupingSets im Scala Spark Connect-Client
  • [SPARK-45136] [SC-146607][connect] Verbesserung von ClosureCleaner mit Ammonite-Unterstützung
  • [SPARK-46084] [SC-149020][ps] Umgestaltung des Datentyp-Umwandlungsvorgangs für den Typ „Categorical“
  • [SPARK-46083] [SC-149018][python] Machen Sie SparkNoSuchElementException zu einer kanonischen Fehler-API
  • [SPARK-46048] [SC-148982][Python][CONNECT] Unterstützung von DataFrame.groupingSets in Python Spark Connect
  • [SPARK-46080] [SC-149012][python] Aktualisieren von Cloudpickle auf 3.0.0
  • [SPARK-46082] [SC-149015][python][CONNECT] Korrigieren der Darstellung von Protobuf-Zeichenfolgen für die Pandas-Functions-API mit Spark Connect
  • [SPARK-46065] [SC-148985][ps] Umgestalten (DataFrame|Series).factorize(), um create_mapzu verwenden.
  • [SPARK-46070] [SC-148993][sql] Kompilierung des RegEx-Musters in SparkDateTimeUtils.getZoneId außerhalb der Schleife der heißen Zugriffsebene
  • [SPARK-46063] [SC-148981][python][CONNECT] Verbesserung von Fehlermeldungen im Zusammenhang mit Argumenttypen in „cute“, „rollup“, „groupby“ und „pivot“
  • [SPARK-44442] [SC-144120][mesos] Entfernen der Mesos-Unterstützung
  • [SPARK-45555] [SC-147620][python] Enthält ein debugfähiges Objekt für fehlgeschlagene Assertionen.
  • [SPARK-46048] [SC-148871][python][SQL] Unterstützung von DataFrame.groupingSets in PySpark
  • [SPARK-45768] [SC-147304][sql][PYTHON] Faulthandler als Konfiguration zur Laufzeit für die Python-Ausführung in SQL umsetzen
  • [SPARK-45996] [SC-148586][python][CONNECT] Anzeigen der richtigen Abhängigkeitsanforderungsmeldungen für Spark Connect
  • [SPARK-45681] [SC-146893][ui] Klonen sie eine JS-Version von UIUtils.errorMessageCell für ein konsistentes Fehlerrendering auf der Benutzeroberfläche
  • [SPARK-45767] [SC-147225][core] Lösche TimeStampedHashMap und seine UT
  • [SPARK-45696] [SC-148864][core] Die Korrektur der tryCompleteWith-Methode im Merkmal „Promise“ ist veraltet
  • [SPARK-45503] [SC-146338][ss] Füge Konfiguration hinzu, um die RocksDB-Komprimierung festzulegen
  • [SPARK-45338] [SC-143934][core][SQL] Ersetzen scala.collection.JavaConverters in scala.jdk.CollectionConverters
  • [SPARK-44973] [SC-148804][sql] Korrektur von ArrayIndexOutOfBoundsException in conv()
  • [SPARK-45912] [SC-144982][sc-148467][SQL] Erweiterung der XSDToSchema-API: Ändern der HDFS-API für die Barrierefreiheit der Cloudspeicherung
  • [SPARK-45819] [SC-147570][core] Unterstützung clear in der REST-Übermittlungs-API
  • [SPARK-45552] [14.x][sc-146874][PS] Einführung von flexiblen Parametern für assertDataFrameEqual
  • [SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Stellen Sie eine Schnittstelle für andere Streamingquellen bereit, um _metadata Spalten hinzuzufügen.
  • [SPARK-45929] [SC-148692][sql] Unterstützung des groupingSets-Vorgangs in der DataFrame-API
  • [SPARK-46012] [SC-148693][core] EventLogFileReader sollte keine Rollprotokolle lesen, wenn die App-Statusdatei fehlt.
  • [SPARK-45965] [SC-148575][sql] Verschiebung von DSv2-Partitionierungsausdrücken in „functions.partitioning“
  • [SPARK-45971] [SC-148541][core][SQL] Korrigieren Sie den Paketnamen SparkCollectionUtils auf org.apache.spark.util
  • [SPARK-45688] [SC-147356][spark-45693][CORE] Bereinigung der Verwendung der veralteten API im Zusammenhang mit MapOps und Fix method += in trait Growable is deprecated
  • [SPARK-45962] [SC-144645][sc-148497][SQL] Entfernen Sie treatEmptyValuesAsNulls, und verwenden Sie stattdessen nullValue Option in XML.
  • [SPARK-45988] [SC-148580][spark-45989][PYTHON] Korrektur von Typhinweisen zum Behandeln von list GenericAlias in Python 3.11 und höher
  • [SPARK-45999] [SC-148595][ps] Verwendung des dedizierten PandasProduct in cumprod
  • [SPARK-45986] [SC-148583][ml][PYTHON] Fix pyspark.ml.torch.tests.test_distributor in Python 3.11
  • [SPARK-45994] [SC-148581][python] Ändern description-file in description_file
  • [SPARK-45575] [SC-146713][sql] Unterstützung von Zeitreiseoptionen für df read-API
  • [SPARK-45747] [SC-148404][ss] Verwendung von Präfixschlüsselinformationen in Statusmetadaten zum Verarbeiten des Lesestatus für die Sitzungsfensteraggregation
  • [SPARK-45898] [SC-148213][sql] Schreiben Sie Katalogtabellen-APIs neu, um einen nicht aufgelösten logischen Plan zu verwenden.
  • [SPARK-45828] [SC-147663][sql] Entfernen veralteter Methode in dsl
  • [SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Upgrade protobuf auf 4.25.1 zur Unterstützung von Python 3.11
  • [SPARK-45911] [SC-148226][core] Machen Sie TLS1.3 als Standard für RPC SSL
  • [SPARK-45955] [SC-148429][ui] Unterstützung des Reduzierens für Details in Flame-Diagrammen und Threadspeicherabbildern
  • [SPARK-45936] [SC-148392][ps] Optimieren Index.symmetric_difference
  • [SPARK-45389] [SC-144834][sql][3.5] Richtige MetaException-Abgleichsregel zum Abrufen von Partitionsmetadaten
  • [SPARK-45655] [SC-148085][sql][SS] Erlaube nicht-deterministische Ausdrücke innerhalb von AggregateFunctions in CollectMetrics
  • [SPARK-45946] [SC-148448][ss] Korrektur der Verwendung veralteter FileUtils-Schreibvorgänge zum Übergeben des Standardzeichensatzes in RocksDBSuite
  • [SPARK-45511] [SC-148285][ss] Statusdatenquelle – Reader
  • [SPARK-45918] [SC-148293][ps] Optimieren MultiIndex.symmetric_difference
  • [SPARK-45813] [SC-148288][connect][PYTHON] Gibt die beobachteten Metriken aus Befehlen zurück.
  • [SPARK-45867] [SC-147916][core] Unterstützung von spark.worker.idPattern
  • [SPARK-45945] [SC-148418][connect] Fügen Sie eine Hilfsfunktion für parser
  • [SPARK-45930] [SC-148399][sql] Unterstützen nicht deterministische UDFs in MapInPandas/MapInArrow
  • [SPARK-45810] [SC-148356][python] Erstellen der Python UDTF-API zum Beenden der Verwendung von Zeilen aus der Eingabetabelle
  • [SPARK-45731] [SC-147929][sql] Aktualisieren Sie außerdem Partitionsstatistiken mit ANALYZE TABLE Befehl
  • [SPARK-45868] [SC-148355][connect] Sicherstellen, dass spark.table den gleichen Parser mit Vanilla Spark verwendet
  • [SPARK-45882] [SC-148161][sql] Bei der Weitergabe der Partitionierung mit BroadcastHashJoinExec sollte CoalescedHashPartitioning berücksichtigt werden
  • [SPARK-45710] [SC-147428][sql] Zuweisung von Namen zum Fehler _LEGACY_ERROR_TEMP_21[59,60,61,62]
  • [SPARK-45915] [SC-148306][sql] Behandle decimal(x, 0) als IntegralType in PromoteStrings
  • [SPARK-45786] [SC-147552][sql] Beheben ungenauer Dezimalmultiplikations- und Divisionsergebnisse
  • [SPARK-45871] [SC-148084][connect] Optimierungen der Sammlungskonvertierung im Zusammenhang mit .toBuffer in den connect-Modulen
  • [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager kann nach einem angehaltenen „sparkcontext“ suchen
  • [SPARK-45913] [SC-148289][python] Festlegung der internen Attribute als „privat“ in PySpark-Fehlern.
  • [SPARK-45827] [SC-148201][sql] Hinzufügung des Datentyps „Variant“ in Spark.
  • [SPARK-44886] [SC-147876][sql] Führen Sie CLUSTER BY Klausel für CREATE/REPLACE TABLE ein
  • [SPARK-45756] [SC-147959][core] Unterstützung von spark.master.useAppNameAsAppId.enabled
  • [SPARK-45798] [SC-147956][connect] Bestätigung der serverseitigen Sitzungs-ID
  • [SPARK-45896] [SC-148091][sql] Konstruktion von ValidateExternalType mit dem richtigen erwarteten Typ
  • [SPARK-45902] [SC-148123][sql] Nicht verwendete Funktion resolvePartitionColumns aus DataSource entfernen
  • [SPARK-45909] [SC-148137][sql] Entfernung der NumericType-Umwandlung, sofern die sichere Umwandlung in IsNotNull möglich ist
  • [SPARK-42821] [SC-147715][sql] Entfernen nicht verwendeter Parameter in splitFiles-Methoden
  • [SPARK-45875] [SC-148088][core] Entfernen MissingStageTableRowData aus core Modul
  • [SPARK-45783] [SC-148120][python][CONNECT] Verbessern von Fehlermeldungen, wenn der Spark Connect-Modus aktiviert ist, die Remote-URL jedoch nicht festgelegt ist.
  • [SPARK-45804] [SC-147529][ui] Hinzufügen der Konfiguration spark.ui.threadDump.flamegraphEnabled, um das Flammendiagramm ein-/auszuschalten.
  • [SPARK-45664] [SC-146878][sql] Einführung eines Mappers für ORC-Komprimierungscodecs
  • [SPARK-45481] [SC-146715][sql] Führen Sie einen Mapper für Parquet-Komprimierungscodecs ein
  • [SPARK-45752] [SC-148005][sql] Vereinfachen des Codes für die Überprüfung nicht referenzierter CTE-Beziehungen
  • [SPARK-44752] [SC-146262][sql] XML: Aktualisieren von Spark-Dokumenten
  • [SPARK-45752] [SC-147869][sql] Alle nicht referenzierten CTE sollten von CheckAnalysis0 überprüft werden.
  • [SPARK-45842] [SC-147853][sql] Neugestaltung der Katalogfunktions-APIs zur Verwendung des Analysetools
  • [SPARK-45639] [SC-147676][sql][PYTHON] Unterstützen das Laden von Python-Datenquellen in DataFrameReader
  • [SPARK-45592] [SC-146977][sql] Problem mit der Korrektheit in AQE mit InMemoryTableScanExec
  • [SPARK-45794] [SC-147646][ss] Einführung einer Quelle für Zustandsmetadaten, um die Metadaten des Streamingstatus abzufragen.
  • [SPARK-45739] [SC-147059][python] Abfangen von IOException, anstatt nur EOFException für den FaultHandler abzurufen
  • [SPARK-45677] [SC-146700] Bessere Fehlerprotokollierung für die Beobachtungs-API
  • [SPARK-45544] [SC-146873][core] Integrieren der SSL-Unterstützung in TransportContext
  • [SPARK-45654] [SC-147152][python] Hinzufügung der API zum Schreiben für Python-Datenquellen
  • [SPARK-45771] [SC-147270][core] spark.eventLog.rolling.enabled standardmäßig aktivieren
  • [SPARK-45713] [SC-146986][python] Unterstützen des Registrierens von Python-Datenquellen
  • [SPARK-45656] [SC-146488][sql] Korrektur der Beobachtung, wenn benannte Beobachtungen mit demselben Namen in verschiedenen Datasets vorhanden sind
  • [SPARK-45808] [SC-147571][connect][PYTHON] Bessere Fehlerbehandlung für SQL-Ausnahmen
  • [SPARK-45774] [SC-147353][core][UI] Unterstützung von spark.master.ui.historyServerUrl in ApplicationPage
  • [SPARK-45776] [SC-147327][Core] Entfernen Sie die defensive Nullüberprüfung für MapOutputTrackerMaster#unregisterShuffle, die in SPARK-39553 hinzugefügt wurde.
  • [SPARK-45780] [SC-147410][connect] Verteilung aller Spark Connect-Client-ThreadLocals in InheritableThread
  • [SPARK-45785] [SC-147419][core] Unterstützung von spark.deploy.appNumberModulo zum Rotieren der App-Nummer
  • [SPARK-45793] [SC-147456][core] Verbessern der integrierten Komprimierungscodecs
  • [SPARK-45757] [SC-147282][ml] Vermeidung der Neuberechnung von NNZ in Binarizer
  • [SPARK-45209] [SC-146490][core][UI] Unterstützung von Flame-Diagrammen für die Seite mit dem Executor-Threadspeicherabbild
  • [SPARK-45777] [SC-147319][core] Unterstützung von spark.test.appId in LocalSchedulerBackend
  • [SPARK-45523] [SC-146331][python] Umgestaltung der Null-Prüfung, um Abkürzungen zu ermöglichen
  • [SPARK-45711] [SC-146854][sql] Einführung eines Mappers für Avro-Komprimierungscodecs
  • [SPARK-45523] [SC-146077][python] Gibt eine nützliche Fehlermeldung zurück, wenn UDTF None für eine nicht-nullbare Spalte zurückgibt.
  • [SPARK-45614] [SC-146729][sql] Zuweisung von Namen zum Fehler _LEGACY_ERROR_TEMP_215[6,7,8]
  • [SPARK-45755] [SC-147164][sql] Verbessern Dataset.isEmpty() durch Anwenden des globalen Grenzwerts 1
  • [SPARK-45569] [SC-145915][sql] Weisen Sie dem Fehler _LEGACY_ERROR_TEMP_2153 einen Namen zu
  • [SPARK-45749] [SC-147153][core][WEBUI] Fix Spark History Server, um die Duration Spalte ordnungsgemäß zu sortieren
  • [SPARK-45754] [SC-147169][core] Unterstützung von spark.deploy.appIdPattern
  • [SPARK-45707] [SC-146880][sql] Vereinfachen DataFrameStatFunctions.countMinSketch mit CountMinSketchAgg
  • [SPARK-45753] [SC-147167][core] Unterstützung von spark.deploy.driverIdPattern
  • [SPARK-45763] [SC-147177][Core][UI] Verbessern MasterPage, um Resource Spalte nur anzuzeigen, wenn sie vorhanden ist
  • [SPARK-45112] [SC-143259][sql] Verwenden der UnresolvedFunction-basierten Auflösung in SQL-Datasetfunktionen

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Wartungsupdates

Weitere Informationen unter Wartungsupdates für Databricks Runtime 14.3.

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.3 LTS
    • Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
  • Java: Zulu 8.74.0.17-CA-linux64
  • Skala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 3.1.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 Attrs 22.1.0 Backcall 0.2.0
beautifulsoup4 4.11.1 schwarz 22.6.0 Bleichmittel 4.1.0
Blinker 1.4 Boto3 1.24.28 Botocore 1.27.96
Zertifizieren 2022.12.7 CFFI 1.15.1 Chardet 4.0.0
Charset-Normalizer 2.0.4 klicken 8.0.4 Kommunikation 0.1.2
Contourpy 1.0.5 Kryptographie 39.0.1 Fahrradfahrer 0.11.0
Cython 0.29.32 Databricks-SDK 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 Dekorateur 5.1.1 defusedxml 0.7.1
Distlib 0.3.7 Docstring zu Markdown 0,11 Einstiegspunkte 0,4
ausführen 0.8.3 Facetten-Übersicht 1.1.1 fastjsonschema 2.19.1
Dateisperrung 3.13.1 fonttools 4.25.0 googleapis-common-protos 1.62.0
GRPCIO 1.48.2 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.4 importlib-metadata 4.6.4 ipykernel 6.25.0
ipython 8.14.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 jeepney 0.7.1 Jinja2 3.1.2
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.17.3
Jupyter-Client 7.3.4 Jupyter-Server 1.23.4 jupyter_core 5.2.0
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 Schlüsselring 23.5.0
kiwisolver 1.4.4 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 lxml 4.9.1 MarkupSafe 2.1.1
matplotlib 3.7.0 matplotlib-inline 0.1.6 Mccabe 0.7.0
verstimmen 0.8.4 more-itertools 8.10.0 mypy-Erweiterungen 0.4.3
nbclassic 0.5.2 nbclient 0.5.13 nbconvert 6.5.4
nbformat 5.7.0 nest-asyncio 1.5.6 nodeenv 1.8.0
Notebook 6.5.2 Notebook-Shim 0.2.2 numpy 1.23.5
oauthlib 3.2.0 Packen 23.2 Pandas 1.5.3
Pandocfilter 1.5.0 Parso 0.8.3 Pfadangabe 0.10.3
Sündenbock 0.5.3 pexpect 4.8.0 Pickleshare 0.7.5
Kissen 9.4.0 Kern 22.3.1 platformdirs 2.5.2
Handlung 5.9.0 plugin-fähig 1.0.0 prometheus-client 0.14.1
Prompt-Toolkit 3.0.36 protobuf 4.24.0 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 8.0.0 Pyarrow-Hotfix 0,5 Pycparser 2.21
Pydantisch 1.10.6 Pyflakes 3.1.0 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 Pyodbc 4.0.32
Pyparsing 3.0.9 Pyright 1.1.294 Pyristent 0.18.0
Python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 Python-LSP-Server 1.8.0
pytoolconfig 1.2.5 Pytz 2022.7 pyzmq 23.2.0
Anforderungen 2.28.1 Seil 1.7.0 s3transfer 0.6.2
scikit-lernen 1.1.1 SciPy 1.10.0 Seegeboren 0.12.2
SecretStorage 3.3.1 Send2Trash 1.8.0 setuptools 65.6.3
sechs 1.16.0 sniffio 1.2.0 Sieb für Suppe 2.3.2.post1
ssh-import-id 5.11 Stapeldaten 0.2.0 StatistikModelle 0.13.5
Beharrlichkeit 8.1.0 terminado 0.17.1 Threadpoolctl 2.2.0
tinycss2 1.2.1 tokenize-rt 4.2.1 tomli 2.0.1
Tornado 6.1 Traitlets 5.7.1 typing_extensions 4.4.0
ujson 5.4.0 unbeaufsichtigte Aktualisierungen 0,1 urllib3 1.26.14
virtualenv 20.16.7 Wadllib 1.3.6 wcwidth 0.2.5
Web-Codierungen 0.5.1 WebSocket-Client 0.58.0 Was ist neu im Patch 1.0.2
Rad 0.38.4 widgetsnbextension 3.6.1 yapf 0.33.0
ZIPP 1.0.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2023-07-13 installiert: https://packagemanager.posit.co/cran/2023-07-13/.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 12.0.1 Askpass 1.1 prüfen, dass 0.2.1
Backports 1.4.1 Basis 4.3.1 base64enc 0.1-3
Bit 4.0.5 Bit64 4.0.5 Klumpen 1.2.4
Boot 1.3-28 brauen 1,0 - 8 Brio 1.1.3
Besen 1.0.5 bslib 0.5.0 cachem 1.0.8
Callr 3.7.3 Caret 6.0-94 CellRanger 1.1.0
Chron 2.3-61 Klasse 7.3-22 cli 3.6.1
Schermaschine 0.8.0 Uhr 0.7.0 Gruppe 2.1.4
Codetools 0.2-19 Farbraum 2.1-0 Commonmark 1.9.0
Kompilierer 4.3.1 Konfiguration 0.3.1 im Zwiespalt 1.2.0
cpp11 0.4.4 Buntstift 1.5.2 Zugangsdaten 1.3.2
Locke 5.0.1 data.table 1.14.8 Datensätze 4.3.1
DBI 1.1.3 dbplyr 2.3.3 Beschreibung 1.4.2
devtools 2.4.5 Diagramm 1.6.5 diffobj 0.3.5
verdauen 0.6.33 Nach unten gerichtete Beleuchtung 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 Ellipse 0.3.2
Evaluieren 0,21 Fans 1.0.4 Farben 2.1.1
fastmap 1.1.1 fontawesome 0.5.1 Sträflinge 1.0.0
Foreach 1.5.2 Fremd 0.8-85 schmieden 0.2.0
Fs 1.6.2 Zukunft 1.33.0 future.apply 1.11.0
gurgeln 1.5.1 Generika 0.1.3 Gert 1.9.2
ggplot2 3.4.2 Gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 Globale Werte 0.16.2 Kleber 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
Grafiken 4.3.1 grGeräte 4.3.1 Raster 4.3.1
gridExtra 2.3 gsubfn 0,7 g-Tabelle 0.3.3
Schutzhelm 1.3.0 Hafen 2.5.3 Highr 0,10
HMS 1.1.3 HTML-Werkzeuge 0.5.5 htmlwidgets 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
Ausweise 1.0.1 ini 0.3.1 IPRED 0.9-14
Isobande 0.2.7 Iteratoren 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 Knitr 1,43
Kennzeichnung 0.4.2 später 1.3.1 Gitter 0.21-8
Lava 1.7.2.1 Lebenszyklus 1.0.3 „listenv“ 0.9.0
Schmiermittel 1.9.2 magrittr 2.0.3 Abschlag 1.7
MASSE 7.3-60 Matrix 1.5-4.1 Zwischenspeichern 2.0.1
Methoden 4.3.1 mgcv 1.8-42 Mime-Kunst 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.0 nlme 3.1-163 NNET 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.0.6 parallel 4.3.1
parallel dazu 1.36.0 Säule 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
PLOGR 0.2.0 plyr 1.8.8 loben 1.0.0
prettyunits 1.1.1 Proc 1.18.4 Prozessx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 Fortschritt 1.2.2
progressr 0.13.0 Versprechungen 1.2.0.1 Prototyp 1.0.0
Stellvertreter 0.4-27 P.S. 1.7.5 schnurren 1.0.1
r2d3 0.2.6 R6 2.5.1 Ragg 1.2.5
randomForest (Zufälliger Wald) 4.7-1.1 Rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrauer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
READR 2.1.4 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.3 Rezepte 1.0.6
Rückspiel 1.0.1 Rückspiel2 2.1.2 fernbedienungen 2.4.2
reproduzierbares Beispiel 2.0.2 Umform2 1.4.4 rlang 1.1.1
RMarkdown 2.23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.21 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
RVEST 1.0.3 Sass 0.4.6 Waage 1.2.1
Auswahl 0.4-2 Sitzungsinformationen 1.2.2 Gestalt 1.4.6
glänzend 1.7.4.1 sourcetools 0.1.7-1 Sparklyr 1.8.1
SparkR 3.5.0 räumlich 7.3-15 Splines 4.3.1
sqldf 0.4-11 SQUAREM 2021.1 Statistiken 4.3.1
Statistiken4 4.3.1 Stringi 1.7.12 stringr 1.5.0
Überleben 3.5-5 sys 3.4.2 systemfonts 1.0.4
TCLTK 4.3.1 testthat 3.1.10 Textgestaltung 0.3.6
Tibble 3.2.1 Räumter 1.3.0 aufräumen 1.2.0
aufräumen 2.0.0 Zeitumstellung 0.2.0 timeDatum 4022.108
tinytex 0.45 Werkzeuge 4.3.1 Zeitzonendatenbank (tzdb) 0.4.0
URL-Prüfer 1.0.1 Nutze dies 2.2.2 utf8 1.2.3
Dienstprogramme und Funktionen 4.3.1 Universelle eindeutige Kennung (UUID) 1.1-0 VCTRS 0.6.3
viridisLite 0.4.2 Vroom 1.6.3 Waldo 0.5.1
Backenbart 0.4.1 Withr 2.5.0 xfun 0.39
xml2 1.3.5 xopen 1.0.0 xtable 1.8-4
YAML-Dateiformat 2.3.7 schwirren 2.3.0

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws aws-java-sdk-Autoskalierung 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws AWS-Java-SDK-Config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-db 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-Protokolle 1.12.390
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.390
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.13.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-schattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Mitschüler 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone fehleranfällige_Anmerkungen 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guave 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-servers 11.2.2.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tduning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe Konfiguration 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,25
io.delta delta-sharing-client_2.12 1.1.4
io.dropwizard.metrics Metrikanmerkung 4.2.19
io.dropwizard.metrics Metrics-Kernbibliothek 4.2.19
io.dropwizard.metrics Metrics-Graphit 4.2.19
io.dropwizard.metrics Metrik-Gesundheitschecks 4.2.19
io.dropwizard.metrics Metrics-Jetty9 4.2.19
io.dropwizard.metrics Metrics-JMX 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics Metrik-Servlets 4.2.19
io.netty nett-all 4.1.96.Final
io.netty Netty-Buffer 4.1.96.Final
io.netty Netty Codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty Netty-Codec-Socken 4.1.96.Final
io.netty Netty-common 4.1.96.Final
io.netty Netty-Handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty Netty-Resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-Klassen 2.0.61.Final
io.netty Netty-Transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammler 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv Super-CSV 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant Ant-Launcher 1.9.16
org.apache.arrow Pfeilformat 12.0.1
org.apache.arrow Pfeilspeicherkern 12.0.1
org.apache.arrow Arrow-Memory-Netty 12.0.1
org.apache.arrow Pfeil-Vektor 12.0.1
org.apache.avro avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.10.0
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator Kurator-Framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-silk 2.3.9
org.apache.hive hive-llap-Client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-speicher-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-Anpassungen-Common 2.3.9
org.apache.hive.shims Hive-Shims-Scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Efeu 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc Orc-Shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus Benutzergruppenanmerkungen 0.13.0
org.apache.zookeeper Tierpfleger 3.6.3
org.apache.zookeeper Zookeeper-Jute 3.6.3
org.checkerframework Prüferqualifikation 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.52.v20230823
org.eclipse.jetty Jetty-Fortsetzung 9.4.52.v20230823
org.eclipse.jetty Jetty-HTTP 9.4.52.v20230823
org.eclipse.jetty Jetty-io 9.4.52.v20230823
org.eclipse.jetty Jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-Plus 9.4.52.v20230823
org.eclipse.jetty Jetty-Proxy 9.4.52.v20230823
org.eclipse.jetty Jetty-Sicherheit 9.4.52.v20230823
org.eclipse.jetty Jetty Server 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlet 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlets 9.4.52.v20230823
org.eclipse.jetty Jetty-Util 9.4.52.v20230823
org.eclipse.jetty Jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-Webanwendung 9.4.52.v20230823
org.eclipse.jetty Jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core Jersey-Client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core Jersey-Server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator Ruhezustands-Validator 6.1.7.Endgültig
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis Objenese 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Klemmstücke 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest „scalatest-compatible“ 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten 3ten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel Katzen-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-servers 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml Schlangenyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1