Freigeben über


Databricks Runtime 14.2 (EoS)

Hinweis

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 14.2, unterstützt von Apache Spark 3.5.0.

Diese Version wurde von Databricks im November 2023 veröffentlicht.

Neue Features und Verbesserungen

CACHE SELECT wird jetzt ignoriert.

Der SQL-Befehl CACHE SELECT wird nun zugunsten eines verbesserten Cachealgorithmus ignoriert. Siehe Optimieren der Leistung mit Caching in Azure Databricks.

Verbessertes Zwischenspeicherungsverhalten

Die DiskCache-Platzierung durch den Spark Scheduler verfügt jetzt über eine schnellere Partitionszuweisung, einen besseren Ausgleich während der automatischen Cluster-Skalierung und eine konsistentere Abfrageausführung.

Behandlung beschädigter Dateien in DML-Befehlen korrigiert

Die DML-Befehle DELETE, UPDATE und MERGE INTO berücksichtigen nicht mehr die Leseoptionen ignoreCorruptFiles und ignoreMissingFiles. Bei einer nicht lesbaren Datei in einer Tabelle schlagen diese Befehle jetzt fehl, auch wenn diese Optionen angegeben sind.

Sie können jetzt die Python-Funktionen from_avro, to_avro, from_protobuf und to_protobuf mit Schema Registry in freigegebenen Clustern verwenden.

foreachBatch- und StreamingListener-Unterstützung

Sie können jetzt die foreachBatch()- und StreamingListener-APIs mit strukturiertem Streaming in freigegebenen Clustern verwenden. Weitere Informationen finden Sie unter Verwenden von foreachBatch zum Schreiben in beliebige Datensenken und Überwachen von strukturierten Streamingabfragen in Azure Databricks.

Parallelität auf Zeilenebene ist allgemein verfügbar und standardmäßig aktiviert

Parallelität auf Zeilenebene reduziert Konflikte zwischen gleichzeitigen Schreibvorgängen, indem Änderungen auf Zeilenebene erkannt werden. Parallelität auf Zeilenebene wird nur für Tabellen ohne Partitionierung unterstützt, darunter Tabellen mit Liquid Clustering. Die Parallelität auf Zeilenebene ist in Delta-Tabellen mit aktivierten Löschvektoren standardmäßig aktiviert. Weitere Informationen finden Sie unter Schreibkonflikte mit Parallelität auf Zeilenebene.

Delta Sharing: Empfänger können Batch-, CDF- und Streamingabfragen für freigegebene Tabellen mit Löschvektoren ausführen (Public Preview)

Delta Sharing-Empfänger können jetzt Batch-, CDF- und Streamingabfragen für freigegebene Tabellen ausführen, die Löschvektoren verwenden. Auf Databricks Runtime 14.1 können sie nur Batchabfragen ausführen. Weitere Informationen finden Sie unter Hinzufügen von Tabellen mit Löschvektoren oder Spaltenzuordnungen zu einer Freigabe, Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen und Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen.

Flacher Klon für externe Unity Catalog-Tabellen (Public Preview)

Sie können jetzt einen flachen Klon mit externen Unity Catalog-Tabellen verwenden. Weitere Informationen finden Sie unter Flacher Klon für Unity Catalog-Tabellen.

Neuer Zuweisungsalgorithmus für die Datenträgerzwischenspeicherung

Der Spark-Scheduler verwendet jetzt einen neuen Datenträgerzwischenspeicherungsalgorithmus. Der Algorithmus verbessert die Datenträgernutzung und Partitionszuweisung über Knoten hinweg, wobei die Zuweisung sowohl anfänglich als auch nach Clusterskalierungsereignissen schneller erfolgt. Die Stickiercachezuordnung verbessert die Konsistenz bei der Ausführung und reduziert die während der Rebalancing-Operationen verschobenen Daten.

from_avro mit Schemaregistrierungsconnector bietet Unterstützung für die Schemaentwicklung

Sie können ihre Pipelines jetzt so aktivieren, dass sie neu gestartet werden, wenn weiterentwickelte Datensätze erkannt werden. Wenn die Schemaentwicklung zuvor mit dem from_avro-Connector erfolgt ist, gaben die neuen Spalten null zurück. Siehe Lesen und Schreiben von Avro-Streamingdaten.

Schnellere Multithread-Statistiksammlung

Die Collection von Statistiken ist auf kleinen Clustern bis zu 10 Mal schneller, wenn Sie CONVERT TO DELTA oder das Klonen aus Apache Iceberg- und Parquet-Tabellen ausführen. Siehe Konvertieren in Delta Lake und Klonen von Parquet- und Iceberg-Tabellen.

Pushdownfilter in DeltaSource für Delta-Dateien

Für eine bessere Auslastung werden Partitionsfilter für Streamingabfragen von Delta-Tabellen jetzt vor dem Einschränken der Rate nach Delta verschoben.

Unterstützung für skalare benutzerdefinierte Scala-Funktionen in freigegebenen Clustern (Public Preview)

Sie können jetzt skalare benutzerdefinierte Funktionen auf Unity Katalog-fähigen Clustern verwenden, die mit dem Modus für gemeinsam genutzten Zugriff konfiguriert sind. Siehe Benutzerdefinierte Skalarfunktionen: Scala.

Bibliotheksupgrades

  • Aktualisierte Python-Bibliotheken:
    • fastjsonschema von 2.18.0 bis 2.19.0
    • filelock von 3.12.3 auf 3.12.4
    • googleapis-common-protos von 1.60.0 auf 1.61.0
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:

Apache Spark

Databricks Runtime 14.2 enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 14.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-45592] [DBRRM-624] Rückgängigmachen von "[SC-146977][sql] Korrektheitsproblem in AQE mit InMemoryTableScanExec"
  • [SPARK-45524] [DBRRM-625] Rückgängig machen „[SC-146319][python][SQL] Erster Support für…"
  • [SPARK-45433] [DBRRM-621] Revert „[SC-145163][sql] Fix CSV/JSON Schema-Erkennung...“
  • [SPARK-45592] [SC-146977][sql] Problem mit der Korrektheit in AQE mit InMemoryTableScanExec
  • [SPARK-45354] Revert "[SC-143991][sql] Funktionen von unten nach oben auflösen"
  • [SPARK-45680] [ TEST-ONLY][sasp-2347][CONNECT] Fixtests
  • [SPARK-45680] [CONNECT] Releasesitzung
  • [SPARK-43380] [SC-146726][es-897115][SQL] Verlangsamung in Avro-Lesevorgang beheben
  • [SPARK-45649] [SC-146742][sql] Das Vorbereitungsframework vereinheitlichen für OffsetWindowFunctionFrame
  • [SPARK-40820] [SC-146727][python][SQL] Erstellen von StructType aus JSON
  • [SPARK-45620] [SC-146225][python] Korrektur von benutzerseitigen APIs im Zusammenhang mit Python UDTF, sodass diese camelCase verwenden
  • [SPARK-45727] [SC-146978][ss] Entfernen einer nicht verwendeten Karte in der Wasserzeichenverteilungssimulation
  • [SPARK-45723] [SC-146890][python][CONNECT] Katalogmethoden vermeiden Pandas Konvertierung
  • [SPARK-45574] [SC-146106][sql] Fügen Sie die :: Syntax als Abkürzung für das Casting hinzu
  • [SPARK-45670] [SC-146725][core][3.5] SparkSubmit unterstützt --total-executor-cores nicht bei der Bereitstellung auf K8s
  • [SPARK-45661] [SC-146594][SQL][PYTHON] Add toNullable in StructType, MapType und ArrayType
  • [SPARK-45524] [SC-146319][python][SQL] Erste Unterstützung für python-Datenquellenlese-API
  • [SPARK-45542] [ SC-145892][core] Ersetzen setSafeMode(HdfsConstants.SafeModeAction, boolean) durch setSafeMode(SafeModeAction, boolean)
  • [SPARK-45652] [SC-146641][sql] SPJ: Behandeln leerer Eingabepartitionen nach dynamischer Filterung
  • [SPARK-45454] [SC-144846][sql] Legen Sie den Standardbesitzer der Tabelle auf current_user
  • [SPARK-45554] [ SC-146875][python] Einführung flexibler Parameter für assertSchemaEqual
  • [SPARK-45242] [SC-143410][sql] Verwenden der DataFrame-ID zum semantischen Überprüfen von CollectMetrics
  • [SPARK-45674] [SC-146862][connect][PYTHON] Verbessern der Fehlermeldung für JVM-abhängige Attribute in Spark Connect.
  • [SPARK-45646] [SC-146276][sql] Entfernen von hartcodierten Zeitvariablen vor Hive 2.0
  • [SPARK-43380] [SC-146726][es-897115][SQL] Verlangsamung in Avro-Lesevorgang beheben
  • [SPARK-45545] [SC-146484][core] Übergeben SSLOptions überall, wo wir einen SparkTransportConf erstellen.
  • [SPARK-45641] [ SC-146260][ui] Zeigt die Startzeit der Anwendung auf AllJobsPage an.
  • [SPARK-40154] [SC-146491][python][Docs] Korrigieren der Speicherebene in "Dataframe.cache docstring"
  • [SPARK-45626] [SC-146259][sql] Umwandeln von _LEGACY_ERROR_TEMP_1055 in REQUIRES_SINGLE_PART_NAMESPACE
  • [SPARK-45507] [SC-145900][sql] Korrektur der Korrektheit für geschachtelte korrelierte skalare Unterabfragen mit COUNT-Aggregaten
  • [SPARK-45619] [SC-146226][connect][PYTHON] Wenden Sie die beobachteten Metriken auf das Beobachtungsobjekt an.
  • [SPARK-45588] [SC-145909][protobuf][CONNECT][minor] Scaladoc-Verbesserung für StreamingForeachBatchHelper
  • [SPARK-45616] [SC-146120][core] Vermeiden von ParVector, der ThreadLocals oder SparkSession nicht weitergibt.
  • [SPARK-45604] [SC-146105][sql] LogicalType-Prüfung bei INT64 hinzufügen -> DateTime-Konvertierung bei Parquet Vectorized Reader
  • [SPARK-44649] [SC-145891][sql] Der Laufzeitfilter unterstützt das Übergeben von gleichwertigen Ausdrücken der Erstellungsseite.
  • [SPARK-41674] [SC-128408][sql] Der Laufzeitfilter sollte die mehrstufige Shuffle-Join-Seite als Filtererstellungsseite unterstützen.
  • [SPARK-45547] [ SC-146228][ml] Überprüfen von Vektoren mit integrierter Funktion
  • [SPARK-45558] [SC-145890][ss] Führt eine Metadatendatei für den Streamingstatusoperator ein
  • [SPARK-45618] [SC-146252][core] BaseErrorHandler entfernen
  • [SPARK-45638] [SC-146251][sql][Avro] Verbessern der Testabdeckung der Dezimalkonvertierung
  • [SPARK-44837] [SC-146020][sql] Fehlermeldung "ALTER-Spalte ALTER TABLE ändernPARTITION"
  • [SPARK-45561] [SC-146264][sql] Hinzufügen der richtigen Konvertierungen für TINYINT in MySQLDialect
  • [SPARK-45632] [SC-146255][sql] Tabellencache sollte beim Aktivieren von AQE unnötige ColumnarToRow vermeiden
  • [SPARK-45569] [SC-145932][sql] Weisen Sie dem Fehler _LEGACY_ERROR_TEMP_2152 einen Namen zu
  • [SPARK-44784] [SC-141015][connect] Machen Sie SBT-Tests hermetisch.
  • [SPARK-45452] [SC-144836][sql] InMemoryFileIndex zur Verwendung der FileSystem.listFiles API verbessern
  • [SPARK-44735] [SC-146186][sql] Warnmeldung hinzufügen beim Einfügen von Spalten mit demselben Namen in Zeilen, die nicht übereinstimmen.
  • [SPARK-45351] [SC-144791][core] Ändern des spark.shuffle.service.db.backend Standardwerts in ROCKSDB
  • [SPARK-45553] [ SC-145906][ps] Veraltet assertPandasOnSparkEqual
  • [SPARK-45613] [SC-146022][core] DeterministicLevel als DeveloperApi verfügbar machen
  • [SPARK-45549] [SC-145895][Core] Entfernen Sie ungenutzte numExistingExecutors in CoarseGrainedSchedulerBackend
  • [SPARK-45609] [SC-146030][connect] Einbeziehen von SqlState in SparkThrowable-Protonachricht
  • [SPARK-45595] [SC-146037] Verfügbarmachen von sqlstate in der Fehlermeldung
  • [SPARK-45628] [SC-146123][ml] Verbesserung vector_to_array für .mllib.linalg.SparseVector
  • [SPARK-45009] [SC-145884][SQL][NACHVERFOLGUNG] Deaktivieren der Dekorrelation in Verknüpfungsbedingungen für AQE InSubquery-Test
  • [SPARK-45576] [SC-145883][core] Entfernen sie unnötige Debugprotokolle in ReloadingX509TrustManagerSuite
  • [SPARK-45485] [SC-145719][connect] Verbesserungen des Benutzer-Agents: Verwenden SPARK_CONNECT_USER_AGENT env-Variable und Einschließen von umgebungsspezifischen Attributen
  • [SPARK-45508] [SC-145513][core] Fügen Sie "-add-opens=java.base/jdk.internal.ref=ALL-UNNAMED" hinzu, damit die Plattform auf Cleaner auf Java 9+ zugreifen kann
  • [SPARK-45595] Wiederherstellen von „[SC-146037] Verfügbarmachen von SQLSTATE in der Fehlermeldung“
  • [SPARK-45595] [SC-146037] Verfügbarmachen von SQLSTATE in der Fehlermeldung
  • [SPARK-45112] Rückgängig machen von "[SC-143259][sql] UnresolvedFunction verwenden ba..."
  • [SPARK-45257] [SC-143411][core] Standardmäßig aktivieren spark.eventLog.compress
  • [SPARK-45586] [SC-145899][sql] Reduzierung der Compilerlatenz für Pläne mit großen Ausdrucksbäumen
  • [SPARK-45517] [ SC-145691][connect][14.x] Erweitern Sie weitere Ausnahmekonstruktoren zur Unterstützung von Fehlerframeworkparametern.
  • [SPARK-45581] [SC-145896] SQLSTATE ist erforderlich
  • [SPARK-45427] [SC-145590][core] Hinzufügen von RPC-SSL-Einstellungen zu SSLOptions und SparkTransportConf
  • [SPARK-45261] [SC-143357][core] Fix EventLogFileWriters um none als Codec zu behandeln
  • [SPARK-45582] [SC-145897][ss] Stellen Sie sicher, dass die Speicherinstanz nach dem Aufrufen des Commits innerhalb der Streamingaggregation im Ausgabemodus nicht verwendet wird.
  • [SPARK-45562] [SC-145720][sc-144650][SQL] XML: Festlegen von "rowTag" als erforderliche Option
  • [SPARK-45392] [SC-144362][core][SQL][ss] Ersetzen durch Class.newInstance()Class.getDeclaredConstructor().newInstance()
  • [SPARK-45433] [SC-145163][sql] Beheben der CSV/JSON-Schemaschlussfolgerung, wenn Zeitstempel nicht dem angegebenen timestampFormat entsprechen
  • [SPARK-45458] [SC-145011][sql] IllegalArgumentException in SparkIllegalArgumentException in bitwiseExpressions konvertieren
  • [SPARK-45564] [SC-145735][sql] Vereinfachen 'DataFrameStatFunctions.bloomFilter' über den Ausdruck 'BloomFilterAggregate'
  • [SPARK-45566] [SC-145777][ps] Unterstützen Sie Pandas-ähnliche Testutils für die Pandas-API auf Spark
  • [SPARK-45498] [SC-145509][Kern] Fortsetzung: Aufgabenabschluss aus alter Stufe ignorieren a...
  • [SPARK-45483] [SC-145152][connect] Die Funktionsgruppen in "connect.functions" korrigieren.
  • [SPARK-45577] [SC-145781][python] Fix UserDefinedPythonTableFunctionAnalyzeRunner, um gefaltete Werte aus benannten Argumenten zu übergeben
  • [SPARK-45009] [ SC-138223][Nachverfolgung] Deaktivieren der Entkorrektur in Verknüpfungsbedingungen für AetherSQLQuerySuite
  • [SPARK-45415] [SC-145344] Zulassen der selektiven Deaktivierung von „fallocate“ im RocksDB-StateStore
  • [SPARK-45500] [SC-145134][core][WEBUI] Zeigt die Anzahl der ungewöhnlich abgeschlossenen Treiber in MasterPage an.
  • [SPARK-44120] [ SC-144349][python] Unterstützung für Python 3.12
  • [SPARK-45439] [SC-145589][sql][UI] Reduzieren der Speicherauslastung von LiveStageMetrics.accumIdsToMetricType
  • [SPARK-45565] [SC-145717][ui] Unnötige JSON.stringify- und JSON.parse-Schleife für die Aufgabenliste im Phasendetail
  • [SPARK-45567] [SC-145718][connect] Entfernen eines redundanten if in org.apache.spark.sql.connect.execution.ExecuteGrpcResponseSender#run
  • [SPARK-45112] [SC-143259][sql] Verwenden der UnresolvedFunction-basierten Auflösung in SQL-Datasetfunktionen
  • [SPARK-45486] [SASP-2457][sc-145612][CONNECT] Machen Sie die Anforderung für add_artifact idempotent
  • [SPARK-44913] [SC-144326][sql] DS V2 unterstützt Pushdown V2 UDF mit magischer Methode
  • [SPARK-45538] [SC-145635][python][CONNECT]pyspark connect overwrite_partitions Fehler
  • [SPARK-45491] [SC-145622] Hinzufügen fehlender SQLSTATES 2/2
  • [SPARK-45009] [SC-145620][sc-138223][SQL] Prädikats-Unterabfragen in Verknüpfungsbedingung dekorrelieren
  • [SPARK-45377] [ SC-144377][core] Behandeln von InputStream in NettyLogger
  • [SPARK-45248] [SC-143759][core]Festlegen des Timeouts für spark ui-Server
  • [SPARK-44594] [SC-145611][ss] Entfernen des redundanten Methodenparameters in kafka connector
  • [SPARK-45539] [SC-145621][ss] Hinzufügen von Assert und Protokoll zum Angeben der Wasserzeichendefinition ist für Streamingaggregationsabfragen im Anfügemodus erforderlich.
  • [SPARK-44262] [SC-145639][sql] Hinzufügen von dropTable und getInsertStatement zu JdbcDialect
  • [SPARK-45516] [SC-145480][connect] QueryContext in SparkThrowable-Proto-Nachricht einbeziehen
  • [SPARK-45310] [SC-145127][Core] Der Bericht über den Shuffleblock-Status sollte den Shuffle-Dienst während der Außerbetriebnahmemigration berücksichtigen.
  • [SPARK-45521] [SC-145487][ml] Vermeiden der Neuberechnung von nnz in VectorAssembler
  • [SPARK-45418] [SC-145485][sql][PYTHON][connect] Ändern sie current_database() Spaltenalias in current_schema()
  • [SPARK-45116] [SC-145142][sql] Fügen Sie einen Kommentar für Parameter von JdbcDialect hinzu. createTable
  • [SPARK-45495] [SC-145529][core] Unterstützung für Aufgabenressourcenprofil auf Phasenebene für k8s-Cluster, wenn die dynamische Zuordnung deaktiviert ist
  • [SPARK-45487] [SC-145559] Beheben von SQLSTATE- und temp-Fehlern
  • [SPARK-45505] [ SC-145550][python] Refactor analyzeInPython, um es wiederverwendbar zu machen
  • [SPARK-45132] [SC-145425][sql] Fix IDENTIFIER für Funktionsaufruf
  • [SPARK-45213] [SC-145020][sql] Einen Namen dem Fehler _LEGACY_ERROR_TEMP_2151 zuweisen.
  • [SPARK-45416] [ SC-145126][connect] Konsistenzüberprüfung der Pfeilergebnisse
  • [SPARK-45163] [SC-143386][sql] Zusammenführung UNSUPPORTED_VIEW_OPERATION und UNSUPPORTED_TABLE_OPERATION und einige Probleme beheben
  • [SPARK-45421] [SC-144814][sql] Erfasse AnalysisException über InlineCTE
  • [SPARK-43664] [SC-145404][connect][PS] Auslösen einer Ausnahme für ps.sql das Pandas-on-Spark-Objekt in Spark Connect.
  • [SPARK-45402] [SC-145371][sql][PYTHON] Fügen Sie UDTF-API für "eval"- und "terminate"-Methoden hinzu, um vorheriges "Analyseergebnis" zu nutzen.
  • [SPARK-36112] [SC-67885][SQL] Unterstützung korrelierter EXISTS- und IN-Unterabfragen mithilfe des Frameworks „DecorrelateInnerQuery“
  • [SPARK-45383] [SC-144929][sql] Behebt die Fehlermeldung für Zeitreisen mit einer nicht vorhandenen Tabelle
  • [SPARK-43254] [SC-143318][sql] Weisen Sie dem Fehler einen Namen zu_LEGACY_ERROR_TEMP_2018
  • [SPARK-45204] [SC-145167][connect] Hinzufügen optionaler ExecuteHolder zu SparkConnectPlanner
  • [SPARK-45451] [SC-145144][sql] Konfigurieren der Standardspeicherebene des Datasetcaches
  • [SPARK-45192] [SC-143194][ui] Überfälligen lineInterpolate-Parameter für graphviz-Kante beheben
  • [SPARK-45467] [ SC-145146][kern] Ersetzen Proxy.getProxyClass() durch Proxy.newProxyInstance().getClass
  • [SPARK-45397] [SC-145139][ml][CONNECT] Array Assembler-Featuretransformator hinzufügen
  • [SPARK-44855] [SC-145226][connect] Kleine Optimierungen zum Anfügen von ExecuteGrpcResponseSender an ExecuteResponseObserver
  • [SPARK-45398] [SC-144796][sql] Anfügen ESCAPE in sql() des Like Ausdrucks
  • [SPARK-45494] [SC-145129][Core][PYTHON] Einführen vonUtil-Funktionen zum Lesen/Schreiben eines Bytearrays für PythonWorkerUtils
  • [SPARK-45464] [SC-145125][core] Verteilungserstellung für Netzwerk-Yarn beheben
  • [SPARK-45461] [SC-144851][core][SQL][mllib] Einführung eines Mappers für StorageLevel
  • [SPARK-45450] [SC-145009][python] Korrigieren Sie Importe gemäß PEP8: pyspark.pandas und pyspark (Core)
  • [SPARK-45475] [SC-145018][sql] Verwendet DataFrame.foreachPartition anstelle von RDD.foreachPartition in JdbcUtils
  • [SPARK-45271] [SC-143778][sql] Zusammenführen _LEGACY_ERROR_TEMP_1113 in TABLE_OPERATION und Löschen einiger nicht verwendeter Methode in QueryCompilationErrors
  • [SPARK-45449] [SC-145013][sql] Problem mit der Cache-Ungültigkeit bei JDBC-Tabellen
  • [SPARK-45473] [SC-145017][sql] Fehlermeldung für RoundBase beheben
  • [SPARK-43299] [SC-145022][ss][CONNECT] StreamingQueryException in Scala Client konvertieren
  • [SPARK-45474] [SC-145014][core][WEBUI] Unterstützen der Filterung auf oberster Ebene in der MasterPage-JSON-API
  • [SPARK-45205] [SC-145012][sql] CommandResultExec zum Überschreiben von Iteratormethoden, um das Auslösen mehrerer Aufträge zu vermeiden.
  • [SPARK-45472] [SC-145004][ss] RocksDB State Store Muss das Vorhandensein des Prüfpunktpfads nicht erneut überprüfen
  • [SPARK-45470] [SC-145010][sql] Vermeiden des Einfügens des Zeichenfolgenwerts der Hive-ORC-Komprimierungsart
  • [SPARK-45448] [SC-144829][python] Korrigieren Sie Importe nach PEP8: pyspark.testing, pyspark.mllib, pyspark.resource und pyspark.streaming
  • [SPARK-45446] [ SC-144828][python] Korrigieren Sie Importe gemäß PEP8: pyspark.errors und pyspark.ml
  • [SPARK-45239] [SC-144832][connect] Reduzieren Sie die Standardgröße von spark.connect.jvmStacktrace.maxSize
  • [SPARK-45436] [ SC-144831][python][CONNECT] DataFrame-Methoden überprüfen dieselbe Sitzung
  • [SPARK-45413] [ SC-144847][Core] Hinzufügen einer Warnung für die Vorbereitung der LevelDB-Unterstützung
  • [SPARK-45462] [ SC-144848][core][WEBUI] Show Duration in ApplicationPage
  • [SPARK-44527] [SC-144855][sql] Ersetzen Sie ScalarSubquery durch NULL, wenn die maxRows 0 ist.
  • [SPARK-45401] [SC-144854][python] Hinzufügen einer neuen Methode cleanup in der UDTF-Schnittstelle
  • [SPARK-43704] [SC-144849][connect][PS] Support MultiIndex für to_series()
  • [SPARK-45424] [SC-144888][sql] Fix TimestampFormatter gibt optionale Analyseergebnisse zurück, wenn nur eine Präfix-Übereinstimmung vorliegt
  • [SPARK-45441] [ SC-144833][python] Einführen von mehrutil-Funktionen für PythonWorkerUtils
  • [SPARK-45412] [SC-144803][python][CONNECT] den Plan und die Sitzung validieren in DataFrame.__init__
  • [SPARK-45408] [SC-144810][core] Hinzufügen von RPC-SSL-Einstellungen zu TransportConf
  • [SPARK-45432] [SC-144818][core] Entfernen veralteter Hadoop-2-Konstruktor LocatedFileStatus
  • [SPARK-45434] [ SC-144819][ml][CONNECT] LogisticRegression überprüft die Trainingslabels
  • [SPARK-45420] [SC-144808][sql][PYTHON][connect] Add DataType.fromDDL into PySpark
  • [SPARK-45406] [SC-144793][python][CONNECT] Aus DataFrame-Konstruktor löschen schema
  • [SPARK-45404] [SC-144799][Kern] Unterstützung der Umgebungsvariable AWS_ENDPOINT_URL
  • [SPARK-43620] [SC-144792][connect][PS] Fix Pandas-APIs hängt von nicht unterstützten Features ab
  • [SPARK-45354] [SC-143991][sql] Auflösen von Funktionen von unten nach oben
  • [SPARK-45394] [SASP-1480][sc-144712][PYTHON][connect] Fügen Sie Wiederholungsversuche für die Artefakt-API hinzu. Verbessern der Fehlerbehandlung (Nachverfolgung zu [SPARK-45093]).
  • [SPARK-45120] [SC-142780][spark-45150][UI] Upgrade d3 von v3 auf v7(v7.8.5) und Anwenden von API-Änderungen auf der Benutzeroberfläche
  • [SPARK-44838] [ SC-143983][sql] raise_error Verbesserung
  • [SPARK-45312] [SC-143754][sql][UI] Unterstützung für das Umschalten der Anzeige/Ausblendung des Plans-SVG auf der Ausführungsseite
  • [SPARK-45378] [SC-144448][core] Hinzufügen von convertToNettyForSsl zu ManagedBuffer
  • [SPARK-44762] [SC-144338][connect][CORE] Dokumentation für SparkConnect.addJobTag und Connect SparkSession.addTag
  • [SPARK-45383] Behandeln Sie nicht aufgelöste RelationTimeTravel ordnungsgemäß
  • [SPARK-45347] [SC-144512][sql][CONNECT] Einschließen von SparkThrowable in FetchErrorDetailsResponse
  • [SPARK-45012] [SC-141512][sql] CheckAnalysis sollte einen in den AnalysisException eingebetteten Plan auslösen
  • [SPARK-45359] [SC-144336][python][CONNECT] DataFrame.{columns, colRegex, explain} sollte Ausnahmen auslösen, wenn der Plan ungültig ist.
  • [SPARK-45227] [SC-144233][core] Behebung eines subtilen Threadsicherheitsproblems im CoarseGrainedExecutorBackend
  • [SPARK-45266] [SC-144171][python] Überarbeiten Sie die Regel des ResolveFunctions-Analyysators, um die Erstellung von seitlichen Joins zu verzögern, wenn Tabellenargumente verwendet werden.
  • [SPARK-45266] Wiederherstellen der "[SC-144171][python] Umstrukturierung der Auflösungsfunktionen-Analyse-Regel, um die Erstellung eines lateralen Joins zu verzögern, wenn Tabellenargumente verwendet werden"
  • [SPARK-45371] [SC-144389][connect] Beheben von Schattierungsproblemen im Spark Connect Scala Client
  • [SPARK-45057] [SC-144214][core] Vermeiden der Lesesperre, wenn keepReadLock falsch ist
  • [SPARK-45385] [SC-144357][sql] Abkündigen spark.sql.parser.escapedStringLiterals
  • [SPARK-45340] [SC-143917][sql] Entfernen der SQL-Konfiguration spark.sql.hive.verifyPartitionPath
  • [SPARK-45266] [SC-144171][python] Überarbeiten Sie die Regel des ResolveFunctions-Analyysators, um die Erstellung von seitlichen Joins zu verzögern, wenn Tabellenargumente verwendet werden.
  • [SPARK-45362] [SC-144198][python] Blenden Sie PARTITION BY-Ausdrücke aus, bevor die Python UDTF "eval"-Methode sie verwendet
  • [SPARK-45346] [ SC-143925][sql] Parquet-Schemainferenz sollte beim Zusammenführen von Schemata die Beachtung der Groß- und Kleinschreibung berücksichtigen.
  • [SPARK-45341] [SC-143933][core] Korrigieren Sie die Titelebene in den Kommentaren von KVStore.java, um erfolgreich mit Java 17 ausgeführt zu werden sbt doc
  • [SPARK-45334] [SC-143914][sql] Entfernen irreführenden Kommentars im parquetSchemaConverter
  • [SPARK-45337] [ SC-143932][core] Refaktorieren AbstractCommandBuilder#getScalaVersion um die Prüfung auf Scala 2.12 zu entfernen
  • [SPARK-45329] [SC-143918][python][CONNECT] Die DataFrame-Methoden überspringen die Pandas-Konvertierung
  • [SPARK-43662] [SC-143923][ps][CONNECT] Unterstützung für merge_asof in Spark Connect
  • [SPARK-44126] [SC-143751][Kern] Die Anzahl der Shuffle-Migrationsfehler sollte nicht erhöht werden, wenn der Ziel-Executor außer Betrieb genommen wird.
  • [SPARK-44550] [ SC-119768][sql] Aktivieren von Korrekturen für die Genauigkeit im Rahmen von null IN (empty list) ANSI
  • [SPARK-45316] [SC-143783][core][SQL] Fügen Sie neuen Parameter ignoreCorruptFiles/ignoreMissingFiles hinzu und HadoopRDDNewHadoopRDD
  • [SPARK-45093] [SC-143414][connect][PYTHON] Fehlerberichterstattung für addArtifacts-Abfrage
  • [SPARK-44756] [SC-143787][core] Executor hängt, wenn RetryingBlockTransferor den Wiederholungsversuch nicht initiiert.
  • [SPARK-45333] [SC-143768][Core] Beheben eines Fehlers bei einer Einheit im Zusammenhang mit spark.eventLog.buffer.kb
  • [SPARK-45317] [SC-143750][sql][CONNECT] Behandeln von NULL-Dateinamen in Stapelablaufverfolgungen von Ausnahmen
  • [SPARK-45191] [SC-143407][sql] InMemoryTableScanExec simpleStringWithNodeId fügt Spalteninformationen hinzu
  • [SPARK-45235] [SC-143314][connect][PYTHON] Map- und Array-Parameter unterstützen durch sql()
  • [SPARK-45138] [SC-143309][ss] Definieren Sie eine neue Fehlerklasse, und wenden Sie sie an, wenn das Checkpointing des Zustands zu DFS fehlschlägt.
  • [SPARK-45297] [SC-143644][sql] Umgehungslösung für den Datumsformatierer entfernen, die in SPARK-31827 hinzugefügt wurde
  • [SPARK-44345] [SC-143593][core] Protokollebene auf WARN reduzieren, wenn die Shuffle-Migration aktiviert ist
  • [SPARK-44463] [ SC-143251][ss][CONNECT] Verbessern der Fehlerbehandlung für Connect steaming Python Worker
  • [SPARK-45207] [SC-143603][sql][CONNECT] Implementieren der Fehleranreicherung für Scala-Client
  • [SPARK-45240] [SC-143602][sql][CONNECT] Implementieren der Fehleranreicherung für Python-Client
  • [SPARK-45216] [SC-143288][sql] Das Beheben von nicht deterministischen Seeded-Dataset-APIs
  • [SPARK-45251] [SC-143419][connect] Hinzufügen client_type Feld für FetchErrorDetails
  • [SPARK-45137] [SC-143001][connect] Unterstützen von Zuordnungs-/Arrayparametern in parametrisierter Weise sql()
  • [SPARK-45224] [ SC-143257][python] Fügen Sie Beispiele mit Map und Array als Parameter von hinzu. sql()
  • [SPARK-44622] [SC-143205][sql][CONNECT] Implementieren von FetchErrorDetails RPC
  • [SPARK-45178] [SC-136089] Fallback zum Ausführen eines einzelnen Batches für Trigger.AvailableNow mit nicht unterstützte Quellen anstelle von Wrappern
  • [SPARK-44823] [14.x][sc-142979][PYTHON] Aktualisieren Sie Black auf 23.9.1 und beheben Sie die fehlerhafte Prüfung
  • [SPARK-45078] [SC-142954][sql] Fix array_insert ImplicitCastInputTypes funktioniert nicht
  • [SPARK-44579] [SC-138428][sql] Unterstützung Abbrechen bei Unterbrechung in SQLExecution
  • [SPARK-45252] [SC-143371][core] Die Größer/Kleiner-als-Symbole in den Kommentaren escapen, damit sbt doc erfolgreich ausgeführt wird.
  • [SPARK-45189] [SC-142973][sql] Das Erstellen von "UnresolvedRelation" aus "TableIdentifier" sollte das Katalogfeld enthalten.
  • [SPARK-45229] [SC-143254][Core][UI] Zeigt die Anzahl der Driver an, die im übermittelten Status in MasterPage warten
  • [SPARK-43453] Rückgängig machen von “[SC-143135][ps] Ignorieren des names von MultiIndex wenn axis=1 für concat

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Siehe Databricks Runtime 14.2 Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.3 LTS
  • Java: Zulu 8.72.0.17-CA-linux64
  • Skala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 3.0.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 Attrs 22.1.0 Backcall 0.2.0
beautifulsoup4 4.11.1 schwarz 22.6.0 Bleichmittel 4.1.0
Blinker 1.4 Boto3 1.24.28 Botocore 1.27.96
Zertifizieren 2022.12.7 CFFI 1.15.1 Chardet 4.0.0
Charset-Normalizer 2.0.4 Klicken 8.0.4 Kommunikation 0.1.2
Contourpy 1.0.5 Kryptographie 39.0.1 Fahrradfahrer 0.11.0
Cython 0.29.32 Databricks-SDK 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 Dekorateur 5.1.1 defusedxml 0.7.1
Distlib 0.3.7 Docstring zu Markdown 0,11 Einstiegspunkte 0,4
ausführen 0.8.3 Übersicht der Facetten 1.1.1 fastjsonschema 2.19.0
Dateisperrung 3.12.4 fonttools 4.25.0 googleapis-common-protos 1.61.0
GRPCIO 1.48.2 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.4 importlib-metadata 4.6.4 ipykernel 6.25.0
ipython 8.14.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 jeepney 0.7.1 Jinja2 3.1.2
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.17.3
Jupyter-Client 7.3.4 Jupyter-Server 1.23.4 jupyter_core 5.2.0
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 Schlüsselring 23.5.0
kiwisolver 1.4.4 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 lxml 4.9.1 MarkupSafe 2.1.1
matplotlib 3.7.0 matplotlib-inline 0.1.6 Mccabe 0.7.0
verstimmen 0.8.4 more-itertools 8.10.0 mypy-Erweiterungen 0.4.3
nbclassic 0.5.2 nbclient 0.5.13 nbconvert 6.5.4
nbformat 5.7.0 nest-asyncio 1.5.6 nodeenv 1.8.0
Notebook 6.5.2 Notebook-Shim 0.2.2 numpy 1.23.5
oauthlib 3.2.0 Packen 22.0 Pandas 1.5.3
Pandocfilter 1.5.0 Parso 0.8.3 Pfadangabe 0.10.3
Sündenbock 0.5.3 pexpect 4.8.0 Pickleshare 0.7.5
Kissen 9.4.0 pip 22.3.1 platformdirs 2.5.2
Handlung 5.9.0 plugin-fähig 1.0.0 prometheus-client 0.14.1
Prompt-Toolkit 3.0.36 protobuf 4.24.0 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 8.0.0 Pyarrow-Hotfix 0,4 Pycparser 2.21
Pydantisch 1.10.6 Pyflakes 3.1.0 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 Pyright 1.1.294 Pyristent 0.18.0
Python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 Python-LSP-Server 1.8.0
pytoolconfig 1.2.5 Pytz 2022.7 pyzmq 23.2.0
Anforderungen 2.28.1 Seil 1.7.0 s3transfer 0.6.2
scikit-lernen 1.1.1 SciPy 1.10.0 Seegeboren 0.12.2
SecretStorage 3.3.1 Send2Trash 1.8.0 setuptools 65.6.3
sechs 1.16.0 sniffio 1.2.0 Sieb für Suppe 2.3.2.post1
ssh-import-id 5.11 Stapeldaten 0.2.0 StatistikModelle 0.13.5
Hartnäckigkeit 8.1.0 terminado 0.17.1 threadpoolctl 2.2.0
tinycss2 1.2.1 tokenize-rt 4.2.1 tomli 2.0.1
Tornado 6.1 Traitlets 5.7.1 typing_extensions 4.4.0
ujson 5.4.0 unbeaufsichtigte Aktualisierungen 0,1 urllib3 1.26.14
virtualenv 20.16.7 Wadllib 1.3.6 wcwidth 0.2.5
Webkodierungen 0.5.1 WebSocket-Client 0.58.0 Was ist neu im Patch 1.0.2
Rad 0.38.4 widgetsnbextension 3.6.1 yapf 0.33.0
ZIPP 1.0.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2023-02-10 installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 12.0.1 Askpass 1.1 prüfen, dass 0.2.1
Backports 1.4.1 Basis 4.3.1 base64enc 0.1-3
Bit 4.0.5 Bit64 4.0.5 Blob 1.2.4
Boot 1.3-28 brauen 1,0 - 8 Brio 1.1.3
Besen 1.0.5 bslib 0.5.0 cachem 1.0.8
Callr 3.7.3 Caret 6.0-94 CellRanger 1.1.0
Chron 2.3-61 Klasse 7.3-22 cli 3.6.1
Schermaschine 0.8.0 Uhr 0.7.0 Gruppe 2.1.4
Codetools 0.2-19 Farbraum 2.1-0 Commonmark 1.9.0
Kompilierer 4.3.1 Konfiguration 0.3.1 im Zwiespalt 1.2.0
cpp11 0.4.4 Buntstift 1.5.2 Anmeldeinformationen 1.3.2
curl 5.0.1 data.table 1.14.8 Datensätze 4.3.1
DBI 1.1.3 dbplyr 2.3.3 Beschreibung 1.4.2
devtools 2.4.5 Diagramm 1.6.5 diffobj 0.3.5
verdauen 0.6.33 Nach unten gerichtete Beleuchtung 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 Ellipse 0.3.2
Evaluieren 0,21 Fans 1.0.4 Farben 2.1.1
fastmap 1.1.1 fontawesome 0.5.1 Sträflinge 1.0.0
foreach 1.5.2 Fremd 0.8-82 schmieden 0.2.0
fs 1.6.2 Zukunft 1.33.0 future.apply 1.11.0
gurgeln 1.5.1 Generika 0.1.3 Gert 1.9.2
ggplot2 3.4.2 Gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 Globale Werte 0.16.2 Klebstoff 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
Grafiken 4.3.1 grGeräte 4.3.1 Raster 4.3.1
gridExtra 2.3 gsubfn 0,7 g-Tabelle 0.3.3
Schutzhelm 1.3.0 Hafen 2.5.3 Highr 0,10
HMS 1.1.3 HTML-Werkzeuge 0.5.5 htmlwidgets 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
Ausweise 1.0.1 ini 0.3.1 IPRED 0.9-14
Isobande 0.2.7 Iteratoren 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 Knitr 1,43
Etikettierung 0.4.2 später 1.3.1 Gitter 0.21-8
Lava 1.7.2.1 Lebenszyklus 1.0.3 „listenv“ 0.9.0
Schmiermittel 1.9.2 magrittr 2.0.3 Abschlag 1.7
MASSE 7.3-60 Matrix 1.5-4.1 Zwischenspeichern 2.0.1
Methoden 4.3.1 mgcv 1.8-42 Mime-Kunst 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.0 nlme 3.1-162 NNET 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.0.6 parallel 4.3.1
parallel dazu 1.36.0 Säule 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
PLOGR 0.2.0 plyr 1.8.8 loben 1.0.0
prettyunits 1.1.1 pROC 1.18.4 Prozessx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 Fortschritt 1.2.2
progressr 0.13.0 Versprechungen 1.2.0.1 Prototyp 1.0.0
Stellvertreter 0.4-27 P.S. 1.7.5 schnurren 1.0.1
r2d3 0.2.6 R6 2.5.1 Ragg 1.2.5
randomForest (Zufälliger Wald) 4.7-1.1 Rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrauer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
READR 2.1.4 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.3 Rezepte 1.0.6
Rückspiel 1.0.1 Rückspiel2 2.1.2 fernbedienungen 2.4.2
reproduzierbares Beispiel 2.0.2 Umform2 1.4.4 rlang 1.1.1
RMarkdown 2.23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
RVEST 1.0.3 Sass 0.4.6 Waage 1.2.1
selectr 0.4-2 Sitzungsinformationen 1.2.2 Gestalt 1.4.6
glänzend 1.7.4.1 sourcetools 0.1.7-1 Sparklyr 1.8.1
räumlich 7.3-15 Splines 4.3.1 sqldf 0.4-11
SQUAREM 2021.1 Statistiken 4.3.1 Statistiken4 4.3.1
Stringi 1.7.12 stringr 1.5.0 Überleben 3.5-5
sys 3.4.2 systemfonts 1.0.4 TCLTK 4.3.1
testthat 3.1.10 Textgestaltung 0.3.6 Tibble 3.2.1
tidyr 1.3.0 tidyselect 1.2.0 tidyverse 2.0.0
Zeitumstellung 0.2.0 timeDatum 4022.108 tinytex 0.45
Tools 4.3.1 Zeitzonendatenbank (tzdb) 0.4.0 URL-Prüfer 1.0.1
Nutze dies 2.2.2 utf8 1.2.3 Dienstprogramme und Funktionen 4.3.1
Universelle eindeutige Kennung (UUID) 1.1-0 VCTRS 0.6.3 viridisLite 0.4.2
Vroom 1.6.3 Waldo 0.5.1 Backenbart 0.4.1
Withr 2.5.0 xfun 0.39 xml2 1.3.5
xopen 1.0.0 xtable 1.8-4 YAML-Dateiformat 2.3.7
schwirren 2.3.0

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws aws-java-sdk-Autoskalierung 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws AWS-Java-SDK-Config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-Protokolle 1.12.390
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.390
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.7.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-schattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone fehleranfällige Annotationen 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guave 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe Konfiguration 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,25
io.delta delta-sharing-client_2.12 1.0.2
io.dropwizard.metrics Metrikanmerkung 4.2.19
io.dropwizard.metrics Metrics-Kernbibliothek 4.2.19
io.dropwizard.metrics Metrics-Graphit 4.2.19
io.dropwizard.metrics Metrik-Gesundheitschecks 4.2.19
io.dropwizard.metrics Metrics-Jetty9 4.2.19
io.dropwizard.metrics Metrics-JMX 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics Metrik-Servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty Netty-Buffer 4.1.96.Final
io.netty Netty Codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty Netty-Codec-Socken 4.1.96.Final
io.netty Netty-common 4.1.96.Final
io.netty Netty-Handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty Netty-Resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-Klassen 2.0.61.Final
io.netty Netty-Transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammlung 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv Super-CSV 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant Ant-Launcher 1.9.16
org.apache.arrow Pfeilformat 12.0.1
org.apache.arrow Pfeilspeicherkern 12.0.1
org.apache.arrow Arrow-Memory-Netty 12.0.1
org.apache.arrow Pfeil-Vektor 12.0.1
org.apache.avro avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.10.0
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator Kurator-Framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-Client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-speicher-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-Anpassungen-Common 2.3.9
org.apache.hive.shims Hive-Shims-Scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Efeu 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.mesos Mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.9.1-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.1-shaded-protobuf
org.apache.orc Orc-Shims 1.9.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus Benutzergruppenanmerkungen 0.13.0
org.apache.zookeeper Tierpfleger 3.6.3
org.apache.zookeeper Zookeeper-Jute 3.6.3
org.checkerframework Prüferqualifikation 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.52.v20230823
org.eclipse.jetty Jetty-Fortsetzung 9.4.52.v20230823
org.eclipse.jetty Jetty-HTTP 9.4.52.v20230823
org.eclipse.jetty Jetty-io 9.4.52.v20230823
org.eclipse.jetty Jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-Plus 9.4.52.v20230823
org.eclipse.jetty Jetty-Proxy 9.4.52.v20230823
org.eclipse.jetty Jetty-Sicherheit 9.4.52.v20230823
org.eclipse.jetty Jetty Server 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlet 9.4.52.v20230823
org.eclipse.jetty Jetty-Servlets 9.4.52.v20230823
org.eclipse.jetty Jetty-Util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-Webanwendung 9.4.52.v20230823
org.eclipse.jetty Jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core Jersey-Client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core Jersey-Server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator Ruhezustands-Validator 6.1.7.Endgültig
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.9
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Klemmstücke 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.9.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel Katzen-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1