Freigeben über


Databricks Runtime 13.2 (EoS)

Hinweis

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 13.2, unterstützt von Apache Spark 3.4.0.

Diese Version wurde von Databricks im Juli 2023 veröffentlicht.

Neue Features und Verbesserungen

Änderungsprotokoll-Prüfpunkte für den RocksDB-Zustandsspeicher

Sie können Änderungsprotokoll-Prüfpunkte aktivieren, um die Prüfpunktdauer und End-to-End-Latenz für zustandsbehaftete strukturierte Streamingworkloads zu verringern. Databricks empfiehlt, Änderungsprotokollprüfpunkte für alle zustandsbehafteten Abfragen von strukturiertem Streaming zu aktivieren. Weitere Informationen unter Aktivieren der Änderungsprotokollprüfpunkte.

Verbesserte Zuverlässigkeit für VACUUM mit flachem Klon im Unity-Katalog.

Wenn Sie verwaltete Unity Catalog-Tabellen für die Quelle und das Ziel eines flachen Klonvorgangs verwenden, verwaltet Unity Catalog die zugrunde liegenden Datendateien zum Verbessern der Zuverlässigkeit für die Quelle und das Ziel des Klonvorgangs. Durch das Ausführen von VACUUM auf die Quelle eines flachen Klons wird die geklonte Tabelle nicht beschädigt. Einzelheiten finden Sie unter Vacuum und flache Klone für Unity Catalog.

Unterstützung für Python-UDFs in SQL

Sie können jetzt benutzerdefinierte Funktionen mithilfe von Python innerhalb von SQL-CREATE FUNCTION-Anweisungen in Unity Catalog deklarieren. Weitere Informationen finden Sie unter User-defined functions (UDFs) in Unity Catalog (Benutzerdefinierte Funktionen (UDFs) in Unity Catalog).

Delta Lake UniForm für Apache Iceberg befindet sich in öffentlicher Beta-Version

Mit dem Delta Lake Universal Format (UniForm) können Sie Delta-Tabellen mit Apache Iceberg-Clients lesen. Siehe Lesen von Delta-Tabellen mit Iceberg-Clients.

Delta Lake Liquid Clustering befindet sich in der öffentlichen Vorschau

Delta Lake Liquid Clustering ersetzt Tabellenpartitionierung und ZORDER, um Entscheidungen zum Datenlayout zu vereinfachen und die Abfrageleistung zu optimieren. Siehe Verwenden von Flüssigclustering für Tabellen.

Archivierungsunterstützung in Azure Databricks

Die Archivierungsunterstützung in Azure Databricks führt eine Sammlung von Funktionen ein, die Ihnen den Einsatz cloudbasierter Lebenszyklusrichtlinien für Cloudobjektspeicher mit Delta-Tabellen ermöglichen, um Dateien in Archivzugriffsebenen zu verschieben. Informationen finden Sie unter Archivierungsunterstützung in Azure Databricks.

IDENTIFIER Klauselunterstützung

Verwenden Sie IDENTIFIER(:mytable), um Tabellen-, Spalten-, Funktions- und Schemanamen in vielen SQL-Anweisungen sicher zu parametrisieren.

Unity Catalog-Unterstützung für benutzerdefinierte Funktionen (User-Defined Functions, UDFs) in Python und Pandas

Auf Databricks Runtime 13.2 und höher werden in Python geschriebene benutzerdefinierte Funktionen (USER-Defined Functions, UDFs) in Clustern unterstützt, die den Standardzugriffsmodus (ehemals freigegebenen Zugriffsmodus) in einem Unity-Katalog-fähigen Arbeitsbereich verwenden. Dies schließt Python- und Pandas-UDFs ein. Ausführliche Informationen zu Python-UDFs finden Sie unter Benutzerdefinierte Skalarfunktionen – Python.

Freigeben von Schemas mithilfe von Delta Sharing

In Databricks Runtime 13.2 bietet die Möglichkeit, ALTER SHARE <share-name> ADD SCHEMA <schema-name> zu verwenden, um über Delta Sharing ein gesamtes Schema freizugeben. So erhält der Empfänger zum Zeitpunkt der Freigabe Zugriff auf alle Tabellen und Ansichten im Schema sowie auf alle Tabellen und Ansichten, die dem Schema künftig hinzugefügt werden. Siehe Hinzufügen von Schemas zu einer Freigabe und ALTER SHARE.

Fehlerkorrekturen

  • Es wurde ein Fehler mit dem JSON-Reader behoben, bei dem Datensätze im PERMISSIVE-Modus analysiert wurden, wenn failOnUnknownFieldsmode aktiviert war. Datensätze werden jetzt im DROPMALFORMEDparser-Modus gelöscht oder in den badRecordsPath geschrieben, wenn eine dieser Optionen festgelegt ist. FAILFAST löst einen Fehler aus, wenn ein Spaltentyp nicht übereinstimmt.

Bibliotheksupgrades

  • Aktualisierte Python-Bibliotheken:
    • nodeenv von 1.7.0 auf 1.8.0
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • io.delta.delta-sharing-spark_2.12 von 0.6.7 auf 0.7.0

Apache Spark

Databricks Runtime 13.2 enthält Apache Spark 3.4.0. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 13.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen an Spark:

  • [SPARK-42750] [SC-133452][dbrrm-273] Unterstützung der Insert By Name Anweisung
  • [SPARK-43133] [SC-133728] DataStreamWriter-Foreach-Unterstützung in Scala-Client
  • [SPARK-43663] [ SC-134135][connect][PS] Enable SeriesParityTests.test_compare
  • [SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Fix (NullOps|NumOps).(eq|ne) für Spark Connect.
  • [SPARK-44021] [SC-134109][sql] Hinzufügen spark.sql.files.maxPartitionNum
  • [SPARK-43910] [SC-132936][sql] Entfernen Sie __auto_generated_subquery_name aus IDs in Fehlermeldungen
  • [SPARK-43976] [SC-133375][core] Behandeln Sie den Fall, in dem modifiedConfigs in Ereignisprotokollen nicht vorhanden ist.
  • [SPARK-32559] [SC-133992][sql] Korrigieren Sie die Trim-Logik, die ASCII-Steuerzeichen nicht korrekt behandelt.
  • [SPARK-43421] [SC-132930][ss] Changelog-basierte Prüfpunkte für den RocksDB State Store Provider implementieren
  • [SPARK-43594] [SC-133851][sql] Hinzufügen von LocalDateTime zu anyToMicros
  • [SPARK-43884] [SC-133867] Parametermarker in DDL
  • [SPARK-43398] [SC-133894][core] Executor-Timeout sollte das Maximum von Leerlauf-Shuffle und RDD-Timeout sein
  • [SPARK-43610] [SC-133892][connect][PS] In Spark Connect aktivieren InternalFrame.attach_distributed_column .
  • [SPARK-43971] [SC-133826][connect][PYTHON] Unterstützung von pythons createDataFrame im Streaming-Modus.
  • [SPARK-44006] [SC-133652][connect][PYTHON] Unterstützung von Cache-Artefakten
  • [SPARK-43790] [SC-133468][python][CONNECT][ml] Api hinzufügen copyFromLocalToFs
  • [SPARK-43921] [SC-133461][protobuf] Generieren von Protobuf-Deskriptordateien während des Erstellungsprozesses
  • [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implementieren der Dateiunterstützung in SparkSession.addArtifacts
  • [SPARK-44010] [SC-133744][Python][SS][minor] Typkorrektur von rowsPerSecond in Python StreamingQueryProgress
  • [SPARK-43768] [SC-132398][python][CONNECT] Python-Abhängigkeitsverwaltungsunterstützung in Python Spark Connect
  • [SPARK-43979] [13.X] "[SC-133456][sql] Gesammelte Metriken sollten als dasselbe für die Selbstverknüpfung behandelt werden"
  • [SPARK-42290] [SC-133696][sql] Der OOM-Fehler kann nicht gemeldet werden, wenn AQE aktiviert ist.
  • [SPARK-43943] [SC-133648][sql][PYTHON][connect] Hinzufügen von SQL-mathematischen Funktionen zu Scala und Python
  • [SPARK-43747] [SC-132047][python][CONNECT] Implementieren der Pyfile-Unterstützung in SparkSession.addArtifacts
  • [SPARK-43700] [SC-133726][spark-43701][CONNECT][ps] Mit Spark Connect aktivieren TimedeltaOps.(sub|rsub)
  • [SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Aktivieren Sie den Paritätstest: test_line_plot, test_pie_plot.
  • [SPARK-43867] [ SC-132895][sql] Verbessern vorgeschlagener Kandidaten für ein nicht aufgelöstes Attribut
  • [SPARK-43901] [SC-133454][sql] Avro zur Unterstützung benutzerdefinierter Dezimaltypen, die von Long unterstützt werden
  • [SPARK-43267] [SC-133024][jdbc] Behandlung einer unbekannten benutzerdefinierten Spalte als Zeichenfolge in einem Array
  • [SPARK-43935] [SC-133637][sql][PYTHON][connect] Fügen Sie xpath_*-Funktionen zu Scala und Python hinzu.
  • [SPARK-43916] [SC-133647][sql][PYTHON][connect] Füge Perzentil zur Scala- und Python-API hinzu
  • [SPARK-43717] [SC-133455][connect] Scala-Client kann Aggregationsoperationen nicht ausführen, wenn NULL-Partitionen für Scala-primitive Eingaben vorliegen.
  • [SPARK-43984] [ SC-133469][sql][PROTOBUF] Ändern, um foreach zu verwenden, wenn map keine Ergebnisse liefert
  • [SPARK-43612] [SC-132011][connect][PYTHON] Implementieren von SparkSession.addArtifact(s) in Python-Client
  • [SPARK-44002] [SC-133606][connect] Handler für Artefaktstatus korrigieren
  • [SPARK-43933] [SC-133470][sql][PYTHON][connect] Hinzufügen linearer Regressionsaggregatfunktionen zu Scala und Python
  • [SPARK-43920] [SC-133614][sql][CONNECT] Sql/API-Modul erstellen
  • [SPARK-43979] [SC-133456][sql] Gesammelte Metriken sollten beim Self-Join als dieselben behandelt werden.
  • [SPARK-43977] [SC-133373][connect] Unerwartetes Prüfergebnis beheben von dev/connect-jvm-client-mima-check
  • [SPARK-43985] [SC-133412][protobuf] spark protobuf: Fehler bei Enums als Integer beheben
  • [SPARK-43930] [SC-133406][sql][PYTHON][connect] Fügen Sie unix_*-Funktionen zu Scala und Python hinzu.
  • [SPARK-43807] [SC-132545][sql] Migrieren _LEGACY_ERROR_TEMP_1269 zu PARTITION_SCHEMA_IS_EMPTY
  • [SPARK-43956] [SC-133123][sql] Behebung des Fehlers, der die SQL der Spalte für Quantil nicht anzeigt [Cont|Disc]
  • [SPARK-42626] [SC-133248][connect] Hinzufügen destruktiver Iterator für SparkResult
  • [SPARK-43333] [SC-132898][sql] Avro das Konvertieren des Union-Typs in SQL mit einem stabilen Feldnamen mit Typ zulassen
  • [SPARK-43953] [SC-133134][connect] Entfernen pass
  • [SPARK-43970] [SC-133403][python][CONNECT] Ausblenden nicht unterstützter Dataframemethoden aus automatischer Vervollständigung
  • [SPARK-43973] [SC-133272][ss][UI] Strukturierte Streaming-Benutzeroberfläche sollte fehlerhafte Abfragen korrekt anzeigen
  • [SPARK-42577] [SC-125445][core] Begrenzung der maximalen Anzahl von Versuchen für Phasen hinzufügen, um potenzielle unendliche Wiederholungen zu vermeiden.
  • [SPARK-43841] [ SC-132699][sql] Behandlung von Kandidatenattributen ohne Präfix in StringUtils#orderSuggestedIdentifiersBySimilarity
  • [SPARK-41497] [SC-124795][Core][Follow UP]Ändern der Konfigurationsunterstützungsversion spark.rdd.cache.visibilityTracking.enabled auf 3.5.0
  • de-DE: [SPARK-37942] [SC-130983][core][SQL] Fehlerklassen migrieren
  • [SPARK-43898] [SC-132926][Core] Automatische Registrierung von immutable.ArraySeq$ofRef für KryoSerializer Scala 2.13
  • [SPARK-43775] [SC-132891][sql] DataSource V2: Zulassen, dass Aktualisierungen als Lösch- und Einfügungen dargestellt werden
  • [SPARK-43817] [SC-132662][spark-43702][PYTHON] Unterstützung von UserDefinedType in createDataFrame aus einem Pandas DataFrame und toPandas
  • [SPARK-43418] [SC-132753][sc-130685][CONNECT] SparkSession.Builder.getOrCreate hinzufügen
  • [SPARK-43549] [SC-132383][sql] Konvertieren Sie _LEGACY_ERROR_TEMP_0036 in INVALID_SQL_SYNTAX.ANALYZE_TABLE_UNEXPECTED_NOSCAN
  • [SPARK-41497] [SC-124644][core] Korrektur der Akkumulator-Unterzählung im Fall der Wiederholungsaufgabe mit rdd-Cache
  • [SPARK-43892] [ SC-133006][python] Hinzufügen von AutoVervollständigen-Unterstützung für df[|] in pyspark.sql.dataframe.DataFrame
  • [SPARK-43881] [SC-133140][sql][PYTHON][connect] Fügen Sie optionales Muster für Catalog.listDatabases hinzu.
  • [SPARK-43205] [SC-132623] IDENTIFIER Klausel
  • [SPARK-43545] [SC-132378][sql][PYTHON] Unterstützung des geschachtelten Zeitstempeltyps
  • [SPARK-43949] [SC-133048][python] Upgrade cloudpickle auf 2.2.1
  • [SPARK-43760] [SC-132809][sql] Nullierbarkeit von skalaren Unterabfrageergebnissen
  • [SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Fix TimedeltaOps für Spark Connect
  • [SPARK-43895] [SC-132897][connect][GO] Vorbereiten des Pfads für das Go-Paket
  • [SPARK-43894] [ SC-132892][python] Fehler in df.cache() beheben
  • [SPARK-43509] [SC-131625][connect] Unterstützung beim Erstellen mehrerer Spark Connect-Sitzungen
  • [SPARK-43882] [SC-132888][sql] Weisen Sie _LEGACY_ERROR_TEMP_2122 einen Namen zu
  • [SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Fix NumOps für Spark Connect
  • [SPARK-43604] [SC-132165][sql] Umgestaltung INVALID_SQL_SYNTAX um zu vermeiden, den Text des Fehlers im Quellcode einzubetten
  • [SPARK-43859] [SC-132883][sql] Überschreiben von toString in LateralColumnAliasReference
  • [SPARK-43792] [SC-132939][sql][PYTHON][connect] Fügen Sie optionales Muster für Catalog.listCatalogs hinzu.
  • [SPARK-43353] Rückgängigmachen „[SC-132734][python] Migrieren von verbleibenden Sitzungsfehlern in Fehlerklasse“
  • [SPARK-43375] [SC-130309][connect] Verbessern Sie die Fehlermeldungen für INVALID_CONNECT_URL
  • [SPARK-43863] [SC-132721][connect] Entfernen von überflüssigem toSeq aus SparkConnectPlanner für Scala 2.13
  • [SPARK-43676] [SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Fix DatetimeOps für Spark Connect
  • [SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Fix BinaryOps für Spark Connect
  • [SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Fix NullOps für Spark Connect
  • [SPARK-43782] [SC-132885][core] Unterstützung der Konfiguration der Protokollierungsstufe mit statischer Spark-Konfiguration
  • [SPARK-43132] [SC-131623] [SS] [CONNECT] DataStreamWriter-foreach()-API in Python-Client
  • [SPARK-43290] [SC-131961][sql] Fügt AES IV- und AAD-Unterstützung zu ExpressionImplUtils hinzu
  • [SPARK-43795] [ SC-132532][connect] Parameter entfernen, die für SparkConnectPlanner nicht verwendet werden
  • [SPARK-42317] [SC-129194][sql] Weise _LEGACY_ERROR_TEMP_2247 einen Namen zu: CANNOT_MERGE_SCHEMAS
  • [SPARK-43597] [SC-131960][sql] Weisen Sie der Fehlerklasse _LEGACY_ERROR_TEMP_0017 einen Namen zu
  • [SPARK-43834] [SC-132679][sql] Verwenden von Fehlerklassen bei Kompilierungsfehlern ResolveDefaultColumns
  • [SPARK-43749] [SC-132423][spark-43750][SQL] Weisen Sie Namen der Fehlerklasse _LEGACY_ERROR_TEMP_240[4-5] zu.
  • [SPARK-43576] [ SC-132533][Kern] Entfernen nicht verwendeter Deklarationen aus dem Core-Modul
  • [SPARK-43314] [SC-129970][connect][PYTHON] Spark Connect-Clientfehler in Fehlerklasse überführen
  • [SPARK-43799] [SC-132715][python] Eine binäre Deskriptor-Option zur Pyspark-Protobuf-API hinzufügen
  • [SPARK-43837] [SC-132678][sql] Weisen Sie der Fehlerklasse einen Namen zu_LEGACY_ERROR_TEMP_103[1-2]
  • [SPARK-43862] [SC-132750][sql] Weisen Sie der Fehlerklasse einen Namen LEGACY_ERROR_TEMP(1254 & 1315) zu.
  • [SPARK-43886] [SC-132808][python] Generische Tupel als Typ-Hinweise von Pandas UDF akzeptieren
  • [SPARK-43530] [ SC-132653][protobuf] Deskriptordatei nur einmal lesen
  • [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_241[1-7] zu.
  • [SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Fix CategoricalOps für Spark Connect
  • [SPARK-39979] [SC-132685][sql] Option zur Nutzung großer variabler Breitenvektoren für Arrow-UDF-Operationen
  • [SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Fix StringOps für Spark Connect
  • [SPARK-43353] [SC-132734][python] Migriere verbleibende Sitzungsfehler in Fehlerklasse
  • [SPARK-43815] [SC-132781][sql] Alias to_varchar hinzufügen für to_char
  • [SPARK-43543] [13.x][sc-131839][PYTHON] Behebung von Problemen mit dem geschachtelten MapType-Verhalten in Pandas UDF.
  • [SPARK-43361] [SC-131789][protobuf] Aktualisierung der Dokumentation für Fehler im Zusammenhang mit der Enum-Serialisierung
  • [SPARK-43740] [SC-132035][python][CONNECT] Ausblenden nicht unterstützter session Methoden aus der automatischen Vervollständigung
  • [SPARK-43022] [SC-131681][connect] Unterstützung von Protobuf-Funktionen für Scala-Client
  • [SPARK-43304] [13.x][sc-129969][CONNECT][python] Migrieren NotImplementedError zu PySparkNotImplementedError
  • [SPARK-43860] [SC-132713][sql] Aktivieren Der Tail-Rekursion nach Möglichkeit
  • [SPARK-42421] [SC-132695][core] Verwenden Sie die Utils, um den Switch für die dynamische Zuordnung abzurufen, die im lokalen Checkpoint verwendet wird.
  • [SPARK-43590] [SC-132012][connect] Ermöglichen Sie connect-jvm-client-mima-check die Unterstützung der Mima-Prüfung mit dem protobuf-Modul
  • [SPARK-43315] [13.x][connect][PYTHON][ss] Verbleibende Fehler von DataFrame(Reader|Writer) in Fehlerklasse verschieben
  • [SPARK-43361] [SC-130980][protobuf] spark-protobuf: Serde mit Enumeration als Ints zulassen
  • [SPARK-43789] [SC-132397][r] Verwendet 'spark.sql.execution.arrow.maxRecordsPerBatch' in der R-Funktion createDataFrame mit Arrow standardmäßig.
  • [SPARK-43596] [SC-126994][sql] Behandle das IsNull-Prädikat in rewriteDomainJoins
  • [SPARK-42249] [SC-122565][sql] Verfeinerung des HTML-Links für die Dokumentation in Fehlermeldungen.
  • [SPARK-43128] [SC-131628][connect][SS] recentProgress und lastProgress konsistent mit der nativen Scala API zurückgeben machen
  • [SPARK-43387] [SC-130448][sql] Stellen Sie einen lesbaren Fehlercode für _LEGACY_ERROR_TEMP_1168 bereit.
  • [SPARK-43334] [SC-132358] [UI] Beheben eines Fehlers beim Serialisieren von ExecutorPeakMetricsDistributions in API-Antwort
  • [SPARK-42958] [SC-131475][connect] Umstrukturierung connect-jvm-client-mima-check zur Unterstützung der Mima-Prüfung mit dem Avro-Modul
  • [SPARK-43591] [SC-131977][sql] Weisen Sie der Fehlerklasse _LEGACY_ERROR_TEMP_0013 einen Namen zu
  • [SPARK-38464] [SC-132211][core] Verwenden von Fehlerklassen in org.apache.spark.io
  • [SPARK-43759] [SC-132189][sql][PYTHON] Verfügbarmachen von TimestampNTZType in pyspark.sql.types
  • [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Weisen Sie der Fehlerklasse Namen _LEGACY_ERROR_TEMP_240[1-3] zu.
  • [SPARK-43719] [SC-132016][webui] Feld missing row.excludedInStages verarbeiten
  • [SPARK-42956] [SC-127257][connect] Unterstützung von Avro-Funktionen für den Scala-Client
  • [SPARK-43487] [SC-131975][sql] Fehlermeldung für geschachtelte CTEs korrigieren
  • [SPARK-43265] [SC-129653] Verschieben des Fehlerframeworks in ein allgemeines utils-Modul
  • [SPARK-40912] [SC-131547][core]Overhead von Ausnahmen im KryoDeserializationStream
  • [SPARK-43583] [SC-131976][core] MergedBlockedMetaReqHandler von dem Delegierten anstelle der SaslRpcHandler-Instanz abrufen.
  • [SPARK-42996] [SC-131997][connect][PS][ml] Erstellen und Zuweisen ordnungsgemäßer JIRA-Tickets für alle Fehlerhaften Tests.
  • [SPARK-38469] [SC-131425][core] Verwenden Sie die Fehlerklasse in org.apache.spark.network
  • [SPARK-43718] [SC-132014][sql] Lässt nullwerte für Schlüssel in USING-Verknüpfungen richtig fest
  • [SPARK-43502] [ SC-131419][python][CONNECT] DataFrame.drop sollte leere Spalte akzeptieren
  • [SPARK-43743] [SC-132038][sql] Port HIVE-12188(DoAs funktioniert in nicht Kerberos-sicheren HS2 nicht ordnungsgemäß)
  • [SPARK-43598] [SC-131929][sql] Weisen Sie der Fehlerklasse _LEGACY_ERROR_TEMP_2400 einen Namen zu.
  • [SPARK-43138] [SC-131031][core] Fix ClassNotFoundException während der Migration
  • [SPARK-43360] [SC-131526][ss][CONNECT] Scala-Client StreamingQueryManager
  • [SPARK-38467] [SC-131025][core] Verwenden von Fehlerklassen in org.apache.spark.memory
  • [SPARK-43345] [SC-131790][spark-43346][SQL] Benennen Sie die Fehlerklassen LEGACY_ERROR_TEMP[0041|1206] um.
  • [SPARK-42815] [SC-126450][sql] Unterstützung für die Eliminierung von Unterausdrücken bei Verknüpfungsausdrücken
  • [SPARK-38462] [SC-130449][KERN] Fehlerklasse hinzufügen INTERNAL_ERROR_EXECUTOR
  • [SPARK-43589] [SC-131798][sql] cannotBroadcastTableOverMaxTableBytesError beheben, um bytesToString zu verwenden
  • [SPARK-43539] [SC-131830][sql] Weisen Sie der Fehlerklasse einen Namen zu_LEGACY_ERROR_TEMP_0003
  • [SPARK-43157] [SC-131688][sql] InMemoryRelation-Zwischenspeicherplan klonen, um zu verhindern, dass der geklonte Plan auf dieselben Objekte verweist.
  • [SPARK-43309] [SC-129746][spark-38461][CORE] Erweitern INTERNAL_ERROR mit Kategorien und Hinzufügen von Fehlerklassen INTERNAL_ERROR_BROADCAST
  • [SPARK-43281] [SC-131370][sql] Beheben, dass ein gleichzeitiger Schreiber keine Dateimetriken aktualisiert.
  • [SPARK-43383] [SC-130660][sql] Hinzufügen von rowCount Statistiken zu LocalRelation
  • [SPARK-43574] [SC-131739][python][SQL] Unterstützung für das Festlegen einer ausführbaren Python-Datei für UDF- und Pandas-Funktions-APIs in Workern während der Laufzeit
  • [SPARK-43569] [SC-131694][sql] Problemumgehung für HADOOP-14067 entfernen
  • [SPARK-43183] [SC-128938][ss][13.x] Führt einen neuen Rückruf "onQueryIdle" in StreamingQueryListener ein
  • [SPARK-43528] [SC-131531][sql][PYTHON] Unterstützen duplizierter Feldnamen in createDataFrame mit Pandas DataFrame
  • [SPARK-43548] [SC-131686][ss] Problemumgehung für HADOOP-16255 entfernen
  • [SPARK-43494] [SC-131272][Core] Direkt replicate() für HdfsDataOutputStreamBuilder anrufen anstelle von Reflexion in SparkHadoopUtil#createFile
  • [SPARK-43471] [SC-131063][core] Fehlende hadoopProperties und metricsProperties behandeln
  • [SPARK-42899] [SC-126456][sql] Korrigiert DataFrame.to(schema), um den Fall zu behandeln, in dem ein nicht-nullwertiges geschachteltes Feld in einem nullfähigen Feld vorhanden ist.
  • [SPARK-43302] [SC-129747][sql] Python UDAF zu einer Aggregatfunktion machen
  • [SPARK-43223] [SC-131270][connect] Eingegeben agg, Reduzieren von Funktionen, RelationalGroupedDataset#as
  • [SPARK-43482] [SC-131375][ss] Erweitern Sie QueryTerminatedEvent, um fehlerklasse zu enthalten, wenn sie in Ausnahme vorhanden ist
  • [SPARK-43359] [SC-131463][sql] Löschen aus einer Hive-Tabelle sollte "UNSUPPORTED_FEATURE.TABLE_OPERATION" auslösen.
  • [SPARK-43284] [SC-130313] Zurückwechseln zu URL-codierten Zeichenfolgen
  • [SPARK-43492] [SC-131227][sql] 3-Argument-Funktions-Alis hinzufügen DATE_ADD und DATE_DIFF
  • [SPARK-43473] [SC-131372][python] Unterstützung des Strukturtyps bei der Erstellung eines DataFrame aus einem Pandas DataFrame
  • [SPARK-43386] [SC-131110][sql] Verbesserung der Liste der vorgeschlagenen Spalten/Attribute in der UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse
  • [SPARK-43443] [SC-131332][sql] Benchmark für die Typinferenz von Zeitstempeln bei ungültigen Werten hinzufügen.
  • [SPARK-43518] [SC-131420][sql] In INTERNAL_ERROR konvertieren _LEGACY_ERROR_TEMP_2029
  • [SPARK-42604] [ SC-130648][connect] Implementierung von Funktionen.typedlit
  • [SPARK-42323] [ES-669513] Rückgängig machen “[SC-123479][sql] Zuweisung eines Namens zu _LEGACY_ERROR_TEMP_2332
  • [SPARK-43357] [SC-130649][sql] Datumstyp bei Filterung mit Anführungszeichen versehen
  • [SPARK-43410] [ SC-130526][sql] Verbessern der vektorisierten Schleife für gepackte SkipValues
  • [SPARK-43441] [SC-130995][core] makeDotNode sollte nicht fehlschlagen, wenn DeterministicLevel nicht vorhanden ist.
  • [SPARK-43324] [SC-130455][sql] Verarbeitung von Befehlen für deltabasierte Quellen
  • [SPARK-43272] [SC-131168][Kern] Rufen Sie direkt createFile anstelle der Reflexion auf
  • [SPARK-43296] [13.x][sc-130627][CONNECT][python] Migration von Spark Connect-Sitzungsfehlern in eine Fehlerklasse
  • [SPARK-43405] [SC-130987][sql] Entfernen Nutzlos getRowFormatSQL, , inputRowFormatSQLoutputRowFormatSQL Methode
  • [SPARK-43447] [SC-131017][r] Unterstützung für R 4.3.0
  • [SPARK-43425] [ SC-130981][sql] Hinzufügen TimestampNTZType zu ColumnarBatchRow
  • [SPARK-41532] [SC-130523][connect][CLIENT] Fügen Sie die Überprüfung auf Vorgänge hinzu, die mehrere Datenframes umfassen
  • [SPARK-43262] [SC-129270][connect][SS][Python] Migration von Spark Connect Structured Streaming-Fehlern in die Fehlerklasse
  • [SPARK-42992] [13.x][sc-129465][PYTHON] Stellt PySparkRuntimeError vor
  • [SPARK-43422] [SC-130982][sql] Tags bei LogicalRelation mit Metadaten-Ausgabe beibehalten
  • [SPARK-43390] [SC-130646][sql] DSv2 ermöglicht CTAS/RTAS, die Nullierbarkeit des Schemas zu reservieren.
  • [SPARK-43430] [ SC-130989][connect][PROTO] ExecutePlanRequest unterstützt beliebige Anforderungsoptionen.
  • [SPARK-43313] [SC-130254][sql] Hinzufügung fehlender Spalten-Standardwerte für MERGE-Aktionen INSERT
  • [SPARK-42842] [SC-130438][sql] Zusammenführen der Fehlerklasse _LEGACY_ERROR_TEMP_2006 in REGEX_GROUP_INDEX
  • [SPARK-43377] [SC-130405][sql] Standardmäßig aktivieren spark.sql.thriftServer.interruptOnCancel
  • [SPARK-43292] [SC-130525][core][CONNECT] Wechsle ExecutorClassLoader zu core Modul und vereinfache Executor#addReplClassLoaderIfNeeded
  • [SPARK-43040] [SC-130310][sql] Verbesserung der Unterstützung des TimestampNTZ-Typs in der JDBC-Datenaquelle
  • [SPARK-43343] [SC-130629][ss] FileStreamSource sollte beim Erstellen von DataSource eine zusätzliche Datei-Globprüfung deaktivieren.
  • [SPARK-43312] [SC-130294][protobuf] Option zum Konvertieren von Feldern in JSON
  • [SPARK-43404] [SC-130586][ss] Umgehen der erneuten Verwendung der sst-Datei für dieselbe Version des RocksDB-Zustandsspeichers, um einen ID-Fehlübereinstimmungsfehler zu vermeiden.
  • [SPARK-43397] [SC-130614][Core] Protokolliere die Dauer der Außerbetriebnahme im Ausführungsprotokoll in der executorLost Methode
  • [SPARK-42388] [SC-128568][sql] Vermeiden von doppeltem Lesen der Parquet-Fußzeilen im vektorisierten Leser
  • [SPARK-43306] [13.x][sc-130320][PYTHON] Migrieren von ValueError aus Spark SQL-Typen in fehlerklasse
  • [SPARK-43337] [SC-130353][ui][3.4] Asc/desc-Pfeilsymbole zum Sortieren von Spalten werden in der Tabellenspalte nicht angezeigt
  • [SPARK-43279] [ SC-130351][Core] Bereinigen nicht verwendeter Elemente aus SparkHadoopUtil
  • [SPARK-43250] [SC-130147][sql] Ersetzen Sie die Fehlerklasse _LEGACY_ERROR_TEMP_2014 durch einen internen Fehler.
  • [SPARK-43363] [SC-130299][sql][PYTHON] Den Kategorietyp nur dann aufrufen, wenn der Arrow-Typ nicht bereitgestellt wird astype.
  • [SPARK-43261] [SC-130154][python] Migrieren TypeError von Spark SQL-Typen zu Fehlerklasse
  • [SPARK-41971] [SC-130230][sql][PYTHON] Fügen Sie eine Konfiguration für Pandas-Konvertierung hinzu, wie Strukturtypen behandelt werden.
  • [SPARK-43381] [SC-130464][connect] "transformStatCov" lazy machen
  • [SPARK-43362] [SC-130481][sql] Spezielle Behandlung des JSON-Typs für MySQL-Connector
  • [SPARK-42843] [SC-130196][sql] Aktualisieren der Fehlerklasse _LEGACY_ERROR_TEMP_2007 auf REGEX_GROUP_INDEX
  • [SPARK-42585] [ SC-129968][connect] Streaming von lokalen Beziehungen
  • [SPARK-43181] [SC-130476][sql] Ui-WebURL in spark-sql Shell anzeigen
  • [SPARK-43051] [SC-130194][connect] Option zum Ausgeben von Standardwerten hinzufügen
  • [SPARK-43204] [SC-129296][sql] Ausrichten von MERGE-Zuordnungen an Tabellenattributen
  • [SPARK-43348] [SC-130082][python] Unterstützung für Python 3.8 in PyPy3
  • [SPARK-42845] [SC-130078][sql] Aktualisieren der Fehlerklasse _LEGACY_ERROR_TEMP_2010 auf InternalError
  • [SPARK-43211] [ SC-128978][hive] Entfernen der Hadoop2-Unterstützung in IsolatedClientLoader

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Skala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
Appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 Attrs 21.4.0 Backcall 0.2.0
beautifulsoup4 4.11.1 schwarz 22.6.0 Bleichmittel 4.1.0
Blinker 1.4 Boto3 1.24.28 Botocore 1.27.28
Zertifizieren 2022.9.14 CFFI 1.15.1 Chardet 4.0.0
Charset-Normalizer 2.0.4 Klicken 8.0.4 Kryptographie 37.0.1
Fahrradfahrer 0.11.0 Cython 0.29.32 Databricks-SDK 0.1.6
dbus-python 1.2.18 debugpy 1.5.1 Dekorateur 5.1.1
defusedxml 0.7.1 Distlib 0.3.6 Docstring zu Markdown 0,12
Einstiegspunkte 0,4 ausführen 1.2.0 Übersicht der Facetten 1.0.3
fastjsonschema 2.16.3 Dateisperrung 3.12.0 fonttools 4.25.0
googleapis-common-protos 1.56.4 GRPCIO 1.48.1 grpcio-status 1.48.1
httplib2 0.20.2 idna 3.3 importlib-metadata 4.6.4
ipykernel 6.17.1 ipython 8.10.0 ipython-genutils 0.2.0
ipywidgets 7.7.2 Jedi 0.18.1 jeepney 0.7.1
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.2.0
jsonschema 4.16.0 Jupyter-Client 7.3.4 jupyter_core 4.11.2
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 Schlüsselring 23.5.0
kiwisolver 1.4.2 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 MarkupSafe 2.0.1 matplotlib 3.5.2
matplotlib-inline 0.1.6 Mccabe 0.7.0 verstimmen 0.8.4
more-itertools 8.10.0 mypy-Erweiterungen 0.4.3 nbclient 0.5.13
nbconvert 6.4.4 nbformat 5.5.0 nest-asyncio 1.5.5
nodeenv 1.8.0 Notebook 6.4.12 numpy 1.21.5
oauthlib 3.2.0 Packen 21,3 Pandas 1.4.4
Pandocfilter 1.5.0 Parso 0.8.3 Pfadangabe 0.9.0
Sündenbock 0.5.2 pexpect 4.8.0 Pickleshare 0.7.5
Kissen 9.2.0 Kern 22.2.2 platformdirs 2.5.2
Handlung 5.9.0 plugin-fähig 1.0.0 prometheus-client 0.14.1
Prompt-Toolkit 3.0.36 protobuf 3.19.4 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 8.0.0 Pycparser 2.21 Pydantisch 1.10.6
Pyflakes 3.0.1 Pygments 2.11.2 PyGObject 3.42.1
PyJWT 2.3.0 Pyodbc 4.0.32 Pyparsing 3.0.9
Pyright 1.1.294 Pyristent 0.18.0 Python-dateutil 2.8.2
python-lsp-jsonrpc 1.0.0 Python-LSP-Server 1.7.1 pytoolconfig 1.2.2
Pytz 2022.1 pyzmq 23.2.0 Anforderungen 2.28.1
Seil 1.7.0 s3transfer 0.6.0 scikit-lernen 1.1.1
SciPy 1.9.1 Seegeboren 0.11.2 SecretStorage 3.3.1
Send2Trash 1.8.0 setuptools 63.4.1 sechs 1.16.0
Sieb für Suppe 2.3.1 ssh-import-id 5.11 Stapeldaten 0.6.2
StatistikModelle 0.13.2 Hartnäckigkeit 8.1.0 abgeschlossen 0.13.1
Testpfad 0.6.0 Threadpoolctl 2.2.0 tokenize-rt 4.2.1
tomli 2.0.1 Tornado 6.1 Traitlets 5.1.1
typing_extensions 4.3.0 ujson 5.4.0 unbeaufsichtigte Aktualisierungen 0,1
urllib3 1.26.11 virtualenv 20.16.3 Wadllib 1.3.6
wcwidth 0.2.5 Webkodierungen 0.5.1 Was ist neu im Patch 1.0.2
Rad 0.37.1 widgetsnbextension 3.6.1 yapf 0.31.0
ZIPP 1.0.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 10.02.2023 installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 10.0.1 Askpass 1.1 prüfen, dass 0.2.1
Backports 1.4.1 Basis 4.2.2 base64enc 0.1-3
Bit 4.0.5 Bit64 4.0.5 Blob 1.2.3
Boot 1.3-28 brauen 1,0 - 8 Brio 1.1.3
Besen 1.0.3 bslib 0.4.2 cachem 1.0.6
Callr 3.7.3 Caret 6.0-93 CellRanger 1.1.0
Chron 2.3-59 Klasse 7.3-21 cli 3.6.0
Schermaschine 0.8.0 Uhr 0.6.1 Gruppe 2.1.4
Codetools 0.2-19 Farbraum 2.1-0 Commonmark 1.8.1
Kompilierer 4.2.2 Konfiguration 0.3.1 cpp11 0.4.3
Buntstift 1.5.2 Anmeldeinformationen 1.3.2 Locke 5.0.0
Datentabelle 1.14.6 Datensätze 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Beschreibung 1.4.2 devtools 2.4.5
diffobj 0.3.5 verdauen 0.6.31 Nach unten gerichtete Beleuchtung 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
Ellipse 0.3.2 Evaluieren 0,20 Fans 1.0.4
Farben 2.1.1 fastmap 1.1.0 fontawesome 0.5.0
Sträflinge 1.0.0 Foreach 1.5.2 Fremd 0.8-82
schmieden 0.2.0 Fs 1.6.1 Zukunft 1.31.0
future.apply 1.10.0 gurgeln 1.3.0 Generika 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 Globale Werte 0.16.2
Klebstoff 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 Grafiken 4.2.2 grGeräte 4.2.2
Raster 4.2.2 gridExtra 2.3 gsubfn 0,7
g-Tabelle 0.3.1 Schutzhelm 1.2.0 Hafen 2.5.1
Highr 0,10 HMS 1.1.2 HTML-Werkzeuge 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Ausweise 1.0.1 ini 0.3.1 IPRED 0.9-13
Isobande 0.2.7 Iteratoren 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 Knitr 1.42
Etikettierung 0.4.2 später 1.3.0 Gitter 0.20-45
Lava 1.7.1 Lebenszyklus 1.0.3 „listenv“ 0.9.0
Schmiermittel 1.9.1 magrittr 2.0.3 Abschlag 1.5
MASSE 7.3-58.2 Matrix 1.5-1 Zwischenspeichern 2.0.1
Methodik 4.2.2 mgcv 1.8-41 Mime-Kunst 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 Modellierer 0.1.10
munsell 0.5.0 nlme 3.1-162 NNET 7.3-18
numDeriv 2016.8 bis 1.1 OpenSSL 2.0.5 parallel 4.2.2
parallel dazu 1.34.0 Säule 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
PLOGR 0.2.0 plyr 1.8.8 loben 1.0.0
prettyunits 1.1.1 Proc 1.18.0 Prozessx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Fortschritt 1.2.2
progressr 0.13.0 Versprechungen 1.2.0.1 Prototyp 1.0.0
Stellvertreter 0.4-27 P.S. 1.7.2 schnurren 1.0.1
r2d3 0.2.6 R6 2.5.1 Ragg 1.2.5
randomForest (Zufälliger Wald) 4.7-1.1 Rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrauer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
READR 2.1.3 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.2 Rezepte 1.0.4
Rückspiel 1.0.1 Rückspiel2 2.1.2 fernbedienungen 2.4.2
reproduzierbares Beispiel 2.0.2 Umform2 1.4.4 rlang 1.0.6
RMarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
RVEST 1.0.3 Sass 0.4.5 Waage 1.2.1
Auswahl 0.4-2 Sitzungsinformationen 1.2.2 Gestalt 1.4.6
glänzend 1.7.4 sourcetools 0.1.7-1 Sparklyr 1.7.9
SparkR 3.4.0 räumlich 7.3-15 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 Statistiken 4.2.2
Statistiken4 4.2.2 Stringi 1.7.12 stringr 1.5.0
Überleben 3.5-3 sys 3.4.1 systemfonts 1.0.4
TCLTK 4.2.2 testthat 3.1.6 Textgestaltung 0.3.6
Tibble 3.1.8 Räumter 1.3.0 aufräumen 1.2.0
aufräumen 1.3.2 Zeitumstellung 0.2.0 timeDatum 4022.108
tinytex 0.44 Tools 4.2.2 Zeitzonendatenbank (tzdb) 0.3.0
URL-Prüfer 1.0.1 Nutze dies 2.1.6 utf8 1.2.3
Dienstprogramme und Funktionen 4.2.2 Universelle eindeutige Kennung (UUID) 1.1-0 VCTRS 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
Backenbart 0.4.1 Withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML-Dateiformat 2.3.7 schwirren 2.2.2

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws aws-java-sdk-Autoskalierung 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws AWS-Java-SDK-Config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-db 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-Protokolle 1.12.390
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.390
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-schattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.3.4
com.fasterxml.jackson.core Jackson-Anmerkungen 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone fehleranfällige Annotationen 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guave 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox Bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver mssql-jdbc-Treiber 11.2.2.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tduning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses linsen_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe Konfiguration 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
Gemeinsame Protokollierung Gemeinsame Protokollierung 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0,21
io.delta delta-sharing-spark_2.12 0.7.0
io.dropwizard.metrics Metrics-Kernbibliothek 4.2.10
io.dropwizard.metrics Metrics-Graphit 4.2.10
io.dropwizard.metrics Metrik-Gesundheitschecks 4.2.10
io.dropwizard.metrics Metrics-Jetty9 4.2.10
io.dropwizard.metrics Metrics-JMX 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics Metrik-Servlets 4.2.10
io.netty nett-all 4.1.87.Final
io.netty Netty-Buffer 4.1.87.Final
io.netty Netty Codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty Netty-Codec-Socken 4.1.87.Final
io.netty Netty-common 4.1.87.Final
io.netty Netty-Handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty Netty-Resolver 4.1.87.Final
io.netty Netty-Transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammlung 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv Super-CSV 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.Schneeflocke Snowflake-JDBC 3.13.29
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant Ant-Launcher 1.9.16
org.apache.arrow Pfeilformat 11.0.0
org.apache.arrow Pfeilspeicherkern 11.0.0
org.apache.arrow Arrow-Memory-Netty 11.0.0
org.apache.arrow Pfeil-Vektor 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.10.0
org.apache.curator Kurator-Klient 2.13.0
org.apache.curator Kurator-Framework 2.13.0
org.apache.curator Rezepte des Kurators 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-silk 2.3.9
org.apache.hive hive-llap-Client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-speicher-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-Anpassungen-Common 2.3.9
org.apache.hive.shims Hive-Shims-Scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Efeu 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos Mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc Orc-Shims 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,22
org.apache.yetus Benutzergruppenanmerkungen 0.13.0
org.apache.zookeeper Tierpfleger 3.6.3
org.apache.zookeeper Zookeeper-Jute 3.6.3
org.checkerframework Prüferqualifikation 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.50.v20221201
org.eclipse.jetty Jetty-Fortsetzung 9.4.50.v20221201
org.eclipse.jetty Jetty-HTTP 9.4.50.v20221201
org.eclipse.jetty Jetty-io 9.4.50.v20221201
org.eclipse.jetty Jetty-jndi 9.4.50.v20221201
org.eclipse.jetty Jetty-Plus 9.4.50.v20221201
org.eclipse.jetty Jetty-Proxy 9.4.50.v20221201
org.eclipse.jetty Jetty-Sicherheit 9.4.50.v20221201
org.eclipse.jetty Jetty Server 9.4.50.v20221201
org.eclipse.jetty Jetty-Servlet 9.4.50.v20221201
org.eclipse.jetty Jetty-Servlets 9.4.50.v20221201
org.eclipse.jetty Jetty-Util 9.4.50.v20221201
org.eclipse.jetty Jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty Jetty-Webanwendung 9.4.50.v20221201
org.eclipse.jetty Jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket WebSocket-API 9.4.50.v20221201
org.eclipse.jetty.websocket WebSocket-Client 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket WebSocket-Server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core Jersey-Client 2,36
org.glassfish.jersey.core jersey-common 2,36
org.glassfish.jersey.core Jersey-Server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator Ruhezustands-Validator 6.1.7.Endgültig
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.aspx mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis Objenese 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Klemmstücke 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten 3ten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel Katzen-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-servers 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml Schlangenyaml 1,33
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1