Freigeben über


Databricks Runtime 17.1

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.1, unterstützt von Apache Spark 4.0.0.

Azure Databricks hat diese Version im August 2025 veröffentlicht.

Tipp

Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.

Neue Features und Verbesserungen

Erweiterte räumliche SQL-Ausdrücke und GEOMETRY- und GEOGRAPHY-Datentypen

Sie können jetzt geospatiale Daten in integrierten GEOMETRY Und GEOGRAPHY Spalten speichern, um die Leistung räumlicher Abfragen zu verbessern. Diese Version fügt mehr als 80 neue räumliche SQL-Ausdrücke hinzu, einschließlich Funktionen zum Importieren, Exportieren, Messen, Konstruieren, Bearbeiten, Validieren, Transformieren und Bestimmen von topologischen Beziehungen mit räumlichen Verknüpfungen. Siehe ST-Geospatialfunktionen, GEOGRAPHY -Typ und GEOMETRY -Typ.

Rekursive allgemeine Tabellenausdrücke (GA)

Rekursive allgemeine Tabellenausdrücke (rCTEs) sind jetzt allgemein verfügbar. Verwenden Sie rCTEs, um hierarchische Daten mit einem selbstverweisenden CTE zu navigieren und mit UNION ALL rekursive Beziehungen zu verfolgen.

Unity Catalog Python benutzerdefinierte Tabellenfunktionen (UDTFs)

Sie können jetzt Python UDTFs im Unity-Katalog für zentrale Governance und wiederverwendbare Logik in SQL-Abfragen registrieren. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog.

Unterstützung für die Standardsortierung auf Schema- und Katalogebene

Sie können jetzt eine Standardsortierung für Schemas und Kataloge in Databricks Runtime 17.1 festlegen. Auf diese Weise können Sie eine Sortierung definieren, die für alle Objekte gilt, die im Schema oder Katalog erstellt wurden, um ein konsistentes Sortierungsverhalten für Ihre Daten sicherzustellen.

Ausführungsumgebung für die Freigegebene Isolation für Python-UDFs im Batch-Unity-Katalog

Batch Unity Catalog Python UDFs mit demselben Besitzer können jetzt standardmäßig eine Isolationsumgebung freigeben. Dies kann die Leistung verbessern und die Speicherauslastung verringern, indem die Anzahl separater Umgebungen reduziert wird, die gestartet werden müssen.

Um sicherzustellen, dass eine UDF immer in einer vollständig isolierten Umgebung ausgeführt wird, fügen Sie die STRICT ISOLATION Merkmalsklausel hinzu. Siehe Umgebungsisolation.

Bessere Behandlung von JSON-Optionen mit VARIANT

Die from_json und to_json Funktionen wenden jetzt json-Optionen beim Arbeiten mit Schemas der obersten Ebene VARIANT ordnungsgemäß an. Dadurch wird ein konsistentes Verhalten mit anderen unterstützten Datentypen sichergestellt.

display() unterstützt den Streaming-Real-Time-Modus

Sie können die display() Funktion mit Streamingabfragen verwenden, die einen Echtzeittrigger verwenden. In diesem Modus verwendet display() automatisch den Ausgabemodus update und vermeidet das Hinzufügen einer LIMIT-Klausel, die mit update nicht unterstützt wird. Das Anzeigeaktualisierungsintervall wird auch von der Batchdauer entkoppelt, um die Reaktionsfähigkeit in Echtzeit zu verbessern.

Ratenquelle unterstützt Streaming-Echtzeitmodus

Die Ratequelle im strukturierten Streaming funktioniert jetzt mit Echtzeittriggern und ermöglicht die kontinuierliche Generierung von Daten für Streamingpipelines mithilfe des Streaming-Real-Time-Modus.

Ereigniszeitgeber für zeitbasierte Fenster werden unterstützt

Azure Databricks unterstützt ereigniszeitbasierte Trigger für zeitbasierte Fenstervorgänge im Streaming-Real-Time-Modus. Dies ermöglicht eine genauere Behandlung von verspäteten Daten und Wasserzeichen in Echtzeit-Streamingabfragen.

Scalar Python UDFs unterstützen Dienstanmeldeinformationen

Skalare Python UDFs können Unity Catalog Service-Anmeldeinformationen verwenden, um sicher auf externe Clouddienste zuzugreifen. Dies ist nützlich, um Vorgänge wie cloudbasierte Tokenisierung, Verschlüsselung oder geheime Verwaltung direkt in Ihre Datentransformationen zu integrieren.

Verbesserte Schemaauflistung

Der Snowflake-Connector verwendet die INFORMATION_SCHEMA Tabelle anstelle des Befehls zum Auflisten von SHOW SCHEMAS Schemas. Diese Änderung entfernt die 10.000-Schemagrenze des vorherigen Ansatzes und verbessert die Unterstützung für Datenbanken mit einer großen Anzahl von Schemas.

Verbesserte Zuordnung von Zeichenfolgenspalten in Redshift-Schreibvorgängen

Beim Schreiben von Tabellen in Redshift mithilfe von spark.write werden Zeichenfolgenspalten ohne explizite Länge zu VARCHAR(MAX) anstelle von TEXT zugeordnet. Dadurch wird das Redshift-Standardverhalten, TEXT als VARCHAR(256) zu interpretieren, vermieden, was beim Schreiben längerer Zeichenfolgen zu Fehlern führen kann.

Unterstützung für DDL, SHOW und DESCRIBE für zugriffsgesteuerte Tabellen

SQL-Befehle wie DDL, SHOWund DESCRIBE führen Sie jetzt mit dedizierten Clustern auf differenzierten zugriffsgesteuerten Tabellen aus. Bei Bedarf, um Zugriffssteuerungen zu erzwingen, leitet Azure Databricks diese Befehle über serverlose Berechnung weiter, genau wie bei Lesevorgängen, Zusammenführungen und Anfügevorgängen. Weitere Informationen finden Sie unter "Support für DDL", "SHOW", "DESCRIBE" und andere Befehle.

Verringerte Speicherauslastung für breite Schemas in Photon Writer

Verbesserungen am Photon-Modul wurden vorgenommen, die die Speicherauslastung für breite Schemas erheblich reduzieren und Szenarien behandeln, die zuvor zu Nichtspeicherfehlern geführt haben.

Unterstützung für TIMESTAMP OHNE ZEITZONENsyntax

Sie können jetzt TIMESTAMP WITHOUT TIME ZONE anstelle von TIMESTAMP_NTZ. Diese Änderung verbessert die Kompatibilität mit sql Standard.

Verhaltensänderungen

Problem mit der Korrelation von Unterabfragen behoben

Azure Databricks korreliert nicht mehr fälschlicherweise semantisch gleiche Aggregatausdrücke zwischen einer Unterabfrage und ihrer äußeren Abfrage. Bisher könnte dies zu falschen Abfrageergebnissen führen.

Zeitstempel-NTZ-Literale werden nicht mehr nach unten gepusht

Sowohl für den Snowflake Connector als auch für die Snowflake Lakehouse Federation, TIMESTAMP_NTZ (Zeitstempel ohne Zeitzone) Literale werden nicht mehr an Snowflake weitergegeben. Diese Änderung verhindert Abfragefehler, die durch die inkompatible Zeitstempelbehandlung verursacht werden, und verbessert die Zuverlässigkeit für betroffene Abfragen.

Fehler, der für ungültige CHECK Einschränkungen ausgelöst wird

Azure Databricks löst jetzt einen AnalysisException Auslöser aus, wenn ein CHECK Einschränkungsausdruck während der Einschränkungsüberprüfung nicht aufgelöst werden kann.

Pulsar connector macht Bouncy Castle nicht mehr verfügbar

Die Bouncy Castle Bibliothek ist jetzt in der Pulsar-Verbindung schattiert, um Klassenpfadkonflikte zu verhindern. Daher können Spark-Aufträge nicht mehr über den Connector auf Klassen zugreifen org.bouncycastle.* . Wenn Ihr Anwendungscode von Bouncy Castle abhängt, installieren Sie die Bibliothek manuell auf Ihrem Cluster.

Auto Loader verwendet standardmäßig Dateiereignisse, falls verfügbar

Auto Loader verwendet Dateiereignisse anstelle der Verzeichnisauflistung, wenn der Ladepfad ein externer Speicherort mit aktivierten Dateiereignissen ist. Der Standardwert useManagedFileEvents ist jetzt if_available (war false). Dies kann die Aufnahmeleistung verbessern und eine Warnung protokolliert, wenn Dateiereignisse noch nicht aktiviert sind.

Interne Tabelleneigenschaften gefiltert aus SHOW CREATE TABLE

SHOW CREATE TABLE enthält keine internen Eigenschaften mehr, die nicht manuell festgelegt oder an diese übergeben CREATE TABLEwerden können. Dies reduziert Verwirrung und richtet die Ausgabe an benutzerdefinierten Optionen aus.

Strengere Regeln für Stream-Stream-Verknüpfungen im Anfügemodus

Azure Databricks verbietet jetzt Streamingabfragen im Anfügemodus, die eine Streamstream-Verknüpfung gefolgt von der Fensteraggregation verwenden, es sei denn, Wasserzeichen sind auf beiden Seiten definiert. Abfragen ohne ordnungsgemäße Wasserzeichen können nicht endend ergebnisse erzeugen, wobei die Anfügemodusgarantien verletzt werden.

Teradata-Connector behebt Vergleich zwischen Groß-/Kleinschreibung und Zeichenfolgen

Der Teradata-Connector wird TMODE=ANSIjetzt standardmäßig auf das Vergleichsverhalten von Zeichenfolgen mit Azure Databricks ausgerichtet, indem die Groß-/Kleinschreibung beachtet wird. Diese Änderung ist konfigurierbar und wirkt sich nicht auf vorhandene Benutzer aus, es sei denn, sie melden sich an.

Verbesserungen der Bibliothek

  • Aktualisierte Python-Bibliotheken:

    • google-auth von 2.40.1 bis 2.40.0
    • mlflow-skinny von 3.0.0 bis 3.0.1
    • opentelemetry-api von 1.33.0 bis 1.32.1
    • opentelemetry-sdk von 1.33.0 bis 1.32.1
    • opentelemetry-semantic-conventions von Version 0.54b0 zu Version 0.53b1
    • Verpackung von 24.1 bis 24.2
    • Pip von 24.2 bis 25.0.1
  • Aktualisierte R-Bibliotheken:

  • cli von 3.6.4 bis 3.6.5

  • curl von 6.2.1 bis 6.4.0

  • Generika von 0.1.3 zu 0.1.4

  • Globals von 0.16.3 auf 0.18.0

  • openssl von 2.3.2 bis 2.3.3

  • Säule von 1.10.1 bis 1.11.0

  • rlang von 1.1.5 bis 1.1.6

  • sparklyr von 1.9.0 bis 1.9.1

  • stringi von 1.8.4 bis 1.8.7

  • Tibble von 3.2.1 bis 3.3.0

  • utf8 von 1.2.4 bis 1.2.6

  • Aktualisierte Java-Bibliotheken:

    • software.amazon.cryptools.AmazonCorrettoCryptoProvider von 2.4.1-linux-x86_64 bis 2.5.0-linux-x86_64

Apache Spark

Databricks Runtime 17.1 umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Version 17.0 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • SPARK-52721 Korrektur des Nachrichtenparameters für CANNOT_PARSE_DATATYPE
  • SPARK-51919 Überschreiben der statisch registrierten Python-Datenquelle zulassen
  • SPARK-52632 Wiederherstellen: Ziemliche Anzeige V2-Schreibplanknoten
  • SPARK-52715 Schöne SQL-Zeichenfolge von TIME - DAY-TIME INTERVALL
  • SPARK-51268 Strukturnode sperren frei machen
  • SPARK-52701 Korrigiere die Erweiterung des float32-Typs in Modulo mit Bool unter ANSI
  • SPARK-52563 Beheben eines Fehlers bei der Variablenbenennung in _assert_pandas_almost_equal
  • SPARK-52541 Programmierhandbuch für deklarative Pipelines hinzufügen
  • SPARK-51695 Beheben von Testfehlern durch CHECK-Syntaxänderung CONSTRAINT
  • SPARK-52666 Benutzerdefinierten Typ dem richtigen MutableValue in SpecificInternalRow zuordnen
  • SPARK-52660 Hinzufügen des Zeittyps zu CodeGenerator#javaClass
  • SPARK-52693 ANSI-Tageszeitintervalle (+/– ) im Verhältnis zu TIME unterstützen
  • SPARK-52705 Refaktorisierung der deterministischen Prüfung für Gruppierungsausdrücke
  • SPARK-52699 Unterstützung für das Aggregieren des TIME-Typs im interpretierten Modus
  • SPARK-52503 Beheben des Fehlers beim Löschen, wenn die Eingabespalte nicht vorhanden ist
  • SPARK-52535 Verbesserung der Lesbarkeit des Codes der Regel ApplyColumnarRulesAndInsertTransitions
  • SPARK-52551 Hinzufügen eines neuen v2-Prädikats BOOLEAN_EXPRESSION
  • SPARK-52698 Zurücksetzen: Verbessern von Typhinweisen für das Datenquellenmodul
  • SPARK-52684CACHE TABLE-Befehle bei Ausführungsfehlern unteilbar machen
  • SPARK-52671 RowEncoder sucht kein aufgelöstes UDT
  • SPARK-52670 HiveResult mit UserDefinedType#stringifyValue kompatibel machen
  • SPARK-52692 Unterstützen des Zwischenspeicherns des TIME-Typs
  • SPARK-51516 Unterstützung für TIME durch den Thrift-Server
  • SPARK-52674 Bereinigen der Verwendung veralteter APIs im Zusammenhang mit RandomStringUtils
  • SPARK-51428 Zuweisen von Aliasen für zusammengeführte Ausdrucksbäume deterministisch
  • SPARK-52672 Ersetzen Sie Sort-/Having-Ausdrücke nicht durch Aliase, wenn ein Ausdruck in "Aggregate" vorhanden ist.
  • SPARK-52618 Umwandlung von TIME(n) in TIME(m)
  • SPARK-52656 current_time() korrigieren
  • SPARK-52630 Reorganisieren Sie den Code und die Verzeichnisse von Streaming-Operatoren und Zustand-Mgmt
  • SPARK-52649 Kürzen von Aliasen vor dem Abgleichen von Sort/Having/Filter-Ausdrücken in buildAggExprList
  • SPARK-52578 Hinzufügen von Metriken für Zeilen zum Nachverfolgen von Fall und Aktion in MergeRowsExec
  • SPARK-49428 Scala-Client von Connector zu SQL verschieben
  • SPARK-52494 Unterstützung der Syntax des Doppelpunktzeichenoperators für den Zugriff auf Variant-Felder
  • SPARK-52642 Verwenden Sie daemonWorkers.get(worker), um unerwartete Diskrepanzen zwischen idleWorkers und daemonWorkers zu vermeiden.
  • SPARK-52570 Dividieren durch Null für numerisches rmod mit aktiviertem ANSI ermöglichen
  • SPARK-52633 Deduplicate einzelne untergeordnete Union-Ausgabe vor DeduplicateRelations
  • SPARK-52600 Verschieben Sie CompletionIterator zu common/utils
  • SPARK-52626 Gruppieren nach Zeittyp zulassen
  • SPARK-52395 Reduzierungsauftrag sofort scheitern lassen, wenn die Abrufanforderung von Prism fehlschlägt.
  • SPARK-52596 Versuchen Sie, TIMESTAMP_NTZ von DATUM und UHRZEIT zu erstellen
  • SPARK-52595 Umbenennen des TimeAdd-Ausdrucks in TimestampAddInterval
  • SPARK-52586 Einführung in AnyTimeType
  • SPARK-52583 Hinzufügen der Entwickler-API für Zeichenfolgenwerte in UserDefinedType
  • SPARK-52354 Typenzwang zu UnionLoop hinzufügen
  • SPARK-52579 Regelmäßiges Traceback-Dump für Python-Worker festlegen.
  • SPARK-52456 Verringern des Mindestgrenzwerts von spark.eventLog.rolling.maxFileSize
  • SPARK-52536 Festlegen von AsyncProfilerLoader extractionDir auf spark local dir
  • SPARK-52405 Erweitern von V2JDBCTest zum Testen mehrerer Partitionslesewerte
  • SPARK-52303 Höherstufen von ExternalCommandRunner auf "Stable"
  • SPARK-52572 CAST_INVALID_INPUT von DataFrame.isin im ANSI-Modus vermeiden
  • SPARK-52349 Aktivieren von booleschen Divisionstests mit aktivierter ANSI
  • SPARK-52402 Beheben von Divid-by-Zero-Fehlern in Kendall- und Pearson-Korrelation im ANSI-Modus
  • SPARK-52356 Division durch Null für boolesches mod/rmod mit aktiviertem ANSI ermöglichen
  • SPARK-52288 Vermeiden sie INVALID_ARRAY_INDEX in split/rsplit, wenn der ANSI-Modus aktiviert ist
  • SPARK-52557 CAST_INVALID_INPUT von to_numeric(errors='coerce') im ANSI-Modus vermeiden
  • SPARK-52440 Zusätzliches Hinzufügen von Python-Installationen für deklarative Pipelines
  • SPARK-52569 Beheben der Klassen cast-Ausnahme in SecondsOfTimeWithFraction
  • SPARK-52540 Erstellen von TIMESTAMP_NTZ aus Datum und Uhrzeit
  • SPARK-52539 Einführung von Sitzungshaken
  • SPARK-52554 Vermeiden mehrerer Roundtrips für die Konfigurationsprüfung in Spark Connect
  • SPARK-52553 Korrigieren von NumberFormatException beim Lesen des v1-Änderungsprotokolls
  • SPARK-52534 MLCache und MLHandler threadsicher machen
  • SPARK-52460 Speichern interner TIME-Werte als Nanosekunden
  • SPARK-52482 ZStandard-Unterstützung für Dateidatenquellenleser
  • SPARK-52531 OuterReference im Unterabfrageaggregat ist fälschlicherweise an das äußere Abfrageaggregat gebunden.
  • SPARK-52339 Beheben des Vergleichs von InMemoryFileIndex-Instanzen
  • SPARK-52418 Fügen Sie der QuantilHeap-Variable eine NoElements-Zustandsvariable hinzu, um sich wiederholende Berechnungen von isEmpty() zu vermeiden.
  • SPARK-52537 Stacktraceausgabe bei Fehler beim Erstellen eines temporären Verzeichnisses
  • SPARK-52462 Erzwingen von Typenzwang vor der Deduplizierung der Kinderausgabe in Union
  • SPARK-52528 Aktivieren der Funktion "Teilen durch Null" für numerische Mods mit aktiviertem ANSI
  • SPARK-52458 Unterstützung von spark.eventLog.excludedPatterns
  • SPARK-52493 Unterstützung von Timestamp ohne Zeitzone
  • SPARK-51563 Unterstützung des voll qualifizierten Typnamens TIME(n) WITHOUT TIME ZONE
  • SPARK-52450 Verbessern der Leistung von Schema deepcopy
  • SPARK-52519 Dividieren durch Null für numerisches floordiv mit aktiviertem ANSI ermöglichen
  • SPARK-52489 Verbieten doppelter SQLEXCEPTION- und NOT FOUND-Handler innerhalb des SQL-Skripts
  • SPARK-52488 Alias entfernen, bevor äußere Referenzen unter HAVING eingehüllt werden.
  • SPARK-52383 Verbessern von Fehlern in SparkConnectPlanner
  • SPARK-52335 Vereinheitlichen des Fehlers für die ungültige Bucketanzahl für Connect und Classic
  • SPARK-52337 InvalidPlanInput zu einem benutzerorientierten Fehler machen
  • SPARK-52312 V2WriteCommand beim Zwischenspeichern von DataFrame ignorieren
  • SPARK-52487 Phasenübermittelte Zeit und Dauer zu StagePage-Detail hinzufügen
  • SPARK-52433 Vereinheitlichung der String-Zwangsverarbeitung in createDataFrame
  • SPARK-52427 Von einem Projekt abgedeckte Aggregatausdrucksliste normalisieren
  • SPARK-51745 Zustandsautomat für RocksDBStateStore erzwingen
  • SPARK-52447 Verschieben Sie die Normalisierung von GetViewColumnByNameAndOrdinal zur SessionCatalogSuite
  • SPARK-52397 Idempotente ExecutePlan: Zweiter ExecutePlan mit derselben operationId und Plan wird wieder angefügt
  • SPARK-52355 Ableiten des VariantVal-Objekttyps als VariantType beim Erstellen eines DataFrame
  • SPARK-52425 Extrahiere Wert zur Wiederverwendung in einer Einzelpass-Implementierung refaktorisieren.
  • SPARK-52249 Aktivieren der Dividierung durch Null für numerische Truediv-Werte mit aktivierter ANSI-Funktion
  • SPARK-52228 Integrieren von Zustandsinteraktionsmikrobenchmark in Quicksilver (TCP)
  • SPARK-48356 Verbesserung des Spaltenschemas der FOR-Anweisung
  • SPARK-48353 Verbesserungen der Ausnahmenverarbeitung
  • SPARK-52060 Erstellen eines OneRowRelationExec-Knotens
  • SPARK-52391 TransformWithStateExec-Funktionen/Vars in Basisklasse für Scala und Python umgestalten
  • SPARK-52218 Aktuelle Datetime-Funktionen wieder auswertbar machen
  • SPARK-52350 Linkkorrektur für SS-Programmierhandbuch in Version 4.0
  • SPARK-52385 TempResolvedColumns aus dem InheritAnalysisRules-Namen entfernen
  • SPARK-52392 Neue Single Pass Analyzer-Funktionalität
  • SPARK-52243 Hinzufügen der NERF-Unterstützung für schemabezogene InvalidPlanInput-Fehler
  • SPARK-52338 Standardsortierung von Schema zu Ansicht erben
  • SPARK-52307 Unterstützung für skalaren Arrow-Iterator-UDF
  • SPARK-52300 Sql UDTVF-Auflösung verwenden konsistente Konfigurationen mit Ansichtsauflösung
  • SPARK-52219 Unterstützung für die Sortierung auf Schemaebene für Tabellen
  • SPARK-52272 V2SessionCatalog ändert das Schema im Hive-Katalog nicht
  • SPARK-51890 Parameter zur logischen Planansicht hinzufügen options
  • SPARK-51936 ReplaceTableAsSelect sollte neue Tabelle anstelle des Anfügens überschreiben.
  • SPARK-51302 Spark Connect unterstützt die Verwendung von JDBC und sollte die DataFrameReader-API verwenden.
  • SPARK-50137 Vermeiden eines Fallbacks auf inkompatible Methoden für die Tabellenerstellung
  • SPARK-52184 JDBC-Syntaxfehler des externen Moduls mit einer einheitlichen Ausnahme kapseln
  • SPARK-47618 Verwenden von Magic Committer für alle S3-Buckets standardmäßig
  • SPARK-52305 Verfeinerung des Docstrings für isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
  • SPARK-52174 Aktivieren Sie "spark.checkpoint.compress" standardmäßig
  • SPARK-52224 Einführen von pyyaml als Abhängigkeit für den Python-Client
  • SPARK-52233 map_zip_with für Fließkommatypen korrigieren
  • SPARK-52036 SQLConfHelper-Trait zu v2.FileScan hinzufügen.
  • SPARK-52159 Entfernen einer zu weit gefassten Bedingung für den MariaDB-Dialekt
  • SPARK-50104 Unterstützung für SparkSession.executeCommand in Connect
  • SPARK-52240 Korrigierte Zeilenindexverwendung beim Explodieren von gepackten Arrays im vektorisierten Reader
  • SPARK-52153 from_json und to_json mit Variante korrigieren
  • SPARK-48618 Test auf Nichtexistenz für dreiteilige und zweiteilige Namen verbessen
  • SPARK-52216 InvalidCommandInput zu einem benutzerorientierten Fehler machen
  • SPARK-52299 Ersetzen veralteter JsonNode.fields
  • SPARK-52287 Verbessern Sie SparkContext, um o.a.s.internal.io.cloud.* Einstellung nicht aufzufüllen, falls nicht vorhanden.
  • SPARK-51430 PySpark-Kontextprotokollierung daran hindern, Protokolle an die Standardausgabe weiterzuleiten
  • SPARK-52278 Skalare Arrow-UDF-Unterstützung benannter Argumente
  • SPARK-52026 Blockieren der Pandas-API auf Spark im ANSI-Modus standardmäßig
  • SPARK-52171 Implementierung des StateDataSource-Joins für Status v3
  • SPARK-52159 Ordnungsgemäße Handhabung der Überprüfung der Tabellenexistenz für JDBC-Dialekte
  • SPARK-52158 Hinzufügen eines InvalidInputErrors-Objekts zum Zentralisieren von Fehlern in SparkConnectPlanner
  • SPARK-52195 Problem des Verschwindens der Spalte für den anfänglichen Zustand für Python TWS beheben
  • SPARK-52211 Strip $ Suffix aus SparkConnectServer INFO-Protokoll
  • SPARK-52239 Registrierung eines Arrow-UDF unterstützen
  • SPARK-52215 Implementieren von Skalarpfeil-UDF
  • SPARK-52188 Fix für StateDataSource, bei dem StreamExecution.RUN_ID_KEY nicht festgelegt ist
  • SPARK-52189 Neue goldene Dateitests für NATURAL JOIN mit GROUP BY, HAVING, ORDER BY und LCAs
  • SPARK-52079 Normalisieren der Reihenfolge der Attribute in inneren Projektlisten
  • SPARK-52234 Beheben eines Fehlers bei Nicht-Zeichenfolgeneingaben in schema_of_csv/xml
  • SPARK-52221 Umgestalten von SqlScriptingLocalVariableManager in einen generischeren Kontext-Manager
  • SPARK-52181 Größenbeschränkung für Varianten auf 128MiB erhöhen
  • SPARK-52217 Überspringen der Validierung äußerer Referenzen im Single-Pass-Resolver unter "Filter"
  • SPARK-51260 Verschieben von V2ExpressionBuilder und PushableExpression in das Katalysatormodul
  • SPARK-52156 Veralteten CREATE TEMPORARY TABLE ... USING-Anbieter unter dem Flag platzieren
  • SPARK-51012 SparkStrategy aus Connect Shims entfernen
  • SPARK-52109 Hinzufügen der listTableSummaries-API zur Datenquellen-V2-Tabellenkatalog-API
  • SPARK-50915 Hinzufügen von "getCondition" und "deprecate getErrorClass" in PySparkException
  • SPARK-52022 Hinzufügen der Standardmethode für SparkThrowable.getQueryContext
  • SPARK-51147 Umgestalten von Streaming-verwandten Klassen zu einem dedizierten Streamingverzeichnis
  • SPARK-52120 Übergeben der Sitzung an ConnectHelper
  • SPARK-52021 Separate Operator- und Ausdrucksmuster
  • SPARK-51722 Entfernen des "stop"-Ursprungs von ParseException
  • SPARK-52096 Klassifizieren Sie den Kafka-Quell-Offset-Assertionsfehler neu.
  • SPARK-51985 Experimentelle Aus AccumulatorSource entfernen
  • SPARK-51156 Unterstützung der statischen Tokenauthentifizierung in Spark Connect
  • SPARK-52157 Verwenden eines früheren berechneten Namens für OuterReference im Single-Pass-Resolver
  • SPARK-52100 Aktivierung der Außerkraftsetzung der Rekursionsgrenzen in der Syntax
  • SPARK-51605 Erstellen des übergeordneten Verzeichnisses vor dem Berühren der LogFile-Datei
  • SPARK-52127 Quetschen Sie das Protokoll von MapState KEYS / VALUES / ITERATOR für transformWithState in PySpark
  • SPARK-52040 ResolveLateralColumnAliasReference sollte die Plan-ID beibehalten
  • SPARK-51638 Beheben des Abrufens gespeicherter RDD-Blöcke durch externen Shuffle-Dienst
  • SPARK-51983 Vorbereiten der Testumgebung für die Pandas-API auf Spark mit aktivierter ANSI-Modus
  • SPARK-52087 Kopieren von Tags und Herkunft zu AliasHelper.trimNonTopLevelAliases hinzufügen
  • SPARK-51210 Add --enable-native-access=ALL-UNNAMED zu Java-Optionen für Java 24+
  • SPARK-52052 Hinzufügen von .broadcast im Begleitobjekt von SerializableConfiguration
  • SPARK-51823 Konfiguration zum Nicht-Beibehalten des Zustandsspeichers auf den Ausführenden hinzufügen
  • SPARK-51291 Validierungsfehler bei der Laden des Statusspeichers neu klassifizieren
  • SPARK-52006 Ausschluss des CollectMetricsExec-Akkumulators von Spark UI + Ereignisprotokolle + Metric Heartbeats
  • SPARK-52076 Schließt ExecutePlanResponseReattachableIterator nach der Verwendung explizit
  • SPARK-51428 Zuweisen von Aliasen für zusammengeführte Ausdrucksbäume deterministisch
  • SPARK-52079 Normalisieren der Reihenfolge der Attribute in inneren Projektlisten
  • SPARK-52033 Fehler beim Generieren von Knoten beheben, bei dem die Ausgabe des untergeordneten Knotens mehrere Kopien desselben Attributs aufweisen kann
  • SPARK-51428 Zuweisen von Aliasen für zusammengeführte Ausdrucksbäume deterministisch
  • SPARK-52055 Unterdrücken Sie die Ausnahme in ExecutePlanResponseReattachableIterator. del
  • SPARK-51921 Verwenden eines langen Typs für TTL-Dauer in Millisekunden in transformWithState
  • SPARK-50763 Hinzufügen einer Analyzerregel zum Auflösen von SQL-Tabellenfunktionen
  • SPARK-51884 Hinzufügen von äußeren Bereichsattributen für SubqueryExpression
  • SPARK-50762 Hinzufügen der Analyzer-Regel zum Auflösen von SQL-Skalar-UDFs
  • SPARK-51814 Verwendet list(self) anstelle von StructType.fields für die alte Version compat
  • SPARK-51537 Erstellen Sie das sitzungsspezifische Klassenladeprogramm basierend auf dem Standardsitzungsklassenladeprogramm des Executors.
  • SPARK-50777 Entfernen redundanter no-op init/destroy-Methoden aus Filterklassen
  • SPARK-51691 SerializationDebugger sollte eine Ausnahme schlucken, wenn er versucht, den Grund für ein Serialisierungsproblem zu ermitteln.
  • SPARK-51386 Namen zu Fehlerbedingungen zuweisen, _LEGACY_ERROR_TEMP_3300-3302
  • SPARK-50734 Hinzufügen der Katalog-API zum Erstellen und Registrieren von SQL UDFs
  • SPARK-51989 Hinzufügen fehlender Filterunterklassen zu allen Listen in der Datenquelle
  • SPARK-52037 Reihenfolge in internen LCA-Projektlisten sollte die Reihenfolge in der ursprünglichen Projektliste beachten
  • SPARK-52007 Ausdrucks-IDs sollten nicht in Gruppierungsausdrücken vorhanden sein, wenn Gruppierungssätze verwendet werden
  • SPARK-51860 Deaktivieren Sie spark.connect.grpc.debug.enabled standardmäßig.
  • SPARK-47952 Support für das abrufen der absoluten Adresse und des Anschlusses des SparkConnectService-GRPC programmgesteuert beim Rennen auf Yarn
  • SPARK-50906 Hinzufügen einer Nullbarkeitsprüfung, ob die Eingaben von to_avro mit dem Schema übereinstimmen
  • SPARK-50581-Fixunterstützung für UDAF in Dataset.observe()
  • SPARK-49946 Anfordern einer Fehlerklasse in SparkOutOfMemoryError
  • SPARK-49748 Hinzufügen von "getCondition" und "deprecate getErrorClass" in SparkThrowable
  • SPARK-51959 Funktionen so gestalten, dass sie keine ParentDataFrame importieren
  • SPARK-51964 Attribute aus ausgeblendeter Ausgabe in ORDER BY und HAVING über einem Aggregat im Single-Pass-Analyzer richtig auflösen
  • SPARK-49942 Ändern Sie errorClass zu condition in classifyException()
  • SPARK-51963 Vereinfachen von IndexToString.transform
  • SPARK-51946 Voreiliges Fehlschlagen beim Erstellen einer hive-inkompatiblen Datenquellentabelle mit dem Partitionsnamen "col"
  • SPARK-51553 EXTRACT ändern, um TIME-Datentyp zu unterstützen
  • SPARK-51891 Komprimierung des Protokolls von ListState GET / PUT / APPENDLIST für transformWithState in PySpark
  • SPARK-51931 MaxBytesPerOutputBatch hinzufügen, um die Anzahl der Bytes des Pfeilausgabebatches einzuschränken
  • SPARK-51441 Hinzufügen von DSv2-APIs für Einschränkungen
  • SPARK-51814 Verwenden Sie RecordBatch.schema.names anstelle von column_names für die alte Pyarrow-Kompatibilität.
  • SPARK-51913 JDBCTableCatalog#loadTable sollte den Fehler "Tabelle existiert nicht" korrekt auslösen.
  • SPARK-51840 Wiederherstellen von Partitionsspalten in HiveExternalCatalog#alterTable
  • SPARK-51414 Hinzufügen der funktion make_time()
  • SPARK-49700 Vereinheitlichte Scala-Schnittstelle für Connect und Classic
  • SPARK-51914 Hinzufügen von com.mysql.cj zu spark.sql.hive.metastore.sharedPrefixes
  • SPARK-51827 Spark Connect in transformWithState in PySpark unterstützen
  • SPARK-51901 Nicht zulassen von Generatorfunktionen in Gruppierungssätzen
  • SPARK-51423 Hinzufügen der funktion current_time() für TIME-Datentyp
  • SPARK-51680 Logischen Typ für TIME in Parquet Writer festlegen
  • SPARK-51889 Beheben eines Fehlers für MapState clear() in Python TWS
  • SPARK-51869 Erstellen einer Klassifizierung für Benutzerfehler in UDFs für Scala TransformWithState
  • SPARK-51878 Verbessern Sie fillDefaultValue, indem Sie den faltbaren Standardausdruck ausführen.
  • SPARK-51757 Korrigieren: LEAD/LAG-Funktionsoffset überschreitet die Fenstergruppengröße
  • SPARK-51805 Get-Funktion mit unkorrektem Argument sollte eine passende Ausnahme werfen statt einer internen.
  • SPARK-51900 Datentypkonflikt in Single-Pass Analyzer richtig auslösen
  • SPARK-51421 Sekunden des Datentyps TIME abrufen
  • SPARK-51661 Partitioniert die Entdeckung der TIME-Spaltenwerte
  • SPARK-51687 Filter mit TIME-Werten an Parquet pushen
  • SPARK-51419 Stunden des TIME-Datentyps abrufen
  • SPARK-51881 AvroOptions vergleichbar machen
  • SPARK-51861 Entfernen duplizierter/unnötiger Informationen von InMemoryRelation Plandetail
  • SPARK-51814 Einführung einer neuen API transformWithState in PySpark
  • SPARK-51779 Verwenden von virtuellen Spaltenfamilien für Stream-Stream-Verknüpfungen
  • SPARK-51649 Dynamische Schreib-/Lesevorgänge von TIME-Partitionen
  • SPARK-51634 TIME in Spaltenvektoren außerhalb des Heaps unterstützen
  • SPARK-51877 Funktionen "chr", "random" und "uuid" hinzufügen
  • SPARK-51610 Unterstützung des TIME-Datentyps in der Parkettdatenquelle
  • SPARK-51420 Minuten aus TIME-Datentyp abrufen
  • SPARK-51822 Auslösen eines klassifizierten Fehlers, wenn nicht zulässige Funktionen während StatefulProcessor.init() aufgerufen werden
  • SPARK-51868 Verschieben der Typkoersionsüberprüfung in ein separates Objekt
  • SPARK-49747 Migration von connect/ Dateien zur strukturierten Protokollierung

Azure Databricks ODBC/JDBC-TREIBERunterstützung

Azure Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Wartungsupdates

Siehe Azure Databricks Runtime 17.1 Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.2 LTS
  • Java: Zulu17.58+21-CA
  • Skala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 Pfeil 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 attrs 24.3.0
autocommand 2.2.2 azure-common 1.1.28 azure-core 1.34.0
Azure-Identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob 12.23.0 azure-storage-file-datalake 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 schwarz 24.10.0
Bleichmittel 6.2.0 Blinker 1.7.0 boto3 1.36.2
botocore 1.36.3 CacheWerkzeuge 5.5.1 Zertifikat 2025.1.31
cffi 1.17.1 chardet 4.0.0 Charset-Normalizer 3.3.2
click 8.1.7 cloudpickle 3.0.0 Kommunikation 0.2.1
contourpy 1.3.1 Kryptographie 43.0.3 Fahrradfahrer 0.11.0
Cython 3.0.12 Databricks-SDK 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 Dekorateur 5.1.1 defusedxml 0.7.1
Als veraltet markiert 1.2.13 distlib 0.3.9 docstring-to-markdown 0.11
executing 0.8.3 Übersicht der Facetten 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 Dateisperrung 3.18.0 fonttools 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
Google Cloud Core 2.4.3 Google Cloud-Speicher 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-Spezifikationen 2023.7.1 Jupyter-Ereignisse 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_server 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-Erweiterungen 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
Notebook 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) 0.53b1 Überschreibt 7.4.0 Verpackung 24,2
Pandas 2.2.3 pandocfilters 1.5.0 parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
Kissen 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 pluggy 1.5.0 prometheus_client 0.21.0
prompt-toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 Pyasn1 0.4.8
Pyasn1-Module 0.2.8 pyccolo 0.0.71 pycparser 2.21
pydantic 2.10.6 pydantic_core 2.27.2 pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 Python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 Python-LSP-Server 1.12.0
pytoolconfig 1.2.6 pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 Referenzierung 0.30.2 requests 2.32.3
rfc3339-Prüfer 0.1.4 rfc3986-validator 0.1.1 rich 13.9.4
Seil 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy 1.15.1
Seegeboren 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
six 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortierte Container 2.4.0 soupsieve 2,5 sqlparse 0.5.3
ssh-import-id 5.11 Stapeldaten 0.2.0 starlette 0.46.2
StatistikModelle 0.14.4 strictyaml 1.7.3 Hartnäckigkeit 9.0.0
terminado 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 Tornado 6.4.2
traitlets 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unbeaufsichtigte Aktualisierungen 0,1 URI-Vorlage 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolors 24.11.1 Webkodierungen 0.5.1
WebSocket-Client 1.8.0 whatthepatch 1.0.2 Rad 0.45.1
widgetsnbextension 3.6.6 Eingehüllt 1.17.0 yapf 0.40.2
zipp 3.21.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 19.0.1 Askpass 1.2.1 assertthat 0.2.1
backports 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit64 4.6.0-1
bitops 1.0-9 Klumpen 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 broom 1.0.7
bslib 0.9.0 cachem 1.1.0 callr 3.7.6
caret 7.0-1 CellRanger 1.1.0 chron 2.3-62
class 7.3-22 cli 3.6.5 clipr 0.8.0
clock 0.7.2 cluster 2.1.6 Codetools 0.2-20
colorspace 2.1-1 commonmark 1.9.5 Kompilierer 4.4.2
config 0.3.2 conflicted 1.2.0 cpp11 0.5.2
Buntstift 1.5.3 Zugangsdaten 2.0.2 curl 6.4.0
data.table 1.17.0 Datensätze 4.4.2 DBI 1.2.3
dbplyr 2.5.0 desc 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 Ellipse 0.3.2 auswerten 1.0.3
Fans 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.3 forcats 1.0.0 foreach 1.5.2
foreign 0.8-86 forge 0.2.0 fs 1.6.5
Zukunft 1.34.0 future.apply 1.11.3 gargle 1.5.2
Generika 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 Klebstoff 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
Graphik 4.4.2 grDevices 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0,7 gt 0.11.1
gtable 0.3.6 hardhat 1.4.1 Hafen 2.5.4
highr 0.11 hms 1.1.3 HTML-Werkzeuge 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1,50 Etikettierung 0.4.3
later 1.4.1 lattice 0.22-5 lava 1.8.1
Lebenszyklus 1.0.4 listenv 0.9.1 lubridate 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 Methodik 4.4.2
mgcv 1.9-1 Mime-Kunst 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.3.3 parallel 4.4.2
parallelly 1.42.0 Säule 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 Fortschritt 1.2.3
progressr 0.15.1 Versprechungen 1.3.2 proto 1.0.0
proxy 0.4-27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 reaktivierbar 0.4.4
reactR 0.6.1 readr 2.1.5 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.5
Rezepte 1.2.0 Rückspiel 2.0.0 Rückspiel2 2.1.2
remotes 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
scales 1.3.0 selectr 0.4-2 Sitzungsinformationen 1.2.3
shape 1.4.6.1 glänzend 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statistiken 4.4.2 Statistiken4 4.4.2
stringi 1.8.7 stringr 1.5.1 Überleben 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 Textgestaltung 1.0.0
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 Zeitumstellung 0.3.0 timeDate 4041.110
tinytex 0.56 Werkzeuge 4.4.2 Zeitzonendatenbank (tzdb) 0.5.0
URL-Prüfer 1.0.1 Nutze dies 3.1.0 utf8 1.2.6
utils 4.4.2 Universelle eindeutige Kennung (UUID) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 vroom 1.6.5
Waldo 0.6.1 whisker 0.4.1 withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.1.0
zip 2.3.2

Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws AWS Java SDK für Auto Scaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws AWS-Java-SDK-Config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-Protokolle 1.12.638
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.638
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics Datenstrom 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml Klassenkamerad 1.5.1
com.fasterxml.jackson.core Jackson-Anmerkungen 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine Koffein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone fehleranfällige Annotationen 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava guava 33.4.0-jre
com.google.guava hörbareZukunft 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi fansi_2.13 0.5.0
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 2.0.2
io.delta delta-sharing-client_2.13 1.3.3
io.dropwizard.metrics Metrikanmerkung 4.2.30
io.dropwizard.metrics metrics-core 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics metrics-healthchecks 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics metrics-jmx 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics Metrik-Servlets 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty Netty Codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx Sammler 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow Pfeilformat 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow Pfeil-Vektor 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.13.0
org.apache.curator Kurator-Klient 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator Rezepte des Kurators 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc ORC-Format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper Tierpfleger 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty Jetty-HTTP 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty Jetty-Plus 9.4.53.v20231009
org.eclipse.jetty Jetty-Proxy 9.4.53.v20231009
org.eclipse.jetty jetty-security 9.4.53.v20231009
org.eclipse.jetty Jetty Server 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Jetty-Webanwendung 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Client 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Server 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalameta common_2.13 4.13.5
org.scalameta io_2.13 4.13.5
org.scalameta mdoc-parser_2.13 2.6.4
org.scalameta metaconfig-core_2.13 0.15.0
org.scalameta metaconfig-pprint_2.13 0.15.0
org.scalameta metaconfig-typesafe-config_2.13 0.15.0
org.scalameta parsers_2.13 4.13.5
org.scalameta scalafmt-config_2.13 3.9.6
org.scalameta scalafmt-core_2.13 3.9.6
org.scalameta scalafmt-macros_2.13 3.9.6
org.scalameta scalafmt-sysops_2.13 3.9.6
org.scalameta scalameta_2.13 4.13.5
org.scalameta trees_2.13 4.13.5
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel paiges-core_2.13 0.4.4
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
stax stax-api 1.0.1

Tipp

Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.