Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.1, unterstützt von Apache Spark 4.0.0.
Azure Databricks hat diese Version im August 2025 veröffentlicht.
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Neue Features und Verbesserungen
- Erweiterte räumliche SQL-Ausdrücke und GEOMETRY- und GEOGRAPHY-Datentypen
- Rekursive allgemeine Tabellenausdrücke (GA)
- Unity Catalog Python User-Defined Table Functions (UDTFs)
- Unterstützung für die Standardsortierung auf Schema- und Katalogebene
- Ausführungsumgebung für die Freigegebene Isolation für Python-UDFs im Batch-Unity-Katalog
-
Bessere Behandlung von JSON-Optionen mit
VARIANT -
display()unterstützt den Streaming-Real-Time-Modus - Rate Source unterstützt den Streaming-Real-Time-Modus
- Ereigniszeitgeber, die für zeitbasierte Fenster unterstützt werden
- Scalar Python UDFs unterstützen Dienstanmeldeinformationen
- Verbesserte Schemaauflistung
- Verbesserte Zuordnung von Zeichenfolgenspalten in Redshift-Schreibvorgängen
- Unterstützung für DDL, SHOW und DESCRIBE für zugriffsgesteuerte Tabellen
- Verringerte Speicherauslastung für breite Schemas in Photon Writer
- Unterstützung für TIMESTAMP OHNE ZEITZONENsyntax
Erweiterte räumliche SQL-Ausdrücke und GEOMETRY- und GEOGRAPHY-Datentypen
Sie können jetzt geospatiale Daten in integrierten GEOMETRY Und GEOGRAPHY Spalten speichern, um die Leistung räumlicher Abfragen zu verbessern. Diese Version fügt mehr als 80 neue räumliche SQL-Ausdrücke hinzu, einschließlich Funktionen zum Importieren, Exportieren, Messen, Konstruieren, Bearbeiten, Validieren, Transformieren und Bestimmen von topologischen Beziehungen mit räumlichen Verknüpfungen. Siehe ST-Geospatialfunktionen, GEOGRAPHY -Typ und GEOMETRY -Typ.
Rekursive allgemeine Tabellenausdrücke (GA)
Rekursive allgemeine Tabellenausdrücke (rCTEs) sind jetzt allgemein verfügbar. Verwenden Sie rCTEs, um hierarchische Daten mit einem selbstverweisenden CTE zu navigieren und mit UNION ALL rekursive Beziehungen zu verfolgen.
Unity Catalog Python benutzerdefinierte Tabellenfunktionen (UDTFs)
Sie können jetzt Python UDTFs im Unity-Katalog für zentrale Governance und wiederverwendbare Logik in SQL-Abfragen registrieren. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog.
Unterstützung für die Standardsortierung auf Schema- und Katalogebene
Sie können jetzt eine Standardsortierung für Schemas und Kataloge in Databricks Runtime 17.1 festlegen. Auf diese Weise können Sie eine Sortierung definieren, die für alle Objekte gilt, die im Schema oder Katalog erstellt wurden, um ein konsistentes Sortierungsverhalten für Ihre Daten sicherzustellen.
Ausführungsumgebung für die Freigegebene Isolation für Python-UDFs im Batch-Unity-Katalog
Batch Unity Catalog Python UDFs mit demselben Besitzer können jetzt standardmäßig eine Isolationsumgebung freigeben. Dies kann die Leistung verbessern und die Speicherauslastung verringern, indem die Anzahl separater Umgebungen reduziert wird, die gestartet werden müssen.
Um sicherzustellen, dass eine UDF immer in einer vollständig isolierten Umgebung ausgeführt wird, fügen Sie die STRICT ISOLATION Merkmalsklausel hinzu. Siehe Umgebungsisolation.
Bessere Behandlung von JSON-Optionen mit VARIANT
Die from_json und to_json Funktionen wenden jetzt json-Optionen beim Arbeiten mit Schemas der obersten Ebene VARIANT ordnungsgemäß an. Dadurch wird ein konsistentes Verhalten mit anderen unterstützten Datentypen sichergestellt.
display() unterstützt den Streaming-Real-Time-Modus
Sie können die display() Funktion mit Streamingabfragen verwenden, die einen Echtzeittrigger verwenden. In diesem Modus verwendet display() automatisch den Ausgabemodus update und vermeidet das Hinzufügen einer LIMIT-Klausel, die mit update nicht unterstützt wird. Das Anzeigeaktualisierungsintervall wird auch von der Batchdauer entkoppelt, um die Reaktionsfähigkeit in Echtzeit zu verbessern.
Ratenquelle unterstützt Streaming-Echtzeitmodus
Die Ratequelle im strukturierten Streaming funktioniert jetzt mit Echtzeittriggern und ermöglicht die kontinuierliche Generierung von Daten für Streamingpipelines mithilfe des Streaming-Real-Time-Modus.
Ereigniszeitgeber für zeitbasierte Fenster werden unterstützt
Azure Databricks unterstützt ereigniszeitbasierte Trigger für zeitbasierte Fenstervorgänge im Streaming-Real-Time-Modus. Dies ermöglicht eine genauere Behandlung von verspäteten Daten und Wasserzeichen in Echtzeit-Streamingabfragen.
Scalar Python UDFs unterstützen Dienstanmeldeinformationen
Skalare Python UDFs können Unity Catalog Service-Anmeldeinformationen verwenden, um sicher auf externe Clouddienste zuzugreifen. Dies ist nützlich, um Vorgänge wie cloudbasierte Tokenisierung, Verschlüsselung oder geheime Verwaltung direkt in Ihre Datentransformationen zu integrieren.
Verbesserte Schemaauflistung
Der Snowflake-Connector verwendet die INFORMATION_SCHEMA Tabelle anstelle des Befehls zum Auflisten von SHOW SCHEMAS Schemas. Diese Änderung entfernt die 10.000-Schemagrenze des vorherigen Ansatzes und verbessert die Unterstützung für Datenbanken mit einer großen Anzahl von Schemas.
Verbesserte Zuordnung von Zeichenfolgenspalten in Redshift-Schreibvorgängen
Beim Schreiben von Tabellen in Redshift mithilfe von spark.write werden Zeichenfolgenspalten ohne explizite Länge zu VARCHAR(MAX) anstelle von TEXT zugeordnet. Dadurch wird das Redshift-Standardverhalten, TEXT als VARCHAR(256) zu interpretieren, vermieden, was beim Schreiben längerer Zeichenfolgen zu Fehlern führen kann.
Unterstützung für DDL, SHOW und DESCRIBE für zugriffsgesteuerte Tabellen
SQL-Befehle wie DDL, SHOWund DESCRIBE führen Sie jetzt mit dedizierten Clustern auf differenzierten zugriffsgesteuerten Tabellen aus. Bei Bedarf, um Zugriffssteuerungen zu erzwingen, leitet Azure Databricks diese Befehle über serverlose Berechnung weiter, genau wie bei Lesevorgängen, Zusammenführungen und Anfügevorgängen. Weitere Informationen finden Sie unter "Support für DDL", "SHOW", "DESCRIBE" und andere Befehle.
Verringerte Speicherauslastung für breite Schemas in Photon Writer
Verbesserungen am Photon-Modul wurden vorgenommen, die die Speicherauslastung für breite Schemas erheblich reduzieren und Szenarien behandeln, die zuvor zu Nichtspeicherfehlern geführt haben.
Unterstützung für TIMESTAMP OHNE ZEITZONENsyntax
Sie können jetzt TIMESTAMP WITHOUT TIME ZONE anstelle von TIMESTAMP_NTZ. Diese Änderung verbessert die Kompatibilität mit sql Standard.
Verhaltensänderungen
- Problem mit der Korrelation von Unterabfragen behoben
- Zeitstempel-NTZ-Literale werden nicht mehr nach unten verschoben
-
Fehler, der für ungültige
CHECKEinschränkungen ausgelöst wird - Pulsar connector macht Bouncy Castle nicht mehr verfügbar
- Auto Loader verwendet standardmäßig Dateiereignisse, falls verfügbar
-
Interne Tabelleneigenschaften gefiltert aus
SHOW CREATE TABLE - Strengere Regeln für Stream-Stream-Verknüpfungen im Anfügemodus
- Teradata-Connector behebt Vergleich zwischen Groß-/Kleinschreibung und Zeichenfolgen
Problem mit der Korrelation von Unterabfragen behoben
Azure Databricks korreliert nicht mehr fälschlicherweise semantisch gleiche Aggregatausdrücke zwischen einer Unterabfrage und ihrer äußeren Abfrage. Bisher könnte dies zu falschen Abfrageergebnissen führen.
Zeitstempel-NTZ-Literale werden nicht mehr nach unten gepusht
Sowohl für den Snowflake Connector als auch für die Snowflake Lakehouse Federation, TIMESTAMP_NTZ (Zeitstempel ohne Zeitzone) Literale werden nicht mehr an Snowflake weitergegeben. Diese Änderung verhindert Abfragefehler, die durch die inkompatible Zeitstempelbehandlung verursacht werden, und verbessert die Zuverlässigkeit für betroffene Abfragen.
Fehler, der für ungültige CHECK Einschränkungen ausgelöst wird
Azure Databricks löst jetzt einen AnalysisException Auslöser aus, wenn ein CHECK Einschränkungsausdruck während der Einschränkungsüberprüfung nicht aufgelöst werden kann.
Pulsar connector macht Bouncy Castle nicht mehr verfügbar
Die Bouncy Castle Bibliothek ist jetzt in der Pulsar-Verbindung schattiert, um Klassenpfadkonflikte zu verhindern. Daher können Spark-Aufträge nicht mehr über den Connector auf Klassen zugreifen org.bouncycastle.* . Wenn Ihr Anwendungscode von Bouncy Castle abhängt, installieren Sie die Bibliothek manuell auf Ihrem Cluster.
Auto Loader verwendet standardmäßig Dateiereignisse, falls verfügbar
Auto Loader verwendet Dateiereignisse anstelle der Verzeichnisauflistung, wenn der Ladepfad ein externer Speicherort mit aktivierten Dateiereignissen ist. Der Standardwert useManagedFileEvents ist jetzt if_available (war false). Dies kann die Aufnahmeleistung verbessern und eine Warnung protokolliert, wenn Dateiereignisse noch nicht aktiviert sind.
Interne Tabelleneigenschaften gefiltert aus SHOW CREATE TABLE
SHOW CREATE TABLE enthält keine internen Eigenschaften mehr, die nicht manuell festgelegt oder an diese übergeben CREATE TABLEwerden können. Dies reduziert Verwirrung und richtet die Ausgabe an benutzerdefinierten Optionen aus.
Strengere Regeln für Stream-Stream-Verknüpfungen im Anfügemodus
Azure Databricks verbietet jetzt Streamingabfragen im Anfügemodus, die eine Streamstream-Verknüpfung gefolgt von der Fensteraggregation verwenden, es sei denn, Wasserzeichen sind auf beiden Seiten definiert. Abfragen ohne ordnungsgemäße Wasserzeichen können nicht endend ergebnisse erzeugen, wobei die Anfügemodusgarantien verletzt werden.
Teradata-Connector behebt Vergleich zwischen Groß-/Kleinschreibung und Zeichenfolgen
Der Teradata-Connector wird TMODE=ANSIjetzt standardmäßig auf das Vergleichsverhalten von Zeichenfolgen mit Azure Databricks ausgerichtet, indem die Groß-/Kleinschreibung beachtet wird. Diese Änderung ist konfigurierbar und wirkt sich nicht auf vorhandene Benutzer aus, es sei denn, sie melden sich an.
Verbesserungen der Bibliothek
Aktualisierte Python-Bibliotheken:
- google-auth von 2.40.1 bis 2.40.0
- mlflow-skinny von 3.0.0 bis 3.0.1
- opentelemetry-api von 1.33.0 bis 1.32.1
- opentelemetry-sdk von 1.33.0 bis 1.32.1
- opentelemetry-semantic-conventions von Version 0.54b0 zu Version 0.53b1
- Verpackung von 24.1 bis 24.2
- Pip von 24.2 bis 25.0.1
Aktualisierte R-Bibliotheken:
cli von 3.6.4 bis 3.6.5
curl von 6.2.1 bis 6.4.0
Generika von 0.1.3 zu 0.1.4
Globals von 0.16.3 auf 0.18.0
openssl von 2.3.2 bis 2.3.3
Säule von 1.10.1 bis 1.11.0
rlang von 1.1.5 bis 1.1.6
sparklyr von 1.9.0 bis 1.9.1
stringi von 1.8.4 bis 1.8.7
Tibble von 3.2.1 bis 3.3.0
utf8 von 1.2.4 bis 1.2.6
Aktualisierte Java-Bibliotheken:
- software.amazon.cryptools.AmazonCorrettoCryptoProvider von 2.4.1-linux-x86_64 bis 2.5.0-linux-x86_64
Apache Spark
Databricks Runtime 17.1 umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Version 17.0 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- SPARK-52721 Korrektur des Nachrichtenparameters für CANNOT_PARSE_DATATYPE
- SPARK-51919 Überschreiben der statisch registrierten Python-Datenquelle zulassen
- SPARK-52632 Wiederherstellen: Ziemliche Anzeige V2-Schreibplanknoten
- SPARK-52715 Schöne SQL-Zeichenfolge von TIME - DAY-TIME INTERVALL
- SPARK-51268 Strukturnode sperren frei machen
- SPARK-52701 Korrigiere die Erweiterung des float32-Typs in Modulo mit Bool unter ANSI
- SPARK-52563 Beheben eines Fehlers bei der Variablenbenennung in _assert_pandas_almost_equal
- SPARK-52541 Programmierhandbuch für deklarative Pipelines hinzufügen
- SPARK-51695 Beheben von Testfehlern durch CHECK-Syntaxänderung CONSTRAINT
- SPARK-52666 Benutzerdefinierten Typ dem richtigen MutableValue in SpecificInternalRow zuordnen
- SPARK-52660 Hinzufügen des Zeittyps zu CodeGenerator#javaClass
- SPARK-52693 ANSI-Tageszeitintervalle (+/– ) im Verhältnis zu TIME unterstützen
- SPARK-52705 Refaktorisierung der deterministischen Prüfung für Gruppierungsausdrücke
- SPARK-52699 Unterstützung für das Aggregieren des TIME-Typs im interpretierten Modus
- SPARK-52503 Beheben des Fehlers beim Löschen, wenn die Eingabespalte nicht vorhanden ist
- SPARK-52535 Verbesserung der Lesbarkeit des Codes der Regel ApplyColumnarRulesAndInsertTransitions
- SPARK-52551 Hinzufügen eines neuen v2-Prädikats BOOLEAN_EXPRESSION
- SPARK-52698 Zurücksetzen: Verbessern von Typhinweisen für das Datenquellenmodul
- SPARK-52684CACHE TABLE-Befehle bei Ausführungsfehlern unteilbar machen
- SPARK-52671 RowEncoder sucht kein aufgelöstes UDT
- SPARK-52670 HiveResult mit UserDefinedType#stringifyValue kompatibel machen
- SPARK-52692 Unterstützen des Zwischenspeicherns des TIME-Typs
- SPARK-51516 Unterstützung für TIME durch den Thrift-Server
- SPARK-52674 Bereinigen der Verwendung veralteter APIs im Zusammenhang mit RandomStringUtils
- SPARK-51428 Zuweisen von Aliasen für zusammengeführte Ausdrucksbäume deterministisch
- SPARK-52672 Ersetzen Sie Sort-/Having-Ausdrücke nicht durch Aliase, wenn ein Ausdruck in "Aggregate" vorhanden ist.
- SPARK-52618 Umwandlung von TIME(n) in TIME(m)
- SPARK-52656 current_time() korrigieren
- SPARK-52630 Reorganisieren Sie den Code und die Verzeichnisse von Streaming-Operatoren und Zustand-Mgmt
- SPARK-52649 Kürzen von Aliasen vor dem Abgleichen von Sort/Having/Filter-Ausdrücken in buildAggExprList
- SPARK-52578 Hinzufügen von Metriken für Zeilen zum Nachverfolgen von Fall und Aktion in MergeRowsExec
- SPARK-49428 Scala-Client von Connector zu SQL verschieben
- SPARK-52494 Unterstützung der Syntax des Doppelpunktzeichenoperators für den Zugriff auf Variant-Felder
- SPARK-52642 Verwenden Sie daemonWorkers.get(worker), um unerwartete Diskrepanzen zwischen idleWorkers und daemonWorkers zu vermeiden.
- SPARK-52570 Dividieren durch Null für numerisches rmod mit aktiviertem ANSI ermöglichen
- SPARK-52633 Deduplicate einzelne untergeordnete Union-Ausgabe vor DeduplicateRelations
- SPARK-52600 Verschieben Sie CompletionIterator zu common/utils
- SPARK-52626 Gruppieren nach Zeittyp zulassen
- SPARK-52395 Reduzierungsauftrag sofort scheitern lassen, wenn die Abrufanforderung von Prism fehlschlägt.
- SPARK-52596 Versuchen Sie, TIMESTAMP_NTZ von DATUM und UHRZEIT zu erstellen
- SPARK-52595 Umbenennen des TimeAdd-Ausdrucks in TimestampAddInterval
- SPARK-52586 Einführung in AnyTimeType
- SPARK-52583 Hinzufügen der Entwickler-API für Zeichenfolgenwerte in UserDefinedType
- SPARK-52354 Typenzwang zu UnionLoop hinzufügen
- SPARK-52579 Regelmäßiges Traceback-Dump für Python-Worker festlegen.
- SPARK-52456 Verringern des Mindestgrenzwerts von spark.eventLog.rolling.maxFileSize
- SPARK-52536 Festlegen von AsyncProfilerLoader extractionDir auf spark local dir
- SPARK-52405 Erweitern von V2JDBCTest zum Testen mehrerer Partitionslesewerte
- SPARK-52303 Höherstufen von ExternalCommandRunner auf "Stable"
- SPARK-52572 CAST_INVALID_INPUT von DataFrame.isin im ANSI-Modus vermeiden
- SPARK-52349 Aktivieren von booleschen Divisionstests mit aktivierter ANSI
- SPARK-52402 Beheben von Divid-by-Zero-Fehlern in Kendall- und Pearson-Korrelation im ANSI-Modus
- SPARK-52356 Division durch Null für boolesches mod/rmod mit aktiviertem ANSI ermöglichen
- SPARK-52288 Vermeiden sie INVALID_ARRAY_INDEX in split/rsplit, wenn der ANSI-Modus aktiviert ist
- SPARK-52557 CAST_INVALID_INPUT von to_numeric(errors='coerce') im ANSI-Modus vermeiden
- SPARK-52440 Zusätzliches Hinzufügen von Python-Installationen für deklarative Pipelines
- SPARK-52569 Beheben der Klassen cast-Ausnahme in SecondsOfTimeWithFraction
- SPARK-52540 Erstellen von TIMESTAMP_NTZ aus Datum und Uhrzeit
- SPARK-52539 Einführung von Sitzungshaken
- SPARK-52554 Vermeiden mehrerer Roundtrips für die Konfigurationsprüfung in Spark Connect
- SPARK-52553 Korrigieren von NumberFormatException beim Lesen des v1-Änderungsprotokolls
- SPARK-52534 MLCache und MLHandler threadsicher machen
- SPARK-52460 Speichern interner TIME-Werte als Nanosekunden
- SPARK-52482 ZStandard-Unterstützung für Dateidatenquellenleser
- SPARK-52531 OuterReference im Unterabfrageaggregat ist fälschlicherweise an das äußere Abfrageaggregat gebunden.
- SPARK-52339 Beheben des Vergleichs von InMemoryFileIndex-Instanzen
- SPARK-52418 Fügen Sie der QuantilHeap-Variable eine NoElements-Zustandsvariable hinzu, um sich wiederholende Berechnungen von isEmpty() zu vermeiden.
- SPARK-52537 Stacktraceausgabe bei Fehler beim Erstellen eines temporären Verzeichnisses
- SPARK-52462 Erzwingen von Typenzwang vor der Deduplizierung der Kinderausgabe in Union
- SPARK-52528 Aktivieren der Funktion "Teilen durch Null" für numerische Mods mit aktiviertem ANSI
- SPARK-52458 Unterstützung von spark.eventLog.excludedPatterns
- SPARK-52493 Unterstützung von Timestamp ohne Zeitzone
- SPARK-51563 Unterstützung des voll qualifizierten Typnamens TIME(n) WITHOUT TIME ZONE
- SPARK-52450 Verbessern der Leistung von Schema deepcopy
- SPARK-52519 Dividieren durch Null für numerisches floordiv mit aktiviertem ANSI ermöglichen
- SPARK-52489 Verbieten doppelter SQLEXCEPTION- und NOT FOUND-Handler innerhalb des SQL-Skripts
- SPARK-52488 Alias entfernen, bevor äußere Referenzen unter HAVING eingehüllt werden.
- SPARK-52383 Verbessern von Fehlern in SparkConnectPlanner
- SPARK-52335 Vereinheitlichen des Fehlers für die ungültige Bucketanzahl für Connect und Classic
- SPARK-52337 InvalidPlanInput zu einem benutzerorientierten Fehler machen
- SPARK-52312 V2WriteCommand beim Zwischenspeichern von DataFrame ignorieren
- SPARK-52487 Phasenübermittelte Zeit und Dauer zu StagePage-Detail hinzufügen
- SPARK-52433 Vereinheitlichung der String-Zwangsverarbeitung in createDataFrame
- SPARK-52427 Von einem Projekt abgedeckte Aggregatausdrucksliste normalisieren
- SPARK-51745 Zustandsautomat für RocksDBStateStore erzwingen
- SPARK-52447 Verschieben Sie die Normalisierung von GetViewColumnByNameAndOrdinal zur SessionCatalogSuite
- SPARK-52397 Idempotente ExecutePlan: Zweiter ExecutePlan mit derselben operationId und Plan wird wieder angefügt
- SPARK-52355 Ableiten des VariantVal-Objekttyps als VariantType beim Erstellen eines DataFrame
- SPARK-52425 Extrahiere Wert zur Wiederverwendung in einer Einzelpass-Implementierung refaktorisieren.
- SPARK-52249 Aktivieren der Dividierung durch Null für numerische Truediv-Werte mit aktivierter ANSI-Funktion
- SPARK-52228 Integrieren von Zustandsinteraktionsmikrobenchmark in Quicksilver (TCP)
- SPARK-48356 Verbesserung des Spaltenschemas der FOR-Anweisung
- SPARK-48353 Verbesserungen der Ausnahmenverarbeitung
- SPARK-52060 Erstellen eines OneRowRelationExec-Knotens
- SPARK-52391 TransformWithStateExec-Funktionen/Vars in Basisklasse für Scala und Python umgestalten
- SPARK-52218 Aktuelle Datetime-Funktionen wieder auswertbar machen
- SPARK-52350 Linkkorrektur für SS-Programmierhandbuch in Version 4.0
- SPARK-52385 TempResolvedColumns aus dem InheritAnalysisRules-Namen entfernen
- SPARK-52392 Neue Single Pass Analyzer-Funktionalität
- SPARK-52243 Hinzufügen der NERF-Unterstützung für schemabezogene InvalidPlanInput-Fehler
- SPARK-52338 Standardsortierung von Schema zu Ansicht erben
- SPARK-52307 Unterstützung für skalaren Arrow-Iterator-UDF
- SPARK-52300 Sql UDTVF-Auflösung verwenden konsistente Konfigurationen mit Ansichtsauflösung
- SPARK-52219 Unterstützung für die Sortierung auf Schemaebene für Tabellen
- SPARK-52272 V2SessionCatalog ändert das Schema im Hive-Katalog nicht
-
SPARK-51890 Parameter zur logischen Planansicht hinzufügen
options - SPARK-51936 ReplaceTableAsSelect sollte neue Tabelle anstelle des Anfügens überschreiben.
- SPARK-51302 Spark Connect unterstützt die Verwendung von JDBC und sollte die DataFrameReader-API verwenden.
- SPARK-50137 Vermeiden eines Fallbacks auf inkompatible Methoden für die Tabellenerstellung
- SPARK-52184 JDBC-Syntaxfehler des externen Moduls mit einer einheitlichen Ausnahme kapseln
- SPARK-47618 Verwenden von Magic Committer für alle S3-Buckets standardmäßig
- SPARK-52305 Verfeinerung des Docstrings für isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
- SPARK-52174 Aktivieren Sie "spark.checkpoint.compress" standardmäßig
- SPARK-52224 Einführen von pyyaml als Abhängigkeit für den Python-Client
- SPARK-52233 map_zip_with für Fließkommatypen korrigieren
- SPARK-52036 SQLConfHelper-Trait zu v2.FileScan hinzufügen.
- SPARK-52159 Entfernen einer zu weit gefassten Bedingung für den MariaDB-Dialekt
- SPARK-50104 Unterstützung für SparkSession.executeCommand in Connect
- SPARK-52240 Korrigierte Zeilenindexverwendung beim Explodieren von gepackten Arrays im vektorisierten Reader
- SPARK-52153 from_json und to_json mit Variante korrigieren
- SPARK-48618 Test auf Nichtexistenz für dreiteilige und zweiteilige Namen verbessen
- SPARK-52216 InvalidCommandInput zu einem benutzerorientierten Fehler machen
- SPARK-52299 Ersetzen veralteter JsonNode.fields
- SPARK-52287 Verbessern Sie SparkContext, um o.a.s.internal.io.cloud.* Einstellung nicht aufzufüllen, falls nicht vorhanden.
- SPARK-51430 PySpark-Kontextprotokollierung daran hindern, Protokolle an die Standardausgabe weiterzuleiten
- SPARK-52278 Skalare Arrow-UDF-Unterstützung benannter Argumente
- SPARK-52026 Blockieren der Pandas-API auf Spark im ANSI-Modus standardmäßig
- SPARK-52171 Implementierung des StateDataSource-Joins für Status v3
- SPARK-52159 Ordnungsgemäße Handhabung der Überprüfung der Tabellenexistenz für JDBC-Dialekte
- SPARK-52158 Hinzufügen eines InvalidInputErrors-Objekts zum Zentralisieren von Fehlern in SparkConnectPlanner
- SPARK-52195 Problem des Verschwindens der Spalte für den anfänglichen Zustand für Python TWS beheben
- SPARK-52211 Strip $ Suffix aus SparkConnectServer INFO-Protokoll
- SPARK-52239 Registrierung eines Arrow-UDF unterstützen
- SPARK-52215 Implementieren von Skalarpfeil-UDF
- SPARK-52188 Fix für StateDataSource, bei dem StreamExecution.RUN_ID_KEY nicht festgelegt ist
- SPARK-52189 Neue goldene Dateitests für NATURAL JOIN mit GROUP BY, HAVING, ORDER BY und LCAs
- SPARK-52079 Normalisieren der Reihenfolge der Attribute in inneren Projektlisten
- SPARK-52234 Beheben eines Fehlers bei Nicht-Zeichenfolgeneingaben in schema_of_csv/xml
- SPARK-52221 Umgestalten von SqlScriptingLocalVariableManager in einen generischeren Kontext-Manager
- SPARK-52181 Größenbeschränkung für Varianten auf 128MiB erhöhen
- SPARK-52217 Überspringen der Validierung äußerer Referenzen im Single-Pass-Resolver unter "Filter"
- SPARK-51260 Verschieben von V2ExpressionBuilder und PushableExpression in das Katalysatormodul
- SPARK-52156 Veralteten CREATE TEMPORARY TABLE ... USING-Anbieter unter dem Flag platzieren
- SPARK-51012 SparkStrategy aus Connect Shims entfernen
- SPARK-52109 Hinzufügen der listTableSummaries-API zur Datenquellen-V2-Tabellenkatalog-API
- SPARK-50915 Hinzufügen von "getCondition" und "deprecate getErrorClass" in PySparkException
- SPARK-52022 Hinzufügen der Standardmethode für SparkThrowable.getQueryContext
- SPARK-51147 Umgestalten von Streaming-verwandten Klassen zu einem dedizierten Streamingverzeichnis
- SPARK-52120 Übergeben der Sitzung an ConnectHelper
- SPARK-52021 Separate Operator- und Ausdrucksmuster
- SPARK-51722 Entfernen des "stop"-Ursprungs von ParseException
- SPARK-52096 Klassifizieren Sie den Kafka-Quell-Offset-Assertionsfehler neu.
- SPARK-51985 Experimentelle Aus AccumulatorSource entfernen
- SPARK-51156 Unterstützung der statischen Tokenauthentifizierung in Spark Connect
- SPARK-52157 Verwenden eines früheren berechneten Namens für OuterReference im Single-Pass-Resolver
- SPARK-52100 Aktivierung der Außerkraftsetzung der Rekursionsgrenzen in der Syntax
- SPARK-51605 Erstellen des übergeordneten Verzeichnisses vor dem Berühren der LogFile-Datei
- SPARK-52127 Quetschen Sie das Protokoll von MapState KEYS / VALUES / ITERATOR für transformWithState in PySpark
- SPARK-52040 ResolveLateralColumnAliasReference sollte die Plan-ID beibehalten
- SPARK-51638 Beheben des Abrufens gespeicherter RDD-Blöcke durch externen Shuffle-Dienst
- SPARK-51983 Vorbereiten der Testumgebung für die Pandas-API auf Spark mit aktivierter ANSI-Modus
- SPARK-52087 Kopieren von Tags und Herkunft zu AliasHelper.trimNonTopLevelAliases hinzufügen
- SPARK-51210 Add --enable-native-access=ALL-UNNAMED zu Java-Optionen für Java 24+
- SPARK-52052 Hinzufügen von .broadcast im Begleitobjekt von SerializableConfiguration
- SPARK-51823 Konfiguration zum Nicht-Beibehalten des Zustandsspeichers auf den Ausführenden hinzufügen
- SPARK-51291 Validierungsfehler bei der Laden des Statusspeichers neu klassifizieren
- SPARK-52006 Ausschluss des CollectMetricsExec-Akkumulators von Spark UI + Ereignisprotokolle + Metric Heartbeats
- SPARK-52076 Schließt ExecutePlanResponseReattachableIterator nach der Verwendung explizit
- SPARK-51428 Zuweisen von Aliasen für zusammengeführte Ausdrucksbäume deterministisch
- SPARK-52079 Normalisieren der Reihenfolge der Attribute in inneren Projektlisten
- SPARK-52033 Fehler beim Generieren von Knoten beheben, bei dem die Ausgabe des untergeordneten Knotens mehrere Kopien desselben Attributs aufweisen kann
- SPARK-51428 Zuweisen von Aliasen für zusammengeführte Ausdrucksbäume deterministisch
- SPARK-52055 Unterdrücken Sie die Ausnahme in ExecutePlanResponseReattachableIterator. del
- SPARK-51921 Verwenden eines langen Typs für TTL-Dauer in Millisekunden in transformWithState
- SPARK-50763 Hinzufügen einer Analyzerregel zum Auflösen von SQL-Tabellenfunktionen
- SPARK-51884 Hinzufügen von äußeren Bereichsattributen für SubqueryExpression
- SPARK-50762 Hinzufügen der Analyzer-Regel zum Auflösen von SQL-Skalar-UDFs
- SPARK-51814 Verwendet list(self) anstelle von StructType.fields für die alte Version compat
- SPARK-51537 Erstellen Sie das sitzungsspezifische Klassenladeprogramm basierend auf dem Standardsitzungsklassenladeprogramm des Executors.
- SPARK-50777 Entfernen redundanter no-op init/destroy-Methoden aus Filterklassen
- SPARK-51691 SerializationDebugger sollte eine Ausnahme schlucken, wenn er versucht, den Grund für ein Serialisierungsproblem zu ermitteln.
- SPARK-51386 Namen zu Fehlerbedingungen zuweisen, _LEGACY_ERROR_TEMP_3300-3302
- SPARK-50734 Hinzufügen der Katalog-API zum Erstellen und Registrieren von SQL UDFs
- SPARK-51989 Hinzufügen fehlender Filterunterklassen zu allen Listen in der Datenquelle
- SPARK-52037 Reihenfolge in internen LCA-Projektlisten sollte die Reihenfolge in der ursprünglichen Projektliste beachten
- SPARK-52007 Ausdrucks-IDs sollten nicht in Gruppierungsausdrücken vorhanden sein, wenn Gruppierungssätze verwendet werden
- SPARK-51860 Deaktivieren Sie spark.connect.grpc.debug.enabled standardmäßig.
- SPARK-47952 Support für das abrufen der absoluten Adresse und des Anschlusses des SparkConnectService-GRPC programmgesteuert beim Rennen auf Yarn
- SPARK-50906 Hinzufügen einer Nullbarkeitsprüfung, ob die Eingaben von to_avro mit dem Schema übereinstimmen
- SPARK-50581-Fixunterstützung für UDAF in Dataset.observe()
- SPARK-49946 Anfordern einer Fehlerklasse in SparkOutOfMemoryError
- SPARK-49748 Hinzufügen von "getCondition" und "deprecate getErrorClass" in SparkThrowable
- SPARK-51959 Funktionen so gestalten, dass sie keine ParentDataFrame importieren
- SPARK-51964 Attribute aus ausgeblendeter Ausgabe in ORDER BY und HAVING über einem Aggregat im Single-Pass-Analyzer richtig auflösen
- SPARK-49942 Ändern Sie errorClass zu condition in classifyException()
- SPARK-51963 Vereinfachen von IndexToString.transform
- SPARK-51946 Voreiliges Fehlschlagen beim Erstellen einer hive-inkompatiblen Datenquellentabelle mit dem Partitionsnamen "col"
- SPARK-51553 EXTRACT ändern, um TIME-Datentyp zu unterstützen
- SPARK-51891 Komprimierung des Protokolls von ListState GET / PUT / APPENDLIST für transformWithState in PySpark
- SPARK-51931 MaxBytesPerOutputBatch hinzufügen, um die Anzahl der Bytes des Pfeilausgabebatches einzuschränken
- SPARK-51441 Hinzufügen von DSv2-APIs für Einschränkungen
- SPARK-51814 Verwenden Sie RecordBatch.schema.names anstelle von column_names für die alte Pyarrow-Kompatibilität.
- SPARK-51913 JDBCTableCatalog#loadTable sollte den Fehler "Tabelle existiert nicht" korrekt auslösen.
- SPARK-51840 Wiederherstellen von Partitionsspalten in HiveExternalCatalog#alterTable
- SPARK-51414 Hinzufügen der funktion make_time()
- SPARK-49700 Vereinheitlichte Scala-Schnittstelle für Connect und Classic
- SPARK-51914 Hinzufügen von com.mysql.cj zu spark.sql.hive.metastore.sharedPrefixes
- SPARK-51827 Spark Connect in transformWithState in PySpark unterstützen
- SPARK-51901 Nicht zulassen von Generatorfunktionen in Gruppierungssätzen
- SPARK-51423 Hinzufügen der funktion current_time() für TIME-Datentyp
- SPARK-51680 Logischen Typ für TIME in Parquet Writer festlegen
- SPARK-51889 Beheben eines Fehlers für MapState clear() in Python TWS
- SPARK-51869 Erstellen einer Klassifizierung für Benutzerfehler in UDFs für Scala TransformWithState
- SPARK-51878 Verbessern Sie fillDefaultValue, indem Sie den faltbaren Standardausdruck ausführen.
- SPARK-51757 Korrigieren: LEAD/LAG-Funktionsoffset überschreitet die Fenstergruppengröße
- SPARK-51805 Get-Funktion mit unkorrektem Argument sollte eine passende Ausnahme werfen statt einer internen.
- SPARK-51900 Datentypkonflikt in Single-Pass Analyzer richtig auslösen
- SPARK-51421 Sekunden des Datentyps TIME abrufen
- SPARK-51661 Partitioniert die Entdeckung der TIME-Spaltenwerte
- SPARK-51687 Filter mit TIME-Werten an Parquet pushen
- SPARK-51419 Stunden des TIME-Datentyps abrufen
- SPARK-51881 AvroOptions vergleichbar machen
- SPARK-51861 Entfernen duplizierter/unnötiger Informationen von InMemoryRelation Plandetail
- SPARK-51814 Einführung einer neuen API transformWithState in PySpark
- SPARK-51779 Verwenden von virtuellen Spaltenfamilien für Stream-Stream-Verknüpfungen
- SPARK-51649 Dynamische Schreib-/Lesevorgänge von TIME-Partitionen
- SPARK-51634 TIME in Spaltenvektoren außerhalb des Heaps unterstützen
- SPARK-51877 Funktionen "chr", "random" und "uuid" hinzufügen
- SPARK-51610 Unterstützung des TIME-Datentyps in der Parkettdatenquelle
- SPARK-51420 Minuten aus TIME-Datentyp abrufen
- SPARK-51822 Auslösen eines klassifizierten Fehlers, wenn nicht zulässige Funktionen während StatefulProcessor.init() aufgerufen werden
- SPARK-51868 Verschieben der Typkoersionsüberprüfung in ein separates Objekt
- SPARK-49747 Migration von connect/ Dateien zur strukturierten Protokollierung
Azure Databricks ODBC/JDBC-TREIBERunterstützung
Azure Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Wartungsupdates
Siehe Azure Databricks Runtime 17.1 Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 24.04.2 LTS
- Java: Zulu17.58+21-CA
- Skala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | Pfeil | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| autocommand | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| Azure-Identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | azure-storage-file-datalake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | schwarz | 24.10.0 |
| Bleichmittel | 6.2.0 | Blinker | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | CacheWerkzeuge | 5.5.1 | Zertifikat | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | Charset-Normalizer | 3.3.2 |
| click | 8.1.7 | cloudpickle | 3.0.0 | Kommunikation | 0.2.1 |
| contourpy | 1.3.1 | Kryptographie | 43.0.3 | Fahrradfahrer | 0.11.0 |
| Cython | 3.0.12 | Databricks-SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | Dekorateur | 5.1.1 | defusedxml | 0.7.1 |
| Als veraltet markiert | 1.2.13 | distlib | 0.3.9 | docstring-to-markdown | 0.11 |
| executing | 0.8.3 | Übersicht der Facetten | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | Dateisperrung | 3.18.0 | fonttools | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| Google Cloud Core | 2.4.3 | Google Cloud-Speicher | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-Spezifikationen | 2023.7.1 | Jupyter-Ereignisse | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-Erweiterungen | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| Notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) | 0.53b1 | Überschreibt | 7.4.0 | Verpackung | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| Kissen | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | Pyasn1 | 0.4.8 |
| Pyasn1-Module | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | Python-LSP-Server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Referenzierung | 0.30.2 | requests | 2.32.3 |
| rfc3339-Prüfer | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| Seil | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| Seegeboren | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortierte Container | 2.4.0 | soupsieve | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | Stapeldaten | 0.2.0 | starlette | 0.46.2 |
| StatistikModelle | 0.14.4 | strictyaml | 1.7.3 | Hartnäckigkeit | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | Tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unbeaufsichtigte Aktualisierungen | 0,1 | URI-Vorlage | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | Webkodierungen | 0.5.1 |
| WebSocket-Client | 1.8.0 | whatthepatch | 1.0.2 | Rad | 0.45.1 |
| widgetsnbextension | 3.6.6 | Eingehüllt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 19.0.1 | Askpass | 1.2.1 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit64 | 4.6.0-1 |
| bitops | 1.0-9 | Klumpen | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.7 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | CellRanger | 1.1.0 | chron | 2.3-62 |
| class | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| clock | 0.7.2 | cluster | 2.1.6 | Codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.5 | Kompilierer | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| Buntstift | 1.5.3 | Zugangsdaten | 2.0.2 | curl | 6.4.0 |
| data.table | 1.17.0 | Datensätze | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | Ellipse | 0.3.2 | auswerten | 1.0.3 |
| Fans | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.5 |
| Zukunft | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| Generika | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | Klebstoff | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| Graphik | 4.4.2 | grDevices | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.1 |
| gtable | 0.3.6 | hardhat | 1.4.1 | Hafen | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | HTML-Werkzeuge | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | Etikettierung | 0.4.3 |
| later | 1.4.1 | lattice | 0.22-5 | lava | 1.8.1 |
| Lebenszyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | Methodik | 4.4.2 |
| mgcv | 1.9-1 | Mime-Kunst | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.3.3 | parallel | 4.4.2 |
| parallelly | 1.42.0 | Säule | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | Fortschritt | 1.2.3 |
| progressr | 0.15.1 | Versprechungen | 1.3.2 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reaktivierbar | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.5 |
| Rezepte | 1.2.0 | Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.3 |
| shape | 1.4.6.1 | glänzend | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiken | 4.4.2 | Statistiken4 | 4.4.2 |
| stringi | 1.8.7 | stringr | 1.5.1 | Überleben | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | Textgestaltung | 1.0.0 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 | timeDate | 4041.110 |
| tinytex | 0.56 | Werkzeuge | 4.4.2 | Zeitzonendatenbank (tzdb) | 0.5.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Universelle eindeutige Kennung (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | AWS Java SDK für Auto Scaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | Datenstrom | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | Koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | guava | 33.4.0-jre |
| com.google.guava | hörbareZukunft | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | fansi_2.13 | 0.5.0 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.3 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.30 |
| io.dropwizard.metrics | metrics-core | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | Netty Codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | Sammler | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | Pfeil-Vektor | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.13.0 |
| org.apache.curator | Kurator-Klient | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | Rezepte des Kurators | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | ORC-Format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalameta | common_2.13 | 4.13.5 |
| org.scalameta | io_2.13 | 4.13.5 |
| org.scalameta | mdoc-parser_2.13 | 2.6.4 |
| org.scalameta | metaconfig-core_2.13 | 0.15.0 |
| org.scalameta | metaconfig-pprint_2.13 | 0.15.0 |
| org.scalameta | metaconfig-typesafe-config_2.13 | 0.15.0 |
| org.scalameta | parsers_2.13 | 4.13.5 |
| org.scalameta | scalafmt-config_2.13 | 3.9.6 |
| org.scalameta | scalafmt-core_2.13 | 3.9.6 |
| org.scalameta | scalafmt-macros_2.13 | 3.9.6 |
| org.scalameta | scalafmt-sysops_2.13 | 3.9.6 |
| org.scalameta | scalameta_2.13 | 4.13.5 |
| org.scalameta | trees_2.13 | 4.13.5 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | paiges-core_2.13 | 0.4.4 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.