Freigeben über


Databricks Runtime 6.0 (EoS)

Hinweis

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.

Diese Version wurde von Databricks im Oktober 2019 veröffentlicht.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 6.0 mit Unterstützung durch Apache Spark.

Neue Funktionen

Python-Umgebung

Databricks Runtime 6.0 enthält wichtige Änderungen an Python und der Konfiguration von Python-Umgebungen, z. B. das Upgrade von Python auf 3.7.3, das Optimieren der Liste der installierten Python-Pakete und das Upgrade dieser installierten Pakete auf neuere Versionen. Weitere Informationen finden Sie unter Installierte Python-Bibliotheken.

Darüber hinaus unterstützt Databricks Runtime 6.0 Python 2 nicht, wie bereits angekündigt.

Zu den wesentlichen Änderungen gehören:

  • Upgrade von Python von 3.5.2 auf 3.7.3. Einige alte Versionen von Python-Paketen sind möglicherweise nicht mit Python 3.7 kompatibel, da sie von alten Cython-Versionen abhängen, die nicht mit Python 3.7 kompatibel sind. Die Installation eines solchen Pakets kann zu Fehlern führen, die 'PyThreadState' {'struct _ts'} has no member named 'exc_type' ähneln (Einzelheiten finden Sie unter GitHub-Problem 1978). Installieren Sie stattdessen Python 3.7-kompatible Versionen von Python-Paketen.
  • Wesentliche Upgrades von Paketen:
    • boto3 auf 1.9.162
    • ipython auf 7.4.0
    • matplotlib auf 3.0.3
    • numpy auf 1.16.2
    • pandas auf 0.24.2
    • pyarrow auf 0.13.0
  • Im Vergleich zu Databricks Runtime 5.5 LTS (EoS) sind die folgenden Python-Pakete neu enthalten: asn1crypto, backcall, jedi, kiwisolver, parso und PySocks.
  • Im Vergleich zu Databricks Runtime 5.5 LTS (EoS) werden die folgenden Python-Pakete nicht installiert: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson und singledispatch.
  • Die display-Funktion für ggplot-Objekte von Python wird nicht mehr unterstützt, da das ggplot-Paket nicht mit einer neueren Version von Pandas kompatibel ist.
  • Das Festlegen von PYSPARK_PYTHON auf /databricks/python2/bin/python wird nicht unterstützt, da Databricks Runtime 6.0 Python 2 nicht unterstützt. Ein Cluster mit einer solchen Einstellung kann weiterhin gestartet werden. Python-Notebooks und Python-Befehle funktionieren jedoch nicht, d. h. Python-Befehlszellen schlagen mit einem „Abgebrochen“-Fehler fehl und in den Treiberprotokollen wird ein Python shell failed to start-Fehler angezeigt.
  • Wenn PYSPARK_PYTHON auf eine ausführbare Python-Datei zeigt, die sich in einer von Virtualenv verwalteten Umgebung befindet, wird diese Umgebung für Initialisierungsskripts und Notebooks aktiviert. Sie können und python- und pip-Befehle, die in der aktivierten Umgebung definiert sind, direkt verwenden, ohne die absoluten Speicherorte dieser Befehle angeben zu müssen. PYSPARK_PYTHON ist standardmäßig auf /databricks/python3/bin/python festgelegt. Daher zeigt python standardmäßig auf /databricks/python3/bin/python und pip zeigt für /databricks/python3/bin/pip und Notebooks auf . Wenn Ihr PYSPARK_PYTHON auf eine ausführbare Python-Datei verweist, die sich nicht in einer von Virtualenv verwalteten Umgebung befindet, oder wenn Sie ein Initialisierungsskript schreiben, um das von PYSPARK_PYTHON angegebene Python zu erstellen, müssen Sie absolute Pfade verwenden, um auf die richtigen python und pip zuzugreifen. Wenn die Isolation der Python-Bibliothek aktiviert ist (sie ist standardmäßig aktiviert), ist die aktivierte Umgebung immer noch die Umgebung, der PYSPARK_PYTHON zugeordnet ist. Wir empfehlen Ihnen, das Bibliothekshilfsprogramm (dbutils.library) (Legacy) zu verwenden, um die einem Python-Notebook zugeordnete isolierte Umgebung zu ändern.

Scala- und Java-APIs für Delta Lake DML-Befehle

Sie können jetzt Daten in Delta-Tabellen mit programmgesteuerten APIs zum Löschen, Aktualisieren und Zusammenführen ändern. Diese APIs spiegeln die Syntax und Semantik ihrer entsprechenden SQL-Befehle wider und eignen sich hervorragend für viele Workloads, z. B. SCD-Vorgänge (langsam veränderliche Dimensionen), das Zusammenführen von Änderungsdaten für die Replikation und Upserts aus Streamingabfragen.

Ausführliche Informationen finden Sie unter "Was ist Delta Lake in Azure Databricks?"

Scala- und Java-APIs für Delta Lake-Hilfsprogrammbefehle

Databricks Runtime verfügt jetzt über programmgesteuerte APIs für die Hilfsprogrammbefehle vacuum und history. Diese APIs spiegeln die Syntax und Semantik ihrer entsprechenden SQL-Befehle wider, die in früheren Versionen von Databricks Runtime verfügbar waren.

Sie können Dateien bereinigen, die nicht mehr von einer Delta-Tabelle referenziert werden und älter als der Schwellenwert für die Aufbewahrung sind, indem Sie vacuum für die Tabelle ausführen. Wenn Sie den vacuum-Befehl für die Tabelle ausführen, werden die Verzeichnisse, die der Delta-Tabelle zugeordnet sind, rekursiv geleert. Der Standardaufbewahrungsschwellenwert für die Dateien beträgt 7 Tage. Die Möglichkeit, zu einer Version zurückzuspringen, die älter als die Aufbewahrungsfrist ist, geht nach der Ausführung von vacuum verloren. vacuum wird nicht automatisch ausgelöst.

Sie können Informationen zu den Vorgängen, zum Benutzer, zum Zeitstempel usw. für jeden Schreibvorgang in eine Delta-Tabelle abrufen, indem Sie den Befehl history ausführen. Die Vorgänge werden in umgekehrter chronologischer Reihenfolge zurückgegeben. Standardmäßig wird der Tabellenverlauf 30 Tage lang aufbewahrt.

Ausführliche Informationen finden Sie unter "Was ist Delta Lake in Azure Databricks?"

Für Azure Lsv2-Instanzen verfügbares Datenträgercaching

Datenträger-Cache ist jetzt für alle Lsv2-Instanzen standardmäßig aktiviert.

Optimierter Speicher mit APIs für lokale Dateien

APIs für lokale Dateien sind nützlich, da sie Ihnen den Zugriff auf Dateien aus dem zugrunde liegenden verteilten Objektspeicher als lokale Dateien ermöglichen. In Databricks Runtime 6.0 haben wir die FUSE-Einbindung verbessert, mit der APIs für lokale Dateien wichtige Einschränkungen behandeln können. Databricks Runtime 6.0 verbessert die Lese- und Schreibgeschwindigkeit erheblich und unterstützt Dateien, die größer als 2 GB sind. Wenn Sie schnellere und zuverlässigere Lese- und Schreibvorgänge benötigen, z. B. für verteiltes Modelltraining, ist diese Erweiterung besonders nützlich. Darüber hinaus müssen Sie für Ihre Workloads keine Daten in einen lokalen Speicher laden, was sowohl Kosten spart als auch die Produktivität erhöht.

Weitere Informationen finden Sie unter Was ist DBFS?.

Mehrere matplotlib-Plots pro Notebookzelle

Sie können jetzt mehrere matplotlib-Plots pro Notebookzelle anzeigen:

Mehrere matplotlib-Plots in der Zelle

Dienstanmeldeinformationen für mehrere Azure Data Lake Storage Gen1-Konten

Sie können jetzt Dienstanmeldeinformationen für mehrere Azure-Speicherkonten für die Verwendung in einer einzigen Apache Spark-Sitzung einrichten. Fügen Sie hierzu den Konfigurationsschlüsseln account.<account-name> hinzu. Wenn Sie beispielsweise Anmeldeinformationen für die Konten für den Zugriff auf adl://example1.azuredatalakestore.net und adl://example2.azuredatalakestore.net einrichten möchten, können Sie wie folgt vorgehen:

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Verbesserungen

  • Upgrade des AWS SDK auf 1.11.596.
  • Azure Storage SDK im WASB-Treiber hat ein Upgrade auf Version 7.0 erhalten.
  • OPTIMIZE bietet jetzt eine Zusammenfassung der Metriken, z. B. Anzahl der hinzugefügten Dateien, Anzahl der entfernten Dateien sowie maximale und minimale Dateigröße. Siehe Optimieren des Datendateilayouts.

Entfernen

Der Databricks ML-Modellexport wird entfernt. Verwenden Sie stattdessen MLeap zum Importieren und Exportieren von Modellen.

Apache Spark

Hinweis

Dieser Artikel enthält Verweise auf den Begriff Slave, einen Begriff, den Azure Databricks nicht verwendet. Sobald der Begriff aus der Software entfernt wurde, wird er auch aus diesem Artikel entfernt.

Databricks Runtime 6.0 enthält Apache Spark 2.4.3. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 5.5 LTS (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-27992][SPARK-28881][PYTHON] Python das Verknüpfen mit dem Verbindungsthread erlauben, um Fehler weiterzugeben
  • [SPARK-27330][SS] Unterstützung von Taskabbruch in foreach-Writer (6.0, 5.x)
  • [SPARK-28642][SQL] Zugangsdaten in SHOW CREATE TABLE verbergen
  • [SPARK-28699][CORE] Ausnahmefall für das Abbrechen einer unbestimmten Stufe beheben
  • [SPARK-28647][WEBUI] Zusätzliches Metrikfeature wiederherstellen
  • [SPARK-28766][R][DOC] Eingehende CRAN-Durchführbarkeitswarnung bei ungültiger URL beheben
  • [SPARK-28486][CORE][PYTHON] Ordnen Sie pythonBroadcasts Datendatei einem BroadcastBlock zu, um das Löschen durch GC zu vermeiden
  • [SPARK-25035][CORE] Vermeidung von Speicherzuordnungen bei der Replikation von auf Datenträgern gespeicherten Blöcken
  • [SPARK-27234][SS][PYTHON] InheritableThreadLocal für die aktuelle Epoche in EpochTracker verwenden (um Python-UDFs zu unterstützen)
  • [SPARK-28638][WEBUI] Vorgangszusammenfassung sollte nur die Metriken der erfolgreichen Vorgänge enthalten.
  • [SPARK-28153][PYTHON] AtomicReference bei InputFileBlockHolder verwenden (um input_file_name mit Python-UDF zu unterstützen)
  • [SPARK-28564][CORE] Die Anwendung für den Zugriffsverlauf verwendet standardmäßig die ID des letzten Versuchs
  • [SPARK-28260] Cluster kann automatisch beendet werden, während die Thriftserver-Abfrage noch Ergebnisse abruft
  • [SPARK-26152][CORE] Workerbereinigung mit dem Herunterfahren der Worker synchronisieren
  • [SPARK-28545][SQL] Größe der Hashzuordnung zum Richtungsprotokoll von ObjectAggregationIterator hinzufügen
  • [SPARK-28489][SS] Korrektur eines Fehlers, durch den KafkaOffsetRangeCalculator.getRanges möglicherweise Offsets löscht
  • [SPARK-28421][ML] SparseVector.apply-Leistungsoptimierung
  • [SPARK-28156][SQL] Selbstverknüpfung sollte die zwischengespeicherte Sicht nicht verpassen
  • [SPARK-28152][SQL] ShortType wurde zu SMALLINT und FloatType zu REAL für MsSqlServerDialect zugeordnet
  • [SPARK-28054][SQL] Fehler beim dynamischen Einfügen einer partitionierten Hive-Tabelle beheben, bei der der Partitionsname groß geschrieben wird
  • [SPARK-27159][SQL] MSSQL Server-Dialekt aktualisieren, um binären Typ zu unterstützen
  • [SPARK-28355][CORE][PYTHON] Spark-Konfiguration für den Schwellenwert verwenden, bei dem…
  • [SPARK-27989][CORE] Wiederholungsversuche bei der Verbindung mit dem Treiber für k8s hinzugefügt
  • [SPARK-27416][SQL] Serialisierung von UnsafeMapData und UnsafeArrayData Kryo…
  • [SPARK-28430][UI] Korrigieren des Renderns der Stufentabelle, wenn die Metriken einiger Aufgaben fehlen
  • [SPARK-27485] EnsureRequirements.reorder sollte doppelte Ausdrücke ordnungsgemäß behandeln
  • [SPARK-28404][SS] Negativen Timeoutwert in RateStreamContinuousPartitionReader beheben
  • [SPARK-28378][PYTHON] Verwendung von cgi.escape entfernen
  • [SPARK-28371][SQL] Parquet-Filter „StartsWith“ NULL-sicher machen
  • [SPARK-28015][SQL] Überprüfung, ob stringToDate() die gesamte Eingabe für die Formate jjjj und jjjj-[m]m verbraucht
  • [SPARK-28302][CORE] Generieren einer eindeutigen Ausgabedatei für SparkLauncher unter Windows sicherstellen
  • [SPARK-28308][CORE] CalendarInterval-Teil unter einer Sekunde sollte vor der Analyse aufgefüllt werden
  • [SPARK-28170][ML][PYTHON] Dokumentation zu Uniform Vectors und Matrix
  • [SPARK-28160][CORE] Korrektur eines Fehlers, bei dem die Rückruffunktion hängen bleiben kann, wenn eine ungeprüfte Ausnahme nicht erkannt wird
  • [SPARK-27839][SQL] UTF8String.replace() ändern, um mit UTF8-Bytes zu arbeiten
  • [SPARK-28157][CORE] KVStore LogInfo für die Einträge auf der Negativliste durch SHS löschen lassen
  • [SPARK-28128][PYTHON][SQL] Gruppierte UDFs von Pandas überspringen leere Partitionen
  • [SPARK-28012][SQL] Hive UDF unterstützt reduzierbaren Ausdruck vom Typ „struct“
  • [SPARK-28164] Beschreibung der Verwendung von start-slave.sh korrigiert
  • [SPARK-27100][SQL] Array anstelle von Seq in FilePartition verwenden, um StackOverflowError zu verhindern
  • [SPARK-28154][ML] GMM behebt doppeltes Zwischenspeichern

Wartungsupdates

Weitere Informationen finden Sie unter Databricks Runtime 6.0-Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 16.04.6 LTS
  • Java: 1.8.0_232
  • Scala: 2.11.12
  • Python: 3.7.3
  • R: R-Version 3.6.1 (2019-07-05)
  • Delta Lake: 0.3.0

Hinweis

Obwohl Scala 2.12 als experimentelles Feature in Apache Spark 2.4 verfügbar ist, wird es in Databricks Runtime 6.0 nicht unterstützt.

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
asn1crypto 0.24.0 Backcall 0.1.0 Boto 2.49.0
Boto3 1.9.162 Botocore 1.12.163 Zertifizieren 2019.3.9
CFFI 1.12.2 Chardet 3.0.4 Kryptographie 2.6.1
Fahrradfahrer 0.10.0 Cython 0.29.6 Dekorateur 4.4.0
docutils 0.14 idna 2.8 ipython 7.4.0
ipython-genutils 0.2.0 Jedi 0.13.3 jmespath 0.9.4
kiwisolver 1.1.0 matplotlib 3.0.3 numpy 1.16.2
Pandas 0.24.2 Parso 0.3.4 Sündenbock 0.5.1
pexpect 4.6.0 Pickleshare 0.7.5 Kern 19.0.3
Prompt-Toolkit 2.0.9 psycopg2 2.7.6.1 ptyprocess 0.6.0
Pyarrow 0.13.0 Pycparser 2.19 pycurl 7.43.0
Pygments 2.3.1 PyGObject 3.20.0 pyOpenSSL 19.0.0
Pyparsing 2.4.2 PySocks 1.6.8 python-apt 1.1.0.b1+ubuntu0.16.04.5
Python-dateutil 2.8.0 Pytz 2018.9 Anforderungen 2.21.0
s3transfer 0.2.1 scikit-lernen 0.20.3 SciPy 1.2.1
Seegeboren 0.9.0 setuptools 40.8.0 sechs 1.12.0
ssh-import-id 5.5 StatistikModelle 0.9.0 Traitlets 4.3.2
unbeaufsichtigte Aktualisierungen 0,1 urllib3 1.24.1 virtualenv 16.4.1
wcwidth 0.1.7 Rad 0.33.1

Installierte R-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
abind 1.4-5 Askpass 1.1 prüfen, dass 0.2.1
Backports 1.1.3 Basis 3.6.1 base64enc 0.1-3
Bahrain 1.69.0-1 Bit 1.1-14 Bit64 0.9-7
Bitops 1.0-6 Blob 1.1.1 Boot 1.3-23
brauen 1.0-6 Callr 3.2.0 Auto 3.0-2
Fahrzeugdaten 3.0-2 Caret 6.0-82 CellRanger 1.1.0
Chron 2.3-53 Klasse 7.3-15 CLI 1.1.0
Schermaschine 0.5.0 Clisymbole 1.2.0 Gruppe 2.1.0
Codetools 0,2 bis 16 Farbraum 1.4-1 Commonmark 1.7
Kompilierer 3.6.1 Konfiguration 0,3 Buntstift 1.3.4
Locke 3.3 Datentabelle 1.12.0 Datensätze 3.6.1
DBI 1.0.0 dbplyr 1.3.0 Beschreibung 1.2.0
devtools 2.0.1 verdauen 0.6.18 doMC 1.3.5
dplyr 0.8.0.1 Ellipse 0.1.0 Fans 0.4.0
Sträflinge 0.4.0 Foreach 1.4.4 Fremd 0.8-72
schmieden 0.2.0 Fs 1.2.7 Gbm 2.1.5
Generika 0.0.2 ggplot2 3.1.0 Gh 1.0.1
git2r 0.25.2 glmnet 2.0-16 Klebstoff 1.3.1
Gower 0.2.0 Grafiken 3.6.1 grGeräte 3.6.1
Raster 3.6.1 gridExtra 2.3 gsubfn 0,7
g-Tabelle 0.3.0 H2O 3.22.1.1 Hafen 2.1.0
HMS 0.4.2 HTML-Werkzeuge 0.3.6 htmlwidgets 1.3
httr 1.4.0 Hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 IPRED 0.9-8 Iteratoren 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 Etikettierung 0,3
Gitter 0.20-38 Lava 1.6.5 Lazyeval 0.2.2
kleiner 0.3.7 lme4 1.1-21 Schmiermittel 1.7.4
magrittr 1.5 mapproj 1.2.6 Karten 3.3.0
Kartentools 0.9-5 MASSE 7.3-51.4 Matrix 1.2-17
MatrixModels 0.4-1 Zwischenspeichern 1.1.0 Methodik 3.6.1
mgcv 1.8-28 Mime-Kunst 0,6 minqa 1.2.4
ModelMetrics 1.2.2 munsell 0.5.0 mvtnorm 1.0-10
nlme 3.1-141 nloptr 1.2.1 NNET 7.3-12
numDeriv 2016.8-1 OpenSSL 1.3 openxlsx 4.1.0
parallel 3.6.1 Pbkrtest 0.4-7 Säule 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.2 PLOGR 0.2.0 plyr 1.8.4
loben 1.0.0 prettyunits 1.0.2 Proc 1.14.0
Prozessx 3.3.0 prodlim 2018.04.18 Fortschritt 1.2.0
Prototyp 1.0.0 P.S. 1.3.0 schnurren 0.3.2
quantreg 5.38 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
randomForest (Zufälliger Wald) 4.6-14 Rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrauer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 READR 1.3.1
readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.3.1 Rezepte 0.1.5 Rückspiel 1.0.1
fernbedienungen 2.0.2 Umform2 1.4.3 Rio 0.5.16
rlang 0.3.3 RODBC 1.3-15 roxygen2 6.1.1
rpart 4.1-15 rprojroot 1.3-2 Rserve 1.8-6
RSQLite 2.1.1 rstudioapi 0,10 Waage 1.0.0
Sitzungsinformationen 1.1.1 sp 1.3-1 Sparklyr 1.0.0
SparkR 2.4.4 SparseM 1.77 räumlich 7.3-11
Splines 3.6.1 sqldf 0.4-11 SQUAREM 2017.10-1
statmod 1.4.30 Statistiken 3.6.1 Statistiken4 3.6.1
Stringi 1.4.3 stringr 1.4.0 Überleben 2.44-1.1
sys 3.1 TCLTK 3.6.1 Lehrdemos 2,10
testthat 2.0.1 Tibble 2.1.1 Räumter 0.8.3
aufräumen 0.2.5 timeDatum 3043.102 Werkzeuge 3.6.1
Nutze dies 1.4.0 utf8 1.1.4 Dienstprogramme und Funktionen 3.6.1
viridisLite 0.3.0 Backenbart 0.3-2 Withr 2.1.2
xml2 1.2.0 xopen 1.0.0 YAML-Dateiformat 2.2.0
schwirren 2.0.1

Installierte Java- und Scala-Bibliotheken (Scala 2.11-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.8.10
com.amazonaws aws-java-sdk-Autoskalierung 1.11.595
com.amazonaws aws-java-sdk-cloudformation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm 1.11.595
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws AWS-Java-SDK-Config 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect 1.11.595
com.amazonaws aws-java-sdk-directory 1.11.595
com.amazonaws aws-java-sdk-db 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws aws-java-sdk-ecs 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.11.595
com.amazonaws aws-java-sdk-emr 1.11.595
com.amazonaws aws-java-sdk-glacier 1.11.595
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.11.595
com.amazonaws aws-java-sdk-iam 1.11.595
com.amazonaws aws-java-sdk-importexport 1.11.595
com.amazonaws aws-java-sdk-kinesis 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-Protokolle 1.11.595
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-route53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws aws-java-sdk-ses 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway 1.11.595
com.amazonaws aws-java-sdk-sts 1.11.595
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.11.595
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.karottensuche hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics Datenstrom 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db8-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db8-spark2.4
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware Kryo-schattiert 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.0.0
com.fasterxml.jackson.core Jackson-Anmerkungen 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core Jackson-Datenbindung 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil Jniloader 1.1
com.github.fommil.netlib Kern 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava Guave 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox Bonecp 0.8.0.RELEASE
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.2.8
com.microsoft.azure Azure-Speicher 7.0.0
com.microsoft.sqlserver mssql-jdbc-Treiber 6.2.2.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter Parkett-Hadoop-Bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe Konfiguration 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity univocity-parsers 2.7.3
com.vlkan FlatBuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1.10
commons-collections commons-collections 3.2.2
Commons-Konfiguration Commons-Konfiguration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.4
commons-lang commons-lang 2.6
Commons-Logging Commons-Logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift Luftkompressor 0,10
io.dropwizard.metrics Metrics-Kernbibliothek 3.1.5
io.dropwizard.metrics Metrics-Ganglia 3.1.5
io.dropwizard.metrics Metrics-Graphite 3.1.5
io.dropwizard.metrics Metrik-Gesundheitschecks 3.1.5
io.dropwizard.metrics Metriken-Jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics Log4j-Metriken 3.1.5
io.dropwizard.metrics Metrik-Servlets 3.1.5
io.netty Netty 3.9.9.Final
io.netty nett-all 4.1.17.Final
javax.activation Aktivierung 1.1.1
javax.annotation javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.9.3
Junit Junit 4,12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-Eigenschaften 1.1.5
net.razorvine Pyrolit 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv Super-CSV 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.5
net.Schneeflocke Snowflake-JDBC 3.6.15
net.Schneeflocke spark-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4,7
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant Ant-Launcher 1.9.2
org.apache.arrow Pfeilformat 0.10.0
org.apache.arrow Pfeilspeicher 0.10.0
org.apache.arrow Pfeil-Vektor 0.10.0
org.apache.avro avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica 1.2.0-Inkubieren
org.apache.calcite Calcit-Kern 1.2.0-Inkubieren
org.apache.calcite calcite-linq4j 1.2.0-Inkubieren
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3,5
org.apache.commons commons-math3 3.4.1
org.apache.curator Kurator-Klient 2.7.1
org.apache.curator Kurator-Framework 2.7.1
org.apache.curator Rezepte des Kurators 2.7.1
org.apache.derby Derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop Hadoop-Anmerkungen 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop Hadoop-Client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop Hadoop-MapReduce-Client-Anwendung 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient (MapReduce-Client für Jobverwaltung) 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0-Inkubieren
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.10
org.apache.ivy Efeu 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc Orc-Shims 1.5.5
org.apache.parkett Parkettsäule 1.10.1.2-databricks3
org.apache.parkett Gebräuchlich 1.10.1.2-databricks3
org.apache.parkett Parquet-Kodierung 1.10.1.2-databricks3
org.apache.parkett Parquet-Format 2.4.0
org.apache.parkett Parkett-Hadoop 1.10.1.2-databricks3
org.apache.parkett Parkett-Jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-shaded 4.8
org.apache.zookeeper Tierpfleger 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino Commons-Compiler 3.0.10
org.codehaus.janino janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty Jetty-Client 9.3.27.v20190418
org.eclipse.jetty Jetty-Fortsetzung 9.3.27.v20190418
org.eclipse.jetty Jetty-HTTP 9.3.27.v20190418
org.eclipse.jetty Jetty-io 9.3.27.v20190418
org.eclipse.jetty Jetty-jndi 9.3.27.v20190418
org.eclipse.jetty Jetty-Plus 9.3.27.v20190418
org.eclipse.jetty Jetty-Proxy 9.3.27.v20190418
org.eclipse.jetty Jetty-Sicherheit 9.3.27.v20190418
org.eclipse.jetty Jetty Server 9.3.27.v20190418
org.eclipse.jetty Jetty-Servlet 9.3.27.v20190418
org.eclipse.jetty Jetty-Servlets 9.3.27.v20190418
org.eclipse.jetty Jetty-Util 9.3.27.v20190418
org.eclipse.jetty Jetty-Webanwendung 9.3.27.v20190418
org.eclipse.jetty Jetty-xml 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-Ortungssystem 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 osgi-resource-locator 1.0.1
org.glassfish.hk2.external aopalliance-neu verpackt 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guava 2.22.2
org.glassfish.jersey.containers Jersey-Container-Servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core Jersey-Client 2.22.2
org.glassfish.jersey.core jersey-common 2.22.2
org.glassfish.jersey.core Jersey-Server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hamcrest hamcrest-core 1.3
org.hamcrest hamcrest-library 1.3
org.hibernate Ruhezustands-Validator 5.1.1.Final
org.iq80.snappy spritzig 0,2
org.javassist Javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.aspx mariadb-java-client 2.1.2
org.mockito Mockito-Core 1.10.19
org.objenesis Objenese 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap Klemmstücke 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.12
org.scala-lang scala-library_2.11 2.11.12
org.scala-lang scala-reflect_2.11 2.11.12
org.scala-lang.modules scala-parser-combinators_2.11 1.1.0
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-silk 1.2.1.spark2
org.spark-project.hive Hive-Metadatenbank 1.2.1.spark2
org.spark-project.spark ungenutzt 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework Federkern 4.1.4.RELEASE
org.springframework Frühlingstest 4.1.4.RELEASE
org.tukaani xz 1.5
org.typelevel Maschinist_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-servers 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.3
org.yaml Schlangenyaml 1.16
Oro Oro 2.0.8
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1
xmlenc xmlenc 0,52