Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Das Datum des Supportendes finden Sie im Verlauf zum Supportende. Alle unterstützten Databricks Runtime-Versionen finden Sie unter Databricks Runtime-Versionshinweise – Versionen und Kompatibilität.
Diese Version wurde von Databricks im Mai 2018 veröffentlicht.
Wichtig
Dieses Release ist am 17. Januar 2019 veraltet. Weitere Informationen zur Databricks Runtime-Veraltungsrichtlinie und zum Zeitplan finden Sie unter Supportlebenszyklus von Databricks.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 4.1 mit Unterstützung durch Apache Spark.
Deltasee
In Databricks Runtime Version 4.1 werden wichtige Qualitätsverbesserungen und Funktionen für Delta Lake hinzugefügt. Databricks empfiehlt allen Delta Lake-Kunden dringend, ein Upgrade auf die neue Runtime durchzuführen. Dieses Release verbleibt in der privaten Vorschau, ist aber ein Releasekandidat in Vorbereitung auf die anstehende Allgemeinverfügbarkeitsversion (GA).
Delta Lake ist jetzt auch in der privaten Vorschauversion für Azure Databricks-Benutzer verfügbar. Wenden Sie sich an Ihren Konto-Manager, oder registrieren Sie sich unter https://databricks.com/product/databricks-delta.
Aktuelle Änderungen
Databricks Runtime 4.1 enthält Änderungen am Transaktionsprotokoll, um neue Features wie die Validierung zu ermöglichen. Tabellen, die mit Databricks Runtime 4.1 erstellt wurden, verwenden automatisch die neue Version, und ältere Versionen von Databricks Runtime können nicht darin schreiben. Sie müssen vorhandene Tabellen aktualisieren, um diese Verbesserungen nutzen zu können. Um eine vorhandene Tabelle zu aktualisieren, aktualisieren Sie zunächst alle Aufträge, die in die Tabelle schreiben. Führen Sie dann Folgendes aus:
com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")Weitere Informationen finden Sie unter Delta Lake-Featurekompatibilität und -protokolle .
Schreibvorgänge werden jetzt anhand des aktuellen Schemas der Tabelle überprüft, anstatt wie zuvor automatisch Spalten hinzuzufügen, die in der Zieltabelle fehlen. Um das vorherige Verhalten zu aktivieren, legen Sie die
mergeSchema-Option auftruefest.Wenn Sie frühere Versionen von Databricks Delta ausführen, müssen Sie alle Aufträge aktualisieren, bevor Sie Databricks Runtime 4.1 verwenden. Wenn einer dieser Fehler angezeigt wird, führen Sie ein Upgrade auf Databricks Runtime 4.1 durch:
java.lang.NumberFormatException: For input string: "00000000000000....crc" scala.MatchErrorTabellen dürfen keine Spalten mehr enthalten, die sich nur nach Groß-/Kleinschreibung unterscheiden.
Deltaspezifischen Tabellenkonfigurationen muss jetzt das Präfix
delta.vorangestellt werden.
Neue Funktionen
Schemaverwaltung: Databricks Delta überprüft nun Anfügungen und Überschreibungen an eine vorhandene Tabelle, um sicherzustellen, dass das geschriebene Schema mit dem Schema übereinstimmt.
- Databricks Delta unterstützt weiterhin die automatische Schemaentwicklung.
- Databricks Delta unterstützt jetzt die folgende DDL zum expliziten Ändern des Schemas:
-
ALTER TABLE ADD COLUMNzum Hinzufügen neuer Spalten zu einer Tabelle -
ALTER TABLE CHANGE COLUMNSzum Ändern der Spaltenreihenfolge ALTER TABLE [SET|UNSET] TBLPROPERTIES
-
Ausführliche Informationen finden Sie unter Schemaerzwingung.
Verbesserte DDL- und Tabellenunterstützung
- Vollständige Unterstützung für Tabellen-DDL und
saveAsTable().save()undsaveAsTable()verfügen nun über eine identische Semantik. - Alle DDL- und DML-Befehle unterstützen sowohl den Tabellennamen als auch
delta.`<path-to-table>`. SHOW PARTITIONSSHOW COLUMNSDESC TABLE- Detaillierte Tabelleninformationen: Sie können die aktuellen Reader- und Writerversionen einer Tabelle anzeigen, indem Sie
DESCRIBE DETAILausführen. Siehe Delta Lake Featurekompatibilität und Protokolle. - Tabellendetails: Informationen zur Herkunft sind jetzt für jeden Schreibvorgang in eine Tabelle verfügbar. Auf der Seitenleiste „Daten“ werden auch detaillierte Tabelleninformationen und der Verlauf für Databricks Delta-Tabellen angezeigt. Weitere Informationen finden Sie unter Überprüfen der Details der Delta Lake-Tabelle mit Beschreibungsdetails.
- Streamingtabellen: Streaming-DataFrames können mithilfe von
spark.readStream.format("delta").table("<table-name>")erstellt werden. - Tabellen, an die nur angefügt werden kann: Databricks Delta unterstützt jetzt grundlegende Datengovernance. Sie können Löschungen und Änderungen in einer Tabelle blockieren, indem Sie die Tabelleneigenschaft auf
delta.appendOnly=truefestlegen. -
MERGE INTOQuelle: Erweitert die Unterstützung der Quellabfragespezifikation vonMERGE. Beispielsweise können SieLIMIT,ORDER BYundINLINE TABLEin der Quelle angeben. - Vollständige Unterstützung für Tabellen-ACLs.
- Vollständige Unterstützung für Tabellen-DDL und
Leistungsverbesserungen
- Reduzierter Mehraufwand für die Sammlung von Statistiken: Die Effizienz der Statistiksammlung wurde verbessert, und Statistiken werden jetzt nur für eine konfigurierbare Anzahl von Spalten gesammelt, die standardmäßig auf 32 festgelegt ist. Die Schreibleistung von Databricks Delta wurde aufgrund der Reduzierung des Mehraufwands bei der Sammlung von Statistiken bis auf das Doppelte verbessert. Legen Sie die Tabelleneigenschaft auf
delta.dataSkippingNumIndexedCols=<number-of-columns>fest, um die Anzahl der Spalten zu konfigurieren. - Unterstützung für Limitpushdown: Statistiken werden verwendet, um die Anzahl der für Abfragen überprüften Dateien zu begrenzen, die ein
LIMITund Prädikate für Partitionsspalten aufweisen. Dies gilt aufgrund des wirksamen implizitenlimit=1000für alle Notebookbefehle für Abfragen in Notebooks. - Filterpushdown in der Streamingquelle: Streamingabfragen verwenden jetzt die Partitionierung, wenn ein neuer Stream gestartet wird, um irrelevante Daten zu überspringen.
- Die verbesserte Parallelität für
OPTIMIZE-OPTIMIZEwird jetzt als einzelne Spark-Aufgabe ausgeführt und verwendet sämtliche im Cluster verfügbare Parallelität (zuvor galt eine Beschränkung auf 100 komprimierte Dateien gleichzeitig). - Überspringen von Daten in DML:
UPDATE,DELETEundMERGEverwenden jetzt Statistiken beim Suchen von Dateien, die neu geschrieben werden müssen. - Verringerte Prüfpunktaufbewahrung: Prüfpunkte werden jetzt zwei Tage lang aufbewahrt (der Verlauf wird weiterhin für 30 Tage aufbewahrt), um die Speicherkosten für das Transaktionsprotokoll zu senken.
API-Verhalten
- Das Verhalten von
insertInto(<table-name>)in Databricks Delta ist dasselbe wie bei anderen Datenquellen.- Wenn kein Modus angegeben oder
modeErrorIfExists,IgnoreoderAppendist, werden die Daten im DataFrame der Databricks Delta-Tabelle angefügt. - Wenn
modegleichOverwriteist, werden alle Daten in der vorhandenen Tabelle gelöscht. Anschließend werden die Daten aus dem DataFrame in die Databricks Delta-Tabelle eingefügt.
- Wenn kein Modus angegeben oder
- Wenn die Zieltabelle von
MERGEzwischengespeichert ist, muss ihre Zwischenspeicherung manuell aufgehoben werden.
Verbesserungen der Benutzerfreundlichkeit
- Überprüfungen der Workloadmigration: Häufige Fehler bei der Migration von Workloads zu Databricks Delta lösen jetzt eine Ausnahme statt eines Ausfalls aus:
- Verwenden von
format("parquet")zum Lesen oder Schreiben einer Tabelle. - Direktes Lesen oder Schreiben auf eine Partition (d. h.
/path/to/delta/part=1). - Leeren von Unterverzeichnissen einer Tabelle.
-
INSERT OVERWRITE DIRECTORYmit Parquet für eine Tabelle.
- Verwenden von
- Konfiguration ohne Berücksichtigung der Groß-/Kleinschreibung: Bei den Optionen für den DataFrame-Reader/Writer und Tabelleneigenschaften wird nun die Groß-/Kleinschreibung nicht beachtet (einschließlich Lese- und Schreibpfad).
- Spaltennamen: Tabellenspaltennamen können jetzt Punkte enthalten.
Bekannte Probleme
- Die Einfügungen von Mehrfacheinfügungs-Anweisungen befinden sich eher in unterschiedlichen Arbeitseinheiten als in derselben Transaktion.
Fehlerbehebungen
- Das Auftreten einer Endlosschleife beim Starten eines neuen Streams für eine Tabelle mit schneller Aktualisierung wurde behoben.
Veraltete Funktionen
Strukturiertes Streaming verarbeitet keine Eingabe, die keine Anfügung ist, und löst eine Ausnahme aus, wenn Änderungen an der Tabelle vorgenommen werden, die als Quelle verwendet wird. Zuvor konnten Sie dieses Verhalten mithilfe des ignoreFileDeletion-Flags überschreiben, aber es ist jetzt veraltet. Verwenden Sie stattdessen ignoreDeletes oder ignoreChanges. Siehe Option 2: Streamen aus einer Delta-Tabelle.
Weitere Änderungen und Verbesserungen
- Query Watchdog ist für alle Allzweckcluster aktiviert, die über die Benutzeroberfläche erstellt wurden.
- Verbesserte treiberseitige Leistung für den DBIO-Cache
- Verbesserte Performance für die Parquet-Decodierung durch einen neuen nativen Parquet-Decoder
- Verbesserte Leistung für häufige Teilausdruckslöschung
- Verbesserte Leistung beim Überspringen von Daten für große Tabellen, die kleine Tabellen verknüpfen (Faktendimensionstabellen-Verknüpfungen)
-
display()rendert jetzt Spalten, die Bilddatentypen enthalten, als Rich HTML. - Verbesserungen bei Protokoll-, Lade- und Register-MLflow-Modellen
- Upgrade von dbml-local auf das neueste Release 0.4.1
- Fehler bei mit Angabe des
threshold-Parameters exportierten Modellen behoben - Unterstützung für den Export von
OneVsRestModel,GBTClassificationModelhinzugefügt
- Einige installierte Python-Bibliotheken haben ein Upgrade erhalten:
- pip: von 9.0.1 auf 10.0.0b2
- setuptools: von 38.5.1 auf 39.0.1
- tornado: von 4.5.3 auf 5.0.1
- wheel: von 0.30.0 auf 0.31.0
- Mehrere installierte R-Bibliotheken haben ein Upgrade erhalten. Weitere Informationen finden Sie unter Installierte R-Bibliotheken.
- Azure Data Lake Store SDK wurde von 2.0.11 auf 2.2.8 aktualisiert.
- CUDA wurde von 8.0 auf 9.0 und CUDNN von 6.0 für GPU-Cluster auf 7.0 aktualisiert.
Apache Spark
Databricks Runtime 4.1 enthält Apache Spark 2.3.0. Dieses Release enthält alle Fixes und Verbesserungen, die in Databricks Runtime 4.0 (EoS) enthalten sind, sowie die folgenden zusätzlichen Bugfixes und Verbesserungen für Spark:
- [SPARK-24007][SQL] EqualNullSafe für FloatType und DoubleType generiert möglicherweise ein falsches Ergebnis durch Codegen.
- [SPARK-23942][PYTHON][SQL] Führt Sammeln in PySpark als Aktion für einen Abfrage-Executor-Listener aus
- [SPARK-23815][CORE] Der Überschreibungsmodus für dynamische Spark-Writer-Partitionen kann möglicherweise keine Ausgabe auf Partitionen mit mehreren Ebenen schreiben
- [SPARK-23748][SS] Korrektur des Problems, dass der kontinuierliche SS-Prozess "SubqueryAlias" nicht unterstützt.
- [SPARK-23963][SQL] Ordnungsgemäße Verarbeitung einer großen Anzahl von Spalten in Abfragen für textbasierte Hive-Tabellen
- [SPARK-23867][SCHEDULER] Verwendung von droppedCount in logWarning
- SPARK-23816[CORE] Beendete Tasks sollten FetchFailures ignorieren.
- SPARK-23809[SQL] Aktive SparkSession sollte über getOrCreate festgelegt werden
- [SPARK-23966][SS] Umgestaltung aller Prüfpunktdatei-Schreiblogik in einer gemeinsamen CheckpointFileManager-Schnittstelle
- [SPARK-21351][SQL] Aktualisierung der Nullbarkeit basierend auf den Ausgaben der Kind-Elemente
- [SPARK-23847][PYTHON][SQL] Hinzufügen von asc_nulls_first, asc_nulls_last zu PySpark
- SPARK-23822[SQL] Verbesserung der Fehlermeldung bei Abweichungen im Parquet-Schema
- SPARK-23823[SQL] Beibehalten des Ursprungs in transformExpression
- SPARK-23838[WEBUI] Laufende SQL-Abfrage wird auf der SQL-Registerkarte als „abgeschlossen“ angezeigt
- SPARK-23802[SQL] PropagateEmptyRelation kann Abfrageplan in unvollendetem Zustand hinterlassen
- [SPARK-23727][SQL] Unterstützung für Filterpushdown für DateType in Parquet
- [SPARK-23574][SQL] SinglePartition wird in DataSourceV2ScanExec gemeldet, wenn genau 1 Datenleserfabrik vorhanden ist.
- [SPARK-23533][SS] Hinzufügen von Unterstützung für das Ändern des StartOffsets von ContinuousDataReader
- [SPARK-23491][SS] Entfernen des expliziten Auftragsabbruchs aus ContinuousExecution-Neukonfiguration
- SPARK-23040[CORE] Gibt nicht unterbrechbare Iteratoren für den Shuffle-Reader zurück
- SPARK-23827[SS] StreamingJoinExec sollte sicherstellen, dass Eingabedaten in eine spezifische Anzahl von Partitionen partitioniert werden
- SPARK-23639[SQL] Abrufen des Tokens bevor Metastore-Client in der SparkSQL-CLI initialisiert wird
- SPARK-23806 Broadcast.unpersist kann schwerwiegende Ausnahmefehler verursachen bei Verwendung...
- SPARK-23599[SQL] Verwendung von RandomUUIDGenerator in UUID-Ausdrücken
- SPARK-23599[SQL] Hinzufügen eines UUID-Generators aus Pseudo-Zufallszahlen
- SPARK-23759[UI] Spark-Benutzeroberfläche kann nicht an einen bestimmten Hostnamen oder eine IP gebunden werden
- SPARK-23769[CORE] Entfernung von Kommentaren, die Scalastyle unnötigerweise deaktivieren
- SPARK-23614[SQL] Behebung des falschen Wiederverwendungsaustauschs bei Verwendung der Zwischenspeicherung
- [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs sollte den Zustand des CSE korrekt speichern und wiederherstellen.
- SPARK-23729[CORE] Beachtung von URI-Fragmenten beim Auflösen von globs
- [SPARK-23550][CORE] Bereinigen von Utils
- SPARK-23288[SS] Fehlerbehebung für Ausgabemetriken mit Parquet-Senke
- SPARK-23264[SQL] Fehlerbehebung von scala.MatchError in literals.sql.out
- SPARK-23649[SQL] Überspringen von Zeichen, die in UTF-8 nicht zulässig sind
- SPARK-23691[PYTHON] Verwendung von sql_conf-Hilfsprogramm in PySpark-Tests, wenn möglich
- SPARK-23644[CORE][UI] Verwendung eines absoluten Pfads für REST-Aufruf in SHS
- SPARK-23706[PYTHON] spark.conf.get(value, default=None) sollte die Ausgabe „None“ in PySpark erzeugen
- SPARK-23623[SS] Vermeiden der gleichzeitigen Verwendung zwischengespeicherter Consumer in CachedKafkaConsumer
- [SPARK-23670][SQL] Behebung eines Speicherlecks im SparkPlanGraphWrapper
- SPARK-23608[CORE][WEBUI] Hinzufügen der Synchronisierung der Funktionen attachSparkUI und detachSparkUI in SHS, um das Problem gleichzeitiger Änderungen an Jetty-Handlern zu vermeiden
- SPARK-23671[CORE] Behebung der Bedingung zum Aktivieren des SHS-Threadpools
- SPARK-23658[LAUNCHER] InProcessAppHandle verwendet die falsche Klasse in getLogger
- SPARK-23642[DOCS] Fehlerbehebung der Unterklasse isZero scaladoc von AccumulatorV2
- SPARK-22915[MLLIB] Streamingtests für spark.ml.feature von N bis Z
- SPARK-23598[SQL] Veröffentlichen von Methoden in BufferedRowIterator, um Runtimefehler für eine große Abfrage zu vermeiden
- [SPARK-23546][SQL] Umgestalten zustandsloser Methoden/Werte in CodegenContext
- [SPARK-23523][SQL] Korrigieren des fehlerhaften Ergebnisses aufgrund der Regel OptimizeMetadataOnlyQuery
- [SPARK-23462][SQL] Verbesserung der Fehlermeldung für fehlende Felder in StructType
- [SPARK-23624][SQL] Dokumentation der Methode pushFilters in Datasource V2 überarbeiten
- SPARK-23173[SQL] Vermeiden der Erstellung fehlerhafter Parquet-Dateien beim Laden von Daten aus JSON
- SPARK-23436[SQL] Partition nur als Datum ableiten, wenn sie in Datum umgewandelt werden kann
- [SPARK-23406][SS] Aktivieren von Stream-Stream-Selbstjoins
- SPARK-23490[SQL] Überprüfung von storage.locationUri mit vorhandener Tabelle in CreateTable
- SPARK-23524 Große lokale Shuffle-Blöcke sollten nicht auf Fehler überprüft werden.
- [SPARK-23525][SQL] Unterstützung für ALTER TABLE CHANGE COLUMN COMMENT für externe Hive-Tabellen
- SPARK-23434[SQL] Spark sollte das Metadatenverzeichnis nicht für einen HDFS-Dateipfad warnen
- SPARK-23457[SQL] Listener für Abschluss von Tasks zuerst in ParquetFileFormat registrieren
- SPARK-23329[SQL] Fehlerbehebung bei der Dokumentation von trigonometrischen Funktionen
- SPARK-23569[PYTHON] Zulassen der Zusammenarbeit von pandas_udf mit python3-artigen Funktionen mit kommentierten Typen
- SPARK-23570[SQL] Hinzufügen von Spark 2.3.0 in HiveExternalCatalogVersionsSuite
- [SPARK-23517][PYTHON] Lassen Sie pyspark.util._exception_message die Rückverfolgung von der Java-Seite durch Py4JJavaError erzeugen
- [SPARK-23508][CORE] Korrigieren von BlockmanagerId, falls blockManagerIdCache Arbeitsspeichermangel verursacht
- [SPARK-23448][SQL] Verdeutlichen des JSON- und CSV-Parserverhaltens im Dokument
- [SPARK-23365][CORE] Num-Executors beim Beenden von Executors im Leerlauf nicht anpassen.
- [SPARK-23438][DSTREAMS] Korrektur von DStreams-Datenverlust mit WAL, wenn der Treiber abstürzt
- [SPARK-23475][UI] Auch übersprungene Phasen anzeigen
- [SPARK-23518][SQL] Metastore-Zugriff vermeiden, wenn die Benutzer nur Datenrahmen lesen und schreiben möchten
- [SPARK-23406][SS] Aktivieren von Stream-Stream-Selbstjoins
- [SPARK-23541][SS] Zulassen, dass die Kafka-Quelle Daten mit einer Parallelität liest, die die Anzahl der Artikelpartitionen überschreitet
- [SPARK-23097][SQL][SS] Migrieren der Textsocketquelle zu V2
- [SPARK-23362][SS] Migrieren der Kafka Microbatch-Quelle zu V2
- [SPARK-23445] ColumnStat-Refactoring
- [SPARK-23092][SQL] Migrieren von MemoryStream zu DataSourceV2-APIs
- [SPARK-23447][SQL] Bereinigen der Codegen-Vorlage für das Literal
- [SPARK-23366] Verbessern des heißen Lesepfads in ReadAheadInputStream
- [SPARK-22624][PYSPARK] Verfügbarmachen des Bereichspartitionierungs-Shuffles
Wartungsupdates
Weitere Informationen finden Sie unter Databricks Runtime 4.1-Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Skala: 2.11.8
- Python: 2.7.12 für Python 2-Cluster und 3.5.2 für Python 3-Cluster.
- R: R-Version 3.4.4 (2018-03-15)
-
GPU-Cluster: Die folgenden NVIDIA-GPU-Bibliotheken sind installiert:
- Tesla-Fahrer 375.66
- CUDA 9.0
- cuDNN 7.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse | 1.2.1 | Backports-abc | 0,5 |
| Boto | 2.42.0 | Boto3 | 1.4.1 | Botocore | 1.4.70 |
| Brewer2mpl | 1.4.1 | Zertifizieren | 2016.2.28 | CFFI | 1.7.0 |
| Chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| Kryptographie | 1.5 | Zyklierer | 0.10.0 | Cython | 0.24.1 |
| Dekorateur | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
| et-xml-Datei | 1.0.1 | Freetype-py | 1.0.2 | Funcsigs | 1.0.2 |
| Fusepy | 2.0.4 | Termingeschäfte | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0.999 | idna | 2.1 | IP-Adresse | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
| mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | Sündenbock | 0.4.1 |
| pexpect | 4.0.1 | Pickleshare | 0.7.4 | Kissen | 3.3.1 |
| Kern | 10.0.0b2 | Schicht | 3.9 | Prompt-Toolkit | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| Pyarrow | 0.8.0 | Pyasn1 | 0.1.9 | Pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| Pyparsing | 2.2.0 | Pypng | 0.0.18 | Python | 2.7.12 |
| Python-dateutil | 2.5.3 | python-geohash | 0.8.5 | Pytz | 1.6.2016 |
| Anforderungen | 2.11.1 | s3transfer | 0.1.9 | scikit-lernen | 0.18.1 |
| SciPy | 0.18.1 | scheuern | 0,32 | Seegeboren | 0.7.1 |
| setuptools | 39.0.1 | simplejson | 3.8.2 | simples3 | 1,0 |
| singledispatch (eine Methode zur Auswahl von Funktionen basierend auf dem Typ eines Arguments in Python) | 3.4.0.3 | Sechs | 1.10.0 | StatistikModelle | 0.6.1 |
| Tornado | 5.0.1 | Traitlets | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | wcwidth | 0.1.7 | Rad | 0.31.0 |
| wsgiref | 0.1.2 |
Installierte R-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| abind | 1.4-5 | prüfen, dass | 0.2.0 | Backports | 1.1.2 |
| Basis | 3.4.4 | Bahrain | 1.66.0-1 | bindr | 0.1.1 |
| bindrcpp | 0.2.2 | Bit | 1.1-12 | Bit64 | 0.9-7 |
| Bitops | 1.0-6 | Blob | 1.1.1 | starten | 1.3-20 |
| brauen | 1.0-6 | Besen | 0.4.4 | Auto | 3.0-0 |
| Fahrzeugdaten | 3.0-1 | Caret | 6.0-79 | CellRanger | 1.1.0 |
| Chron | 2.3-52 | Klasse | 7.3-14 | cli | 1.0.0 |
| Gruppe | 2.0.7 | Codetools | 0.2-15 | Farbraum | 1.3-2 |
| Commonmark | 1.4 | Kompilierer | 3.4.4 | Buntstift | 1.3.4 |
| Locke | 3.2 | CVST | 0.2-1 | data.table | 1.10.4-3 |
| Datensätze | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
| DEoptimR | 1,0 - 8 | Beschreibung | 1.1.1 | devtools | 1.13.5 |
| Dichromat | 2.0-0 | verdauen | 0.6.15 | abgeblendet | 0.1.0 |
| doMC | 1.3.5 | dplyr | 0.7.4 | DRR | 0.0.3 |
| Sträflinge | 0.3.0 | Foreach | 1.4.4 | Fremd | 0.8-69 |
| Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
| glmnet | 2.0-16 | Kleber | 1.2.0 | Gower | 0.1.2 |
| Grafiken | 3.4.4 | grGeräte | 3.4.4 | Raster | 3.4.4 |
| gsubfn | 0,7 | g-Tabelle | 0.2.0 | H₂O | 3.16.0.2 |
| Hafen | 1.1.1 | HMS | 0.4.2 | httr | 1.3.1 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | IPRED | 0.9-6 |
| Iteratoren | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | Kennzeichnung | 0,3 | Gitter | 0.20-35 |
| Lava | 1.6.1 | Lazyeval | 0.2.1 | kleiner | 0.3.3 |
| lme4 | 1.1-17 | Schmiermittel | 1.7.3 | magrittr | 1.5 |
| mapproj | 1.2.6 | Karten | 3.3.0 | Kartentools | 0.9-2 |
| MASSE | 7.3-49 | Matrix | 1.2-13 | MatrixModels | 0.4-1 |
| Zwischenspeichern | 1.1.0 | Methoden | 3.4.4 | mgcv | 1.8-23 |
| Mime-Kunst | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
| ModelMetrics | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
| nlme | 3.1-137 | nloptr | 1.0.4 | NNET | 7.3-12 |
| numDeriv | 2016.8-1 | OpenSSL | 1.0.1 | openxlsx | 4.0.17 |
| parallel | 3.4.4 | Pbkrtest | 0.4-7 | Säule | 1.2.1 |
| pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | PLOGR | 0.2.0 |
| plyr | 1.8.4 | loben | 1.0.0 | prettyunits | 1.0.2 |
| Proc | 1.11.0 | prodlim | 1.6.1 | Prototyp | 1.0.0 |
| Psych | 1.8.3.3 | schnurren | 0.2.4 | quantreg | 5.35 |
| R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
| R6 | 2.2.2 | randomForest (Zufälliger Wald) | 4.6-14 | RColorBrauer | 1.1-2 |
| Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
| RCurl | 1.95-4.10 | READR | 1.1.1 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.0.0 |
| Rezepte | 0.1.2 | Rückspiel | 1.0.1 | Umform2 | 1.4.3 |
| Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
| RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
| rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
| rstudioapi | 0,7 | Waage | 0.5.0 | sfsmisc | 1.1-2 |
| sp | 1.2-7 | SparkR | 2.3.0 | SparseM | 1.77 |
| räumlich | 7.3-11 | Splines | 3.4.4 | sqldf | 0.4-11 |
| SQUAREM | 2017.10-1 | statmod | 1.4.30 | Statistiken | 3.4.4 |
| Statistiken4 | 3.4.4 | Stringi | 1.1.7 | stringr | 1.3.0 |
| Überleben | 2.41-3 | TCLTK | 3.4.4 | Lehrdemos | 2,10 |
| testthat | 2.0.0 | Tibble | 1.4.2 | Räumter | 0.8.0 |
| aufräumen | 0.2.4 | timeDatum | 3043.102 | Werkzeuge | 3.4.4 |
| utf8 | 1.1.3 | Dienstprogramme und Funktionen | 3.4.4 | viridisLite | 0.3.0 |
| Backenbart | 0.3-2 | Withr | 2.1.2 | xml2 | 1.2.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.11-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.7.3 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-Config | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-db | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr | 1.11.313 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.11.313 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts | 1.11.313 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.karottensuche | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | Datenstrom | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
| com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | Kryo-schattiert | 3.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Mitschüler | 1.0.0 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | Kern | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jamesmurty.utils | java-xmlbuilder | 1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.2.8 |
| com.microsoft.sqlserver | mssql-servers | 6.2.2.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | chill-java | 0.8.4 |
| com.twitter | chill_2.11 | 0.8.4 |
| com.twitter | Parkett-Hadoop-Bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | univocity-parsers | 2.5.9 |
| com.vlkan | FlatBuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 2.4.1 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| commons-collections | commons-collections | 3.2.2 |
| Commons-Konfiguration | Commons-Konfiguration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 2.2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | Luftkompressor | 0,8 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 3.1.5 |
| io.dropwizard.metrics | Metrics-Ganglia | 3.1.5 |
| io.dropwizard.metrics | Metrics-Graphit | 3.1.5 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 3.1.5 |
| io.dropwizard.metrics | Metrics-Jetty9 | 3.1.5 |
| io.dropwizard.metrics | metrics-json | 3.1.5 |
| io.dropwizard.metrics | metrics-jvm | 3.1.5 |
| io.dropwizard.metrics | Log4j-Metriken | 3.1.5 |
| io.dropwizard.metrics | Metrik-Servlets | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | nett-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | Sammler | 0,7 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-Eigenschaften | 1.1.5 |
| net.iharder | Base64 | 2.3.8 |
| net.java.dev.jets3t | Jets3t | 0.9.4 |
| net.razorvine | Pyrolith | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4,7 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | Ant-Launcher | 1.9.2 |
| org.apache.arrow | Pfeilformat | 0.8.0 |
| org.apache.arrow | Pfeilspeicher | 0.8.0 |
| org.apache.arrow | Pfeilvektor | 0.8.0 |
| org.apache.avro | avro | 1.7.7 |
| org.apache.avro | avro-ipc | 1.7.7 |
| org.apache.avro | avro-ipc-tests | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | calcite-avatica | 1.2.0-Inkubieren |
| org.apache.calcite | Calcit-Kern | 1.2.0-Inkubieren |
| org.apache.calcite | calcite-linq4j | 1.2.0-Inkubieren |
| org.apache.commons | commons-compress | 1.4.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3,5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | Kurator-Klient | 2.7.1 |
| org.apache.curator | Kurator-Framework | 2.7.1 |
| org.apache.curator | Rezepte des Kurators | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | Hadoop-Anmerkungen | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | Hadoop-Client | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | hadoop-hdfs | 2.7.3 |
| org.apache.hadoop | Hadoop-MapReduce-Client-Anwendung | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient (MapReduce-Client für Jobverwaltung) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0-Inkubieren |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | Efeu | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.1 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
| org.apache.parkett | Parkettsäule | 1.8.2-databricks1 |
| org.apache.parkett | Gebräuchlich | 1.8.2-databricks1 |
| org.apache.parkett | Parquet-Kodierung | 1.8.2-databricks1 |
| org.apache.parkett | Parquet-Format | 2.3.1 |
| org.apache.parkett | Parkett-Hadoop | 1.8.2-databricks1 |
| org.apache.parkett | Parkett-Jackson | 1.8.2-databricks1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-shaded | 4.4 |
| org.apache.zookeeper | Zoowärter | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1.58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.8 |
| org.codehaus.janino | janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | Jetty-Client | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-HTTP | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Plus | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Proxy | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Server | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Util | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | Jersey-Client | 2.22.2 |
| org.glassfish.jersey.core | jersey-common | 2.22.2 |
| org.glassfish.jersey.core | Jersey-Server | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | Ruhezustands-Validator | 5.1.1.Final |
| org.iq80.snappy | spritzig | 0,2 |
| org.javassist | Javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.2.11 |
| org.json4s | json4s-core_2.11 | 3.2.11 |
| org.json4s | json4s-jackson_2.11 | 3.2.11 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.aspx | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | Objenese | 2.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | Test-Schnittstelle | 1,0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-silk | 1.2.1.spark2 |
| org.spark-project.hive | Hive-Metadatenbank | 1.2.1.spark2 |
| org.spark-project.spark | ungenutzt | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | Federkern | 4.1.4.RELEASE |
| org.springframework | Frühlingstest | 4.1.4.RELEASE |
| org.tukaani | xz | 1,0 |
| org.typelevel | Maschinist_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-servers | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.2.6 |
| org.yaml | Schlangenyaml | 1.16 |
| Oro | Oro | 2.0.8 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0,52 |