Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Databricks a publié cette version en décembre 2018.
Important
Cette version a été déconseillée le 2 mai 2023. Pour plus d’informations sur la politique de dépréciation de Databricks Runtime et sur la planification, consultez Cycles de vie du support Databricks.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 5.1 avec Apache Spark.
Nouvelles fonctionnalités
Delta Lake
Prise en charge de la syntaxe étendue dans MERGE INTO.
- Prise en charge de plusieurs clauses
MATCHED, conditions supplémentaires dansMATCHEDet les clausesNOT MATCHED, actionDELETE. Cela est utile pour l’écriture de données modifiées (insertions, mises à jour et suppressions) d’une base de données dans une table Delta. - Prise en charge de _ dans
UPDATEetINSERTpour les actions permettant de remplir automatiquement les noms de colonnes (similaire à _ dansSELECT). Cela facilite l’écriture de requêtesMERGEpour les tables comportant un très grand nombre de colonnes.
Pour obtenir des exemples, consultez MERGE INTO.
- Prise en charge de plusieurs clauses
Prise en charge des niveaux d’isolement réglables pour les tables Delta.
- Les tables Delta peuvent être configurées pour avoir l’un de ces deux niveaux d’isolation : Serializable et WriteSerializable (par défaut).
- Le niveau d’isolation par défaut passe de Serializable à WriteSerializable pour permettre une plus grande disponibilité. Plus précisément,
UPDATE,DELETEetMERGEsont autorisés à s’exécuter simultanément avec les ajouts (par exemple, à partir d’une requête de streaming). Consultez Niveaux d’isolement et écriture de conflits sur Azure Databricks pour comprendre les implications de cette relaxation et les étapes à suivre pour appliquer le comportement précédent, si nécessaire.
Préversion privée de la commande
CONVERT TO DELTA, qui vous permet de convertir une table Parquet en table Delta sur place, sans copier les fichiers. Contactez le support Azure Databricks si vous souhaitez tester.
Bibliothèques au niveau du notebook pour Python. Vous pouvez désormais installer des bibliothèques Python, y compris Eggs, Wheels et PyPI, dans des notebooks Python à l’aide de l’API de la bibliothèque Databricks Utilities. Les bibliothèques installées par le biais de cette API sont disponibles uniquement dans le notebook dans lequel les bibliothèques sont installées. Consultez Utilitaire de bibliothèque (dbutils.library) (hérité).
Important
Cette fonctionnalité est disponible en préversion publique.
Utilitaires de bibliothèque activés par défaut sur les clusters exécutant Databricks Runtime 5.1. Par conséquent, par défaut, le processus Python REPL pour chaque notebook est isolé à l’aide d’un exécutable Python distinct créé lorsque le notebook est attaché et hérite de l’environnement Python par défaut sur le cluster. Les bibliothèques installées par le biais de scripts init dans un environnement Azure Databricks Python sont toujours disponibles. Cette fonctionnalité peut être désactivée en définissant
spark.databricks.libraryIsolation.enabledsurfalse.La fonction
displayprend désormais en charge les DataFrames pandas. Consultez Créer une visualisation.
Améliorations
Delta Lake
- Amélioration de la scalabilité de
OPTIMIZEavec un grand nombre de petits fichiers. - Voici
SETune colonne imbriquée dansUPDATE.
- Amélioration de la scalabilité de
Performances SQL
- Optimisez
LIMITen extrayant uniquement les premières partitionsn. - Optimisez les jointures de plages. Nous avons ajouté des règles d’optimiseur qui réécrivent une jointure de plage à exécuter de manière plus efficace. Cela peut accélérer ce type de requête par ordre de grandeur. Pour activer l’optimisation, vous ajoutez un conseil à la requête. La réécriture actuelle prend en charge les formes de requête de jointure de plages suivantes :
- Point dans l’intervalle :
a.begin < b.point AND b.point < a.end - Chevauchement de l’intervalle :
a.begin < b.end AND b.begin < a.end
- Point dans l’intervalle :
- Optimisez
Mise à niveau du connecteur pour ADLS, qui inclut des correctifs de bogues critiques. Nous vous recommandons de mettre à niveau tous les utilisateurs d’Azure Data Lake Storage vers Databricks Runtime 5.1.
Mise à niveau de Java à partir de 1.8.0_162 vers 1.8.0_181.
Mise à niveau du connecter Snowflake pour Spark vers 2.4.10.
Mise à niveau de certaines bibliothèques python installées :
- pip : 18.0 à 18.1
- setuptools : 40.4.1 à 40.6.2
- virtualenv : 15.0.1 à 16.1.0
- wheel : 0.31.1 à 0.32.3
Mise à niveau de plusieurs bibliothèques R installées. Consultez Bibliothèques R installées.
Résolution des bogues
- Correction d’un bogue dans la prise en charge d’Azure Data Lake Storage qui n’a pas pu répertorier les répertoires avec plus de 5 000 fichiers.
-
TRANSFORMdoit gérer correctement les différents types de données d’entrée. - Nettoyez les fichiers de lecture aléatoire externes expirés après les exécuteurs pour empêcher les clusters de longue durée de manquer de disque.
Apache Spark
Databricks Runtime 5.1 comprend Apache Spark 2.4.0. Cette version contient toutes les améliorations et tous les correctifs inclus dans Databricks Runtime 5.0 (EoS), ainsi que les améliorations et correctifs de bogues supplémentaires suivants apportés à Spark :
- [SPARK-26147][SQL] Extraire uniquement la fonction définie par l’utilisateur Python de la condition de jointure
- [SPARK-26129][SQL] Instrumentation pour l’heure de planification par requête
- [Spark-25921][PYSPARK] Corriger l’exécution de tâche de cloisonnement sans BarrierTaskContext pendant la réutilisation de python worker
- [SPARK-23207][SQL] Utiliser SQLConf.obten.enableRadixSort au lieu de SparkEnv.obten.conf.obten (SQLConf.RADIX_SORT_ENABLED)
- [SPARK-26057][SQL] La transformation a également analysé des plans lors de la déduplication des références
- [SPARK-25974][SQL] Optimise ,génère le bytecode pour le classement en fonction de l’ordre donné
- [Spark-25901][CORE] Utiliser uniquement un thread dans BarrierTaskContext...
- [SPARK-25381][SQL] Échantillonnage stratifié par argument de colonne
- [SPARK-25514][SQL] Génération de pretty JSON par to_json
- [SPARK-22827][SQL] Lancer SparkOutOfMemoryError dans HashAggregateExec aussi.
- [SPARK-25979][SQL] Fonction de fenêtre : autoriser les parenthèses autour de la référence de fenêtre
- [SPARK-25988][SQL] Conserver les noms inchangés lors de la déduplication des noms de colonnes dans l’analyseur
- [Spark-25904][CORE] Allouer des tableaux inférieurs à Int.MaxValue
- [SPARK-24901][SQL] Fusionner codegen de RegularHashMap et fastHashMap pour réduire le maxCodesize du compilateur lorsque VectorizedHashMap a la valeur false.
- [SPARK-25850][SQL] Rendre le seuil de fractionnement de la fonction générée par le code configurable
- [SPARK-25866][ML] Mettre à jour KMeans formatVersion
- [SPARK-22148][SPARK-15815][SCHEDULER] Acquérir de nouveaux exécuteurs pour éviter les blocages en raison de la liste de refus
- [SPARK-25827][CORE] Éviter de convertir des blocs chiffrés entrants en mémoires tampons d’octets
- [SPARK-25918][SQL] LOAD DATA LOCAL INPATH doit gérer un chemin relatif
- [SPARK-25837][CORE] Résoudre le ralentissement potentiel dans AppStatusListener lors du nettoyage des étapes
- [SPARK-25773][CORE] Annuler les tâches zombie dans une étape de résultat quand la tâche se termine (5.x)
- [SPARK-25767][SQL] Correction du flux d’expressions évaluées tardivement dans la génération de code
- [SPARK-25819][SQL] Prendre en charge l’option de mode d’analyse pour la fonction from_avro
- [SPARK-25044] Modifier la signature du constructeur ScalaUDF
- [SPARK-25699][SQL] Pousse partiellement la conjonctive de prédicat dans ORC
- [SPARK-25559][SQL] Supprimer les prédicats non pris en charge dans Parquet quand...
- [SPARK-25540][SPARK-25525][SQL] [PYSPARK] Ne pas mettre à jour conf pour SparkContext existant dans SparkSession.getOrCreate.
- [SPARK-25595] Ignorer les fichiers Avro endommagés si l’indicateur IGNORE_CORRUPT_FILES activé
- [SPARK-25458][SQL] Prise en charge de FOR ALL COLUMNS dans ANALYZE TABLE
- [SPARK-25449][CORE] La pulsation ne doit pas inclure d’accumulateurs pour les métriques nulles
- [SPARK-25399][SS] L’état de traitement continu ne doit pas affecter les tâches d’exécution de microlot
- [SPARK-26092][SS] Utiliser CheckpointFileManager pour écrire le fichier de métadonnées de streaming
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 5.1.
Environnement du système
- Système d’exploitation : Ubuntu 16.04.5 LTS
- Java : 1.8.0_181
- Scala : 2.11.8
- Python : 2.7.12 pour les clusters Python 2 et 3.5.2 pour les clusters Python 3.
- R : R version 3.4.4 (2018-03-15)
-
Clusters GPU : Les bibliothèques GPU NVIDIA suivantes sont installées :
- Pilote Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Remarque
Bien que Scala 2.12 soit pris en charge dans Apache Spark 2.4, il ne l’est pas dans Databricks Runtime 5.1.
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| chiffrement | 1,5 | cycliste | 0.10.0 | Cython | 0.24.1 |
| décorateur | 4.0.10 | docutils | 0.14 | énumération 34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | contrats à terme | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0.999 | idna | 2.1 | adresse IP | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
| mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | dupe | 0.4.1 |
| pexpect | 4.0.1 | pickleshare | 0.7.4 | Oreiller | 3.3.1 |
| pépin | 18.1 | Plis | 3.9 | prompt-toolkit | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
| python-dateutil | 2.5.3 | Python-geohash | 0.8.5 | pytz | 1.6.2016 |
| requêtes | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy (bibliothèque Python pour le calcul scientifique) | 0.18.1 | récurer | 0.32 | seaborn | 0.7.1 |
| setuptools | 40.6.2 | simplejson | 3.8.2 | simples3 | 1,0 |
| répartition unique | 3.4.0.3 | Six | 1.10.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.6.1 |
| tornade | 5.1.1 | Traitlets | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 16.1.0 | wcwidth | 0.1.7 | roue | 0.32.3 |
| wsgiref | 0.1.2 |
Bibliothèques R installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| abind | 1.4-5 | assertthat | 0.2.0 | rétroportage | 1.1.2 |
| base | 3.4.4 | base64enc | 0.1-3 | BH | 1.66.0-1 |
| bindr | 0.1.1 | bindrcpp | 0.2.2 | morceau | 1.1-14 |
| bit 64 | 0.9-7 | bitops | 1.0-6 | objet BLOB | 1.1.1 |
| botte | 1,3-20 | brasser | 1.0-6 | balai | 0.5.0 |
| appelant | 3.0.0 | voiture | 3.0-2 | données de voiture | 3.0-2 |
| caret | 6.0-80 | cellranger | 1.1.0 | Chron | 2.3-53 |
| classe | 7.3-14 | Cli | 1.0.1 | Presse-papiers | 0.4.1 |
| clisymbols | 1.2.0 | Grappe | 2.0.7-1 | codetools | 0.2-15 |
| espace colorimétrique | 1.3-2 | commonmark | 1.6 | compilateur | 3.4.4 |
| crayon de cire | 1.3.4 | friser | 3.2 | Thrombose Veineuse du Sinus Cérébral (CVST) | 0.2-2 |
| table de données | 1.11.8 | jeux de données | 3.4.4 | DBI | 1.0.0 |
| ddalpha | 1.3.4 | DEoptimR | 1,0-8 | Desc | 1.2.0 |
| devtools | 2.0.1 | digérer | 0.6.18 | dimRed | 0.1.0 |
| doMC | 1.3.5 | dplyr | 0.7.7 | Réduction des Risques de Catastrophe (DRR) | 0.0.3 |
| fans | 0.4.0 | condamnés | 0.3.0 | foreach | 1.4.4 |
| étranger | 0.8-70 | Fs | 1.2.6 | Gbm | 2.1.4 |
| géométrie | 0.3-6 | ggplot2 | 3.1.0 | Gh | 1.0.1 |
| git2r | 0.23.0 | glmnet | 2.0-16 | colle | 1.3.0 |
| Gower | 0.1.2 | graphisme | 3.4.4 | grDevices | 3.4.4 |
| grille | 3.4.4 | gridExtra | 2.3 | gsubfn | 0,7 |
| gt ;pouvant être | 0.2.0 | H₂O | 3.20.0.8 | havre | 1.1.2 |
| Hms | 0.4.2 | httr | 1.3.1 | hwriter | 1.3.2 |
| hwriterPlus | 1.0-3 | ini | 0.3.1 | ipred | 0.9-8 |
| itérateurs | 1.0.10 | jsonlite | 1,5 | kernlab | 0.9-27 |
| KernSmooth | 2.23-15 | étiquetage | 0,3 | treillis | 0.20-38 |
| lave | 1.6.3 | lazyeval | 0.2.1 | plus petit | 0.3.5 |
| lme4 | 1.1-18-1 | lubridate | 1.7.4 | magie | 1.5-9 |
| magrittr | 1,5 | mapproj | 1.2.6 | cartes | 3.3.0 |
| maptools | 0.9-4 | MASSE | 7.3-50 | Matrice | 1.2-14 |
| MatrixModels | 0.4-1 | mémorisation | 1.1.0 | méthodes | 3.4.4 |
| mgcv | 1,8 à 25 | mime | 0,6 | minqa | 1.2.4 |
| ModelMetrics | 1.2.2 | munsell | 0.5.0 | mvtnorm | 1,0-8 |
| nlme | 3.1-137 | nloptr | 1.2.1 | nnet | 7.3-12 |
| numDeriv | 2016.8-1 | openssl | 1.0.2 | openxlsx | 4.1.0 |
| parallèle | 3.4.4 | pbkrtest | 0.4-7 | pilier | 1.3.0 |
| pkgbuild | 1.0.2 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
| pkgload | 1.0.2 | plogr | 0.2.0 | Pls | 2.7-0 |
| plyr (un package logiciel pour le traitement de données) | 1.8.4 | éloge | 1.0.0 | joliesunits | 1.0.2 |
| Proc | 1.13.0 | processx | 3.2.0 | prodlim | 2018.04.18 |
| proto | 1.0.0 | p.s. | 1.2.0 | purrr | 0.2.5 |
| quantreg | 5.36 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
| R.utils | 2.7.0 | R6 | 2.3.0 | randomForest (algorithme d'apprentissage automatique) | 4.6-14 |
| rcmdcheck | 1.3.1 | RColorBrewer | 1.1-2 | Rcpp | 0.12.19 |
| RcppEigen | 0.3.3.4.0 | RcppRoll | 0.3.0 | RCurl | 1.95-4.11 |
| readr | 1.1.1 | readxl | 1.1.0 | recettes | 0.1.3 |
| match retour | 1.0.1 | Télécommandes | 2.0.2 | remodeler2 | 1.4.3 |
| rivière | 0.5.10 | rlang | 0.3.0.1 | robustebase | 0.93-3 |
| RODBC | 1.3-15 | roxygen2 | 6.1.0 | rpart | 4.1-13 |
| rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.1 |
| rstudioapi | 0,8 | écailles | 1.0.0 | informations sur la session | 1.1.1 |
| sfsmisc | 1.1-2 | Sp | 1.3-1 | SparkR | 2.4.0 |
| ÉparseM | 1.77 | spatial | 7.3-11 | Cannelures | 3.4.4 |
| sqldf | 0.4-11 | SQUAREM | 2017.10-1 | statmod | 1.4.30 |
| Statistiques | 3.4.4 | statistiques4 | 3.4.4 | chaine | 1.2.4 |
| stringr | 1.3.1 | survie | 2.43-1 | tcltk | 3.4.4 |
| Démos Pédagogiques | 2,10 | testthat | 2.0.1 | tibble | 1.4.2 |
| tidyr | 0.8.2 | tidyselect | 0.2.5 | date-heure | 3043.102 |
| outils | 3.4.4 | Utilise ça | 1.4.0 | utf8 | 1.1.4 |
| utilitaires | 3.4.4 | viridisLite | 0.3.0 | vibrisse | 0,3-2 |
| flétrir | 2.1.2 | xml2 | 1.2.0 | xopen | 1.0.0 |
| fermeture éclair | 1.0.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.11)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.8.10 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr | 1.11.313 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.11.313 |
| com.amazonaws | aws-java-sdk-millisecondes | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts | 1.11.313 |
| com.amazonaws | Outil de support aws-java-sdk | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | flux | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.5.0-db8-spark2.4 |
| com.databricks | dbml-local_2.11-tests | 0.5.0-db8-spark2.4 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | ombré-cryo | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.0.0 |
| com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.11 | 0,3 |
| com.twitter | chill-java | 0.9.3 |
| com.twitter | chill_2.11 | 0.9.3 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | univocity-analyseurs | 2.7.3 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1,10 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Digester | Commons-Digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | compresseur d'air | 0.10 |
| io.dropwizard.metrics | métriques de base | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | métriques-vérifications de santé | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metrics-json | 3.1.5 |
| io.dropwizard.metrics | metrics-jvm | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | servlets de métriques | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | collecteur | 0,7 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1,2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2,11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-suppléments | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-propriétés | 1.1.5 |
| net.razorvine | pyrolite (roche pyrolitique) | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.5 |
| net.snowflake | snowflake-jdbc | 3.6.15 |
| net.snowflake | spark-snowflake_2.11 | 2.4.10-spark_2.4 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4,7 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 0.10.0 |
| org.apache.arrow | mémoire-flèche | 0.10.0 |
| org.apache.arrow | vecteur-flèche | 0.10.0 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.calcite | calcite-avatica | 1.2.0-en incubation |
| org.apache.calcite | noyau de calcite | 1.2.0-en incubation |
| org.apache.calcite | calcite-linq4j | 1.2.0-en incubation |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3,5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | curateur-client | 2.7.1 |
| org.apache.curator | curateur-framework | 2.7.1 |
| org.apache.curator | curateur-recettes | 2.7.1 |
| org.apache.derby | derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop annotations | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-client | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | hadoop-hdfs | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0-incubant |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | lierre | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.5.2 |
| org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
| org.apache.orc | orc-shims | 1.5.2 |
| org.apache.parquet | colonne de parquet | 1.10.1-databricks3 |
| org.apache.parquet | parquet-common | 1.10.1-databricks3 |
| org.apache.parquet | encodage parquet | 1.10.1-databricks3 |
| org.apache.parquet | parquet-format | 2.4.0 |
| org.apache.parquet | parquet-hadoop | 1.10.1-databricks3 |
| org.apache.parquet | parquet-jackson | 1.10.1-databricks3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm6-shaded | 4.8 |
| org.apache.zookeeper | gardien de zoo | 3.4.6 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.9 |
| org.codehaus.janino | janino | 3.0.9 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.3.20.v20170531 |
| org.eclipse.jetty | serveur jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-goyva | 2.22.2 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | jersey-commun | 2.22.2 |
| org.glassfish.jersey.core | jersey-server | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | hibernate-validateator | 5.1.1.Final |
| org.iq80.snappy | Snappy | 0.2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.joddd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.5.3 |
| org.json4s | json4s-core_2.11 | 3.5.3 |
| org.json4s | json4s-jackson_2.11 | 3.5.3 |
| org.json4s | json4s-scalap_2.11 | 3.5.3 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalactic | scalactic_2.11 | 3.0.3 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 3.0.3 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
| org.spark-project.spark.spark | inutilisé | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core | 4.1.4.RELEASE |
| org.springframework | test de printemps | 4.1.4.RELEASE |
| org.tukaani | xz | 1,5 |
| org.typelevel | machiniste_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.1 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0.52 |