Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Databricks a publié cette version en avril 2019.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 5.3, optimisé par Apache Spark.
Nouvelles fonctionnalités
Databricks Delta
Voyage dans le temps est en disponibilité générale
Voyage dans le temps Delta est devenu généralement disponible. Il ajoute la possibilité d’interroger un instantané d’une table à l’aide d’une chaîne de timestamp ou d’une version, à l’aide de la syntaxe SQL, ainsi que des options DataFrameReader pour les expressions de timestamp.
SELECT count(*) FROM events TIMESTAMP AS OF timestamp_expression
SELECT count(*) FROM events VERSION AS OF version
Le voyage dans le temps a de nombreuses applications, notamment :
- Recréer des analyses, des rapports ou des sorties (par exemple, la sortie d’un modèle Machine Learning), qui sont utiles pour le débogage ou l’audit, en particulier dans des secteurs réglementés.
- Écriture de requêtes temporelles complexes.
- Correction des erreurs dans vos données.
- Fournissez une capture instantanée d’isolation pour un ensemble de requêtes des tables à variation rapide.
Consultez Utiliser l’historique des tables Delta Lake.
Réplication de table MySQL vers la préversion publique de Delta
Diffuser en continu des données à partir d'une table MySQL directement dans Delta, en vue de leur utilisation en aval dans des processus d'analyse ou de science des données avec Spark. Tirant parti de la même stratégie que celle que MySQL utilise pour la réplication vers d’autres instances, le binlog est utilisé pour identifier des mises à jour qui sont ensuite traitées et diffusées en continu vers Databricks comme suit :
- Lit les événements de modification à partir du journal de la base de données.
- Diffuse en continu les événements vers Databricks.
- Écrit dans le même ordre dans une table Delta.
- Conserve l’état en cas de déconnexion de la source.
Fonctionnalités de la préversion privée
Cette version contient les fonctionnalités de la préversion privée suivantes pour Delta Lake :
- Ajout d’une commande expérimentale permettant à Presto d’interroger directement des tables delta.
- L’optimisation automatique optimise la disposition des fichiers lors d’écritures individuelles dans une table Delta et empêche l’accumulation de petits fichiers dans vos tables Delta afin de maintenir des performances de requête très rapides. En outre, les écritures et les upserts dans des tables Delta partitionnées peuvent bénéficier d’accélérations considérables grâce à une lecture aléatoire adaptative introduite dans les écritures.
Si vous souhaitez participer à l'un ou l'autre des aperçus, contactez l'équipe de votre compte Databricks.
Dossier DBFS FUSE optimisé pour les charges de travail de Deep Learning
Azure Databricks offre désormais un montage FUSE optimisé. Vous pouvez bénéficier d’un accès aux données hautes performances pendant l’apprentissage et l’inférence sans appliquer de scripts init. Les données stockées sous dbfs:/ml et accessibles localement à l’emplacement file:/dbfs/ml sont désormais sauvegardées par ce montage FUSE optimisé. Consultez Charger des données pour le Machine Learning et le Deep Learning.
Améliorations
- Bibliothèques délimitées aux notebooks :
- Prise en charge d’Extras dans
dbutils.library.installPyPI. - Prise en charge de l’installation de bibliothèque délimitée aux notebooks pour les bibliothèques figurant dans le système de fichiers Azure, à savoir
wasbs,adlsetabfss. - Amélioration des messages d’erreur pour les bibliothèques délimitées aux notebooks sur des cibles non prises en charge. Par exemple : « Il n’y a pas d’utilitaire de bibliothèque disponible sur Databricks Runtime pour Machine Learning ».
- Prise en charge d’Extras dans
- Connectez-vous à Azure Data Lake Storage (ADLS) sans devoir accorder au Principal du service un rôle RBAC « Contributeur aux données Blob du stockage » à l’échelle du compte.
-
Databricks Advisor propose des conseils supplémentaires pour améliorer les performances des requêtes :
- En présence de nombreux petits fichiers par partition -> Convertir la table en Delta et exécuter
OPTIMIZE. - En présence d’un filtre hautement sélectif -> Convertir en Delta et utiliser
ZORDER BY. - Lorsque les récupérations de métadonnées à partir de Hive créent un goulot d’étranglement –> Convertir votre table en Delta.
- En présence de nombreux petits fichiers par partition -> Convertir la table en Delta et exécuter
- Mise à niveau d’Ubuntu de la version 16.04.5 LTS vers la version 16.04.6 LTS.
- Mise à niveau de Scala 2.11 de la version 2.11.8 vers la version 2.11.12.
- Mise à niveau de certaines bibliothèques Python installées :
- pip : 18.1 à 19.0.3
- setuptools : 40.6.3 à 40.8.0
- roue : 0.32.3 à 0.33.1
- Mise à niveau de R de la version 3.4.4 vers la version 3.5.2.
- Mise à niveau de plusieurs bibliothèques R installées. Consultez Bibliothèques R installées.
Dépréciation
- Le connecteur Apache Kafka 0.8 pour la diffusion en continu structurée n’est plus pris en charge. Elle est incluse dans Databricks Runtime 5.3, mais sera supprimée d’une version future de Databricks Runtime.
- L’exportation du modèle ML Databricks est déconseillée et sera supprimée dans Databricks Runtime 6.0. Utilisez MLeap pour importer et exporter des modèles à la place.
- Suppression de
spark.databricks.pyspark.enableExecutorFsPermsen tant qu’option de configuration.
Résolution des bogues
- Correction de l’installation de la bibliothèque Python Egg à l’échelle du cluster pour les clusters activés pour les ACL de table.
- Amélioration de l’annulation de la commande Python en corrigeant la situation dans laquelle l’annulation est appelée avant l’exécution de la commande.
- Correction d'un bogue dans les ACL de table : désormais, lorsque vous listez les objets dans une base de données ou un catalogue, vous ne voyez que ceux que vous êtes autorisé à voir.
Apache Spark
Databricks Runtime 5.3 inclut Apache Spark 2.4.0. Cette version inclut tous les correctifs et améliorations Spark figurant dans Databricks Runtime 5.2 (EoS) ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-27134][SQL] La fonction array_distinct ne fonctionne pas correctement avec des colonnes contenant un tableau de tableau
- [SPARK-24669][SQL] Invalidation de tables en cas de DROP DATABASE CASCADE
- [SPARK-26572][SQL] Correction de l’évaluation des résultats de l’agrégat de codegen
- [SPARK-27046][DSTREAMS] Suppression des références associées à SPARK-19185 de la documentation
- [SPARK-26449][PYTHON] Ajout d’une méthode de transformation à l’API DataFrame
- [SPARK-26740][SQL] Lecture des statistiques de timestamp/colonne de date écrites par SPARK 3,0
- [SPARK-26909][SQL] Utiliser unsafeRow.hashCode() en tant que valeur de hachage dans HashAggregate
- [SPARK-26990][SQL] FileIndex : utilisation, autant que possible, de noms de champs spécifiés par l’utilisateur
- [SPARK-26851][SQL] Correction du verrouillage à double contrôle dans CachedRDDBuilder
- [SPARK-26864][SQL] Une requête peut retourner un résultat incorrect lorsqu'une UDF en Python est utilisée comme condition de semi-jointure gauche
-
[SPARK-26887][SQL][PYTHON] Création de
datetime.datedirectement au lieu de créer datetime64 comme donnée intermédiaire - [SPARK-26859][SQL] Correction d’un bogue d’index d’enregistreur de champ dans le désérialiseur ORC non vectorisé
- [SPARK-26864][SQL] Une requête peut retourner un résultat incorrect lorsqu'une UDF Python est utilisée comme condition de jointure et que l'UDF utilise des attributs des deux branches de la semi-jointure gauche.
- [SPARK-24360][SPARK-26091][BACKPORT][SQL] Support du metastore Hive 3.1
- [SPARK-26873][SQL] Utilisation d’un timestamp cohérent pour générer des ID de travail Hadoop.
- [SPARK-26734][STREAMING] Correction de StackOverflowError avec une file d’attente de blocs volumineuse
- [SPARK-26758][CORE] Les exécuteurs inactifs ne sont pas supprimés après la valeur spark.dynamiAllocation.executorIdleTimeout
- [SPARK-26751][SQL] Correction d’une fuite de mémoire lors de l’exécution d’une instruction en arrière-plan, et levée d’une exception autre que HiveSQLException
- [SPARK-26806][SS] EventTimeStats.merge doit gérer correctement les zéros
- [SPARK-26745][SPARK-24959][SQL] Rétablissement de l’optimisation de compte dans une source de données JSON
- [SPARK-26757][GRAPHX] Retour de 0 pour count sur les RDD Edge/Vertex vides
- [SPARK-26726] Synchronisation de la quantité de mémoire utilisée par la variable de diffusion sur l’écran de l’interface utilisateur
- [SPARK-26718][SS] Correction d’un dépassement d’entier dans le calcul Kafka rateLimit
- [SPARK-26708][SQL] Résultat incorrect provoqué par une incohérence entre le RDD mis en cache d’un cache SQL et son plan physique
- [SPARK-26735][SQL] Vérification de l’intégrité du plan pour des expressions spéciales
- [SPARK-26619][SQL] Nettoyage des sérialiseurs inutilisés de SerializeFromObject
- [SPARK-26379][SS] Utilisation de TimeZoneId factice pour éviter UnresolvedException dans CurrentBatchTimestamp
- [SPARK-26495][SQL] Simplification de l’extracteur SelectedField
- [SPARK-26379][SS] Correction d’un problème lors de l’ajout de current_timestamp/current_date à une requête de diffusion en continu
- [SPARK-26709][SQL] OptimizeMetadataOnlyQuery ne gère pas correctement les enregistrements vides
- [SPARK-26680][SQL] Création d’inputVars en abondance quand les conditions sont appropriées
- [SPARK-26682][SQL] Utilisation de taskAttemptID au lieu d’attemptNumber pour Hadoop
- [SPARK-26706][SQL] Correction de illegalNumericPrecedence pour ByteType
- [SPARK-26228][MLLIB] Problème de mémoire insuffisante rencontré lors du calcul de la matrice Gramian
- [SPARK-26665][CORE] Correction d’un bogue ayant pour effet que BlockTransferService.fetchBlockSync peut se bloquer indéfiniment
- [SPARK-26549][PYSPARK] Correction pour que la réutilisation d’un Worker Python n’ait aucun effet pour paralléliser une plage itérable tardive
- [SPARK-26351][MLLIB] Mise à jour de document et correction mineure dans les métriques d’évaluation de mllib
- [SPARK-26450] Évitement d’une reconstruction de carte de schéma pour chaque colonne d’une projection
- [SPARK-26638][PYSPARK][ML] Classes de vecteurs Pyspark retournant toujours une erreur pour une négation unaire
- [SPARK-26633][REPL] Ajout d’ExecutorClassLoader.getResourceAsStream
- [SPARK-26629][SS] Correction d’erreur avec plusieurs flux de fichier dans une requête + redémarrage sur un lot dépourvu de données pour un flux de fichier
- [SPARK-25992][PYTHON] Impossibilité de partager le document SparkContext pour un traitement multiprocesseur
- [SPARK-26615][CORE] Résolution de fuites de ressources du serveur/client de transport dans les unittests principaux
- [SPARK-26350][SS] Permettre de remplacer l'identifiant de groupe du consommateur de Kafka
- [SPARK-26538][SQL] Définition de la précision et de l’échelle par défaut pour les éléments d’un tableau numérique postgres
- [SPARK-26586][SS] Correction d’une condition de concurrence qui provoque l’exécution de flux avec des configurations inattendues
- [SPARK-26551][SQL] Correction d'une erreur de réduction de schéma lors de la sélection d'un champ complexe avec un prédicat non null sur un autre champ.
- [SPARK-26576][SQL] Indice de diffusion non appliqué à une table partitionnée
- [SPARK-26571][SQL] Mise à jour de mappage Serde Hive avec nom canonique de Parquet et Orc FileFormat
- [SPARK-26267][SS] Nouvelle tentative lors de la détection de décalages incorrects provenant de Kafka (2.4)
- [SPARK-26559][ML][PYSPARK] L’image ML ne peut pas fonctionner avec les versions numpy antérieures à la version 1.9
- [SPARK-26078][SQL] Déduplication des attributs de jointure réflexive dans les sous-requêtes IN
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 5.3.
Environnement du système
- Système d’exploitation : Ubuntu 16.04.6 LTS
- Java : 1.8.0_191
- Scala : 2.11.12
- Python : 2.7.12 pour les clusters Python 2 et 3.5.2 pour les clusters Python 3.
- R : R version 3.5.2 (20/12/2018)
-
Clusters GPU : Les bibliothèques GPU NVIDIA suivantes sont installées :
- Pilote Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Remarque
Bien que Scala 2.12 soit pris en charge dans Apache Spark 2.4, il ne l’est pas dans Databricks Runtime 5.3.
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| chiffrement | 1,5 | cycleur | 0.10.0 | Cython | 0.24.1 |
| décorateur | 4.0.10 | docutils | 0.14 | énumération 34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | contrats à terme | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0.999 | idna | 2.1 | adresse IP | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
| mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | dupe | 0.4.1 |
| pexpect | 4.0.1 | pickleshare | 0.7.4 | Oreiller | 3.3.1 |
| pépin | 19.0.3 | Plis | 3.9 | prompt-toolkit | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
| python-dateutil | 2.5.3 | Python-geohash | 0.8.5 | pytz | 1.6.2016 |
| requêtes | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy (bibliothèque Python pour le calcul scientifique) | 0.18.1 | récurer | 0.32 | seaborn | 0.7.1 |
| setuptools | 40.8.0 | simplejson | 3.8.2 | simples3 | 1,0 |
| répartition unique | 3.4.0.3 | Six | 1.10.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.6.1 |
| tornade | 5.1.1 | Traitlets | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 16.1.0 | wcwidth | 0.1.7 | roue | 0.33.1 |
| wsgiref | 0.1.2 |
Bibliothèques R installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| abind | 1.4-5 | Askpass | 1.1 | assertthat | 0.2.0 |
| rétroportage | 1.1.3 | base | 3.5.2 | base64enc | 0.1-3 |
| BH | 1.69.0-1 | morceau | 1.1-14 | bit 64 | 0.9-7 |
| bitops | 1.0-6 | objet BLOB | 1.1.1 | botte | 1,3-20 |
| brasser | 1.0-6 | appelant | 3.1.1 | voiture | 3.0-2 |
| données de voiture | 3.0-2 | caret | 6.0-81 | cellranger | 1.1.0 |
| Chron | 2.3-53 | classe | 7.3-15 | Cli | 1.0.1 |
| Presse-papiers | 0.5.0 | clisymbols | 1.2.0 | Grappe | 2.0.7-1 |
| codetools | 0.2-16 | espace colorimétrique | 1.4-0 | commonmark | 1.7 |
| compilateur | 3.5.2 | config | 0,3 | pastel | 1.3.4 |
| friser | 3.3 | data.table | 1.12.0 | jeux de données | 3.5.2 |
| DBI | 1.0.0 | dbplyr | 1.3.0 | Desc | 1.2.0 |
| devtools | 2.0.1 | digérer | 0.6.18 | doMC | 1.3.5 |
| dplyr | 0.8.0.1 | ellipse | 0.1.0 | fans | 0.4.0 |
| condamnés | 0.4.0 | foreach | 1.4.4 | étranger | 0.8-71 |
| forger | 0.2.0 | Fs | 1.2.6 | Gbm | 2.1.5 |
| produits génériques | 0.0.2 | ggplot2 | 3.1.0 | Gh | 1.0.1 |
| git2r | 0.24.0 | glmnet | 2.0-16 | colle | 1.3.0 |
| Gower | 0.1.2 | graphismes | 3.5.2 | grDevices | 3.5.2 |
| grille | 3.5.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gt ;pouvant être | 0.2.0 | H₂O | 3.22.1.1 | havre | 2.1.0 |
| Hms | 0.4.2 | outils HTML | 0.3.6 | htmlwidgets | 1.3 |
| httr | 1.4.0 | hwriter | 1.3.2 | hwriterPlus | 1.0-3 |
| ini | 0.3.1 | ipred | 0.9-8 | itérateurs | 1.0.10 |
| jsonlite | 1.6 | KernSmooth | 2.23-15 | étiquetage | 0,3 |
| treillis | 0.20-38 | lave | 1.6.5 | lazyeval | 0.2.1 |
| plus petit | 0.3.6 | lme4 | 1.1-20 | lubridate | 1.7.4 |
| magrittr | 1,5 | mapproj | 1.2.6 | cartes | 3.3.0 |
| maptools | 0.9-5 | MASSE | 7.3-51.1 | Matrice | 1.2-15 |
| MatrixModels | 0.4-1 | mémorisation | 1.1.0 | méthodes | 3.5.2 |
| mgcv | 1.8-27 | mime | 0,6 | minqa | 1.2.4 |
| ModelMetrics | 1.2.2 | munsell | 0.5.0 | mvtnorm | 1.0-9 |
| nlme | 3.1-137 | nloptr | 1.2.1 | nnet | 7.3-12 |
| numDeriv | 2016.8-1 | openssl | 1.2.2 | openxlsx | 4.1.0 |
| parallèle | 3.5.2 | pbkrtest | 0.4-7 | pilier | 1.3.1 |
| pkgbuild | 1.0.2 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
| pkgload | 1.0.2 | plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.4 |
| éloge | 1.0.0 | joliesunits | 1.0.2 | Proc | 1.13.0 |
| processx | 3.2.1 | prodlim | 2018.04.18 | progrès | 1.2.0 |
| proto | 1.0.0 | p.s. | 1.3.0 | purrr | 0.3.0 |
| quantreg | 5.38 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
| R.utils | 2.8.0 | r2d3 | 0.2.3 | R6 | 2.4.0 |
| randomForest (algorithme d'apprentissage automatique) | 4.6-14 | rappdirs | 0.3.1 | rcmdcheck | 1.3.2 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.0 | RcppEigen | 0.3.3.5.0 |
| RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | readr | 1.3.1 |
| readxl | 1.3.0 | recettes | 0.1.4 | match retour | 1.0.1 |
| Télécommandes | 2.0.2 | remodeler2 | 1.4.3 | rivière | 0.5.16 |
| rlang | 0.3.1 | RODBC | 1.3-15 | roxygen2 | 6.1.1 |
| rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.8-6 |
| RSQLite | 2.1.1 | rstudioapi | 0.9.0 | écailles | 1.0.0 |
| informations de session | 1.1.1 | Sp | 1.3-1 | sparklyr | 1.0.0 |
| SparkR | 2.4.2 | ÉparseM | 1.77 | spatial | 7.3-11 |
| Cannelures | 3.5.2 | sqldf | 0.4-11 | SQUAREM | 2017.10-1 |
| statmod | 1.4.30 | statistiques | 3.5.2 | statistiques4 | 3.5.2 |
| chaine | 1.3.1 | stringr | 1.4.0 | survie | 2.43-3 |
| sys | 3.0 | tcltk | 3.5.2 | Démos Pédagogiques | 2,10 |
| testthat | 2.0.1 | tibble | 2.0.1 | tidyr | 0.8.3 |
| tidyselect | 0.2.5 | date-heure | 3043.102 | outils | 3.5.2 |
| Utilise ça | 1.4.0 | utf8 | 1.1.4 | utils | 3.5.2 |
| viridisLite | 0.3.0 | vibrisse | 0,3-2 | flétrir | 2.1.2 |
| xml2 | 1.2.0 | xopen | 1.0.0 | yaml | 2.2.0 |
| fermeture éclair | 2.0.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.11)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.8.10 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr | 1.11.313 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.11.313 |
| com.amazonaws | aws-java-sdk-millisecondes | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts | 1.11.313 |
| com.amazonaws | Outil de support aws-java-sdk | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | flux | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.5.0-db8-spark2.4 |
| com.databricks | dbml-local_2.11-tests | 0.5.0-db8-spark2.4 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | camarade de classe | 1.0.0 |
| com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.2.8 |
| com.microsoft.azure | Azure Storage | 5.2.0 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.11 | 0,3 |
| com.twitter | chill-java | 0.9.3 |
| com.twitter | chill_2.11 | 0.9.3 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | univocity-analyseurs | 2.7.3 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1,10 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Digester | Commons-Digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | compresseur d'air | 0.10 |
| io.dropwizard.metrics | métriques de base | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | métriques-vérifications de santé | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metrics-json | 3.1.5 |
| io.dropwizard.metrics | metrics-jvm | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | servlets de métriques | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | collectionneur | 0,7 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1,2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-suppléments | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-propriétés | 1.1.5 |
| net.razorvine | pyrolite (roche pyrolitique) | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.5 |
| net.snowflake | snowflake-jdbc | 3.6.15 |
| net.snowflake | spark-snowflake_2.11 | 2.4.10-spark_2.4 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4,7 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 0.10.0 |
| org.apache.arrow | mémoire-flèche | 0.10.0 |
| org.apache.arrow | vecteur-flèche | 0.10.0 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.calcite | calcite-avatica | 1.2.0-incubating |
| org.apache.calcite | noyau de calcite | 1.2.0-incubating |
| org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3,5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | curateur-client | 2.7.1 |
| org.apache.curator | curateur-framework | 2.7.1 |
| org.apache.curator | curateur-recettes | 2.7.1 |
| org.apache.derby | derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop annotations | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-client | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | hadoop-hdfs | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0-incubant |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | lierre | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.5.2 |
| org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
| org.apache.orc | orc-shims | 1.5.2 |
| org.apache.parquet | colonne de parquet | 1.10.1.1-databricks3 |
| org.apache.parquet | parquet-common | 1.10.1.1-databricks3 |
| org.apache.parquet | encodage parquet | 1.10.1.1-databricks3 |
| org.apache.parquet | parquet-format | 2.4.0 |
| org.apache.parquet | parquet-hadoop | 1.10.1.1-databricks3 |
| org.apache.parquet | parquet-jackson | 1.10.1.1-databricks3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm6-shaded | 4.8 |
| org.apache.zookeeper | gardien de zoo | 3.4.6 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.10 |
| org.codehaus.janino | janino | 3.0.10 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.3.20.v20170531 |
| org.eclipse.jetty | serveur Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-goyva | 2.22.2 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | jersey-commun | 2.22.2 |
| org.glassfish.jersey.core | jersey-server | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | hibernate-validateator | 5.1.1.Final |
| org.iq80.snappy | Snappy | 0.2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.joddd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.5.3 |
| org.json4s | json4s-core_2.11 | 3.5.3 |
| org.json4s | json4s-jackson_2.11 | 3.5.3 |
| org.json4s | json4s-scalap_2.11 | 3.5.3 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.12 |
| org.scala-lang | scala-library_2.11 | 2.11.12 |
| org.scala-lang | scala-reflect_2.11 | 2.11.12 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.1.0 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalactic | scalactic_2.11 | 3.0.3 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 3.0.3 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
| org.spark-project.spark.spark | inutilisé | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core | 4.1.4.RELEASE |
| org.springframework | test du printemps | 4.1.4.RELEASE |
| org.tukaani | xz | 1,5 |
| org.typelevel | machiniste_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.1 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0.52 |