Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 10.3 et Databricks Runtime 10.3 Photon, avec Apache Spark 3.2.1. Photon est en préversion publique. Databricks a publié cette version en février 2022.
Améliorations et nouvelles fonctionnalités
- Les enregistreurs parquet et Avro utilisent désormais le fuseau horaire de session lors de la relocalisation des horodateurs dans les sources de données parquet
- Nouvelles fonctions dans Spark SQL
- Une fusion faible en mélange aléatoire est désormais disponible en général
- nouvelles fonctionnalités de COPY INTO : mode de validation et évolution du schéma
- Les colonnes d’identité sont désormais prises en charge dans les tables Delta (préversion publique)
Les enregistreurs Parquet et Avro utilisent désormais le fuseau horaire de session lors de la relocalisation des horodateurs dans les sources de données Parquet
Les enregistreurs parquet et Avro utilisent désormais le fuseau horaire de session lors de la relocalisation en mode legacy horodateur au lieu d’utiliser le fuseau horaire JVM par défaut. Par défaut, le fuseau horaire de la session est défini sur le fuseau horaire de JVM.
Nouvelles fonctions dans Spark SQL
Les fonctions Spark SQL suivantes sont désormais prises en charge :
- aes_decrypt: déchiffre les entrées à l’aide d’AES.
- aes_encrypt: chiffre les entrées à l’aide de l’algorithme AES.
- Contains: détermine si une expression contient une autre expression.
- EndsWith: détermine si une expression se termine par une autre expression.
- percentile_cont: retourne une valeur de centile.
- startswith: détermine si une expression débute par une autre expression.
La fusion de l'aléa faible est maintenant disponible en général
La commande Delta MERGE INTO utilise une technique appelée fusion faible aléatoire, qui réduit la permutation des lignes non modifiées. Cela améliore les performances de la commande et permet de conserver le clustering existant sur la table, tel que l’ordre de plan. Cette fonctionnalité a été introduite dans Databricks Runtime 9,0 pour la version préliminaire publique et a maintenant atteint la disponibilité générale. Pour activer la fusion faible aléatoire, affectez à spark.databricks.delta.merge.enableLowShuffle la valeur true. Consultez Fusion faible et aléatoire sur Azure Databricks.
Nouvelles fonctionnalités de COPY INTO : mode de validation et évolution du schéma
Mode de validation : COPY INTO prend désormais en charge un VALIDATE mode dans lequel les données à charger dans une table sont validées, mais ne sont pas écrites dans la table. Ces validations comprennent :
- Indique si les données peuvent être analysées.
- Indique si le schéma correspond à celui de la table ou si le schéma doit évoluer.
- Indique si toutes les contraintes d’acceptation de valeurs Null et de validation sont respectées.
Exemple d’utilisation :
COPY INTO <table>
FROM <path-to-files>
FILEFORMAT = <format>
VALIDATE [ALL | <num-rows> ROWS]
Par défaut, toutes les données à charger sont validées. Vous pouvez fournir un certain nombre de lignes à valider avec le mot cléROWS, par exemple VALIDATE 15 ROWS. L'instruction COPY INTO renvoie un aperçu des données de 50 lignes ou moins, lorsqu'un nombre inférieur à 50 est utilisé avec le mot clé ROWS).
Évolution du schéma : COPY INTO prend désormais en charge l’évolution du schéma avec l'option mergeSchema dans COPY_OPTIONS . Pour faire évoluer le schéma d'une table, vous devez avoir des autorisationsOWN sur cette table.
Exemple d’utilisation :
COPY INTO <table>
FROM <path-to-files>
FILEFORMAT = <format>
COPY_OPTIONS ('mergeSchema' = 'true')
Voir COPY INTO.
Les colonnes d’identité sont désormais prises en charge dans les tables Delta (préversion publique)
Delta Lake prend désormais en charge les colonnes d’identité. Lorsque vous écrivez dans une table Delta qui définit une colonne d’identité et que vous ne fournissez pas de valeurs pour cette colonne, Delta affecte désormais automatiquement une valeur unique et statistiquement croissante ou décroissante. Consultez CREATE TABLE [USING].
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- distlib de 0.3.3 à 0.3.4
- filelock de 3.4.0 vers 3.4.2
- numpy de 1.19.2 à 1.20.1
- plotly de 5.3.1 vers 5.5.0
- Bibliothèques R mises à niveau :
- ports de 1.4.0 à 1.4.1
- brio de 1.1.2 à 1.1.3
- broom de 0.7.10 à 0.7.11
- classe de 7.3-19 à 7.3-20
- cpp11 de 0.4.1 vers 0.4.2
- DBI de 1.1.1 à 1.1.2
- devtools de 2.4.2 à 2.4.3
- digest de 0.6.28 vers 0.6.29
- dtplyr de 1.1.0 à 1.2.0
- fansi de 0.5.0 à 1.0.2
- foreign de 0.8-81 à 0.8-82
- fs de 1.5.0 à 1.5.2
- gert de 1.4.3 à 1.5.0
- glue de 1.5.0 à 1.6.0
- httpuv de 1.6.3 à 1.6.5
- jsonlite de 1.7.2 à 1.7.3
- knitr de 1.36 vers 1.37
- MASS comprise entre 7.3-54 et 7.3-55
- Matrix de 1.3-4 à 1.4-0
- nlme de 3.1-152 à 3.1-155
- nnet de 7.3-16 à 7.3-17
- OpenSSL de 1.4.5 à 1.4.6
- parrallelly de 1.29.0 à 1.30.0
- pkgbuild de 1.2.0 à 1.3.1
- pkgload de 1.2.3 vers 1.2.4
- progressr de 0.9.0 vers 0.10.0
- Rcpp de 1.0.7 à 1.0.8
- readr de 2.1.0 vers 2.1.1
- remotes de 2.4.1 vers 2.4.2
- RSQLite de 2.2.8 à 2.2.9
- sessioninfo de 1.2.1 à 1.2.2
- sparklyr de 1.7.2 à 1.7.4
- testthat de 3.1.0 vers 3.1.1
- tinytex de 0.35 vers 0.36
- usethis de 2.1.3 vers 2.1.5
- vroom de 1.5.6 à 1.5.7
- withr de 2.4.2 à 2.4.3
- xfun de 0.28 vers 0.29
- xml2 de 1.3.2 à 1.3.3
- Bibliothèques Java mises à niveau :
- dev.ludovic.netlib.arpack de 1.3.2 à 2.2.1
- dev.ludovic.netlib.blas de 1.3.2 à 2.2.1
- dev.ludovic.netlib.lapack de 1.3.2 à 2.2.1
- io.delta.delta-sharing-spark_2.12 de 0.2.0 à 0.3.0
Apache Spark
Databricks Runtime 10.3 comprend Apache Spark 3.2.1. Cette version inclut tous les correctifs et améliorations Spark figurant dans Databricks Runtime 10.2 (EoS) ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-37896] [SQL] implémenter un ConstantColumnVector et améliorer les performances des métadonnées des fichiers masqués
- [SPARK-37924] [SQL] Trier les propriétés de table par clé dans SHOW CREATE TABLE sur VIEW (v1)
- [SPARK-37636] [SQL] Migrer Créer Espace de noms pour utiliser la commande V2 par défaut
- [SPARK-37381] [SQL] Tests Unify v1 et v2 SHOW CREATE TABLE
-
[SPARK-37876] [CORE][sql] Déplacer
SpecificParquetRecordReaderBase.listDirectoryversTestUtils - [Spark-37854] [Core] Remplacer la vérification de type par la correspondance de modèle dans le code Spark
- [Spark-36967] [Core] signale une taille de bloc de lecture aléatoire exacte s’il est décalé
- [SPARK-37864] [SQL] Prise en charge des valeurs booléennes en lecture vectorisée ; utilisation de l'encodage RLE avec Parquet DataPage V2
- [SPARK-37862] [SQL] RecordBinaryComparator doit rapidement ignorer la vérification de l’alignement avec la plateforme non alignée
- [SPARK-37855] [SQL] IllegalStateException lors de la transformation d’un tableau à l’intérieur d’une structure imbriquée
-
[SPARK-37858] [SQL] lever
SparkRuntimeExceptionavec les classes d’erreur à partir des fonctions AES - [SPARK-37841] [SQL] BasicWriteTaskStatsTracker ne doit pas essayer d’obtenir l’état d’un fichier ignoré
- [Spark-37860] [UI] corriger taskindex dans la chronologie de l’événement de tâche de page d’étape
- [SPARK-36879] [SQL] prend en charge l’encodage de page de données Parquet v2 (DELTA_BINARY_PACKED) pour le chemin vectorisé
- [SPARK-37828] [SQL] filtres Push dans RebalancePartitions
- [SPARK-37802] [SQL] [3,2] le nom de champ composite doit fonctionner avec l’agrégat push enfoncé
- [SPARK-37826] [SQL] utilisez le nom du codec zstd dans les noms de fichier ORC pour hive ORC impl
- [SPARK-37820] [SQL] remplacer ApacheCommonBase64 par JavaBase64 pour les funcs de chaîne
- [SPARK-37832] [SQL] le convertisseur de struct Orc doit utiliser un tableau pour rechercher des convertisseurs de champ plutôt qu’une liste liée
- [SPARK-37786] [ SQL] Support de StreamingQueryListener à l’aide de SQLConf.get pour obtenir le SQLConf du SessionState correspondant
- [SPARK-37527] [SQL] traduisez d’autres fonctions d’agrégation standard pour la poussée
- [SPARK-37777] [SQL] Mettez à jour la syntaxe SQL de SHOW FUNCTIONS
- [Spark-8582] [Core] point de contrôle de manière dynamique lorsqu’il lui est demandé de le faire pour les véritables
- [SPARK-37822] [SQL] StringSplit doit retourner un tableau sur les éléments non null
- [SPARK-37812] [SQL] lors de la désérialisation d’un struct Orc, réutilisez la ligne de résultats lorsque cela est possible
- [SPARK-37367] [SQL] réactiver le test d’exception dans DDLParserSuite. create view – de base
- [SPARK-37796] [SQL] ByteArrayMethods arrayEquals doit rapidement ignorer la vérification de l’alignement avec la plateforme non alignée
- [SPARK-37817] [SQL][mineur] Supprimer le code inaccessible dans complexTypeExtractors.scala
- [SPARK-37807] [SQL] résoudre une faute de frappe dans le message HttpAuthenticationException
- [SPARK-37750] [SQL] mode ANSI : retourne éventuellement un résultat null si l’élément n’existe pas dans le tableau/le mappage
- [SPARK-37789] [SQL] ajoutez une classe pour représenter les fonctions d’agrégation générales dans DS V2
- [SPARK-37785] [SQL][core] Add Utils.isInRunningSparkTask
- [SPARK-37780] [SQL] Ajouter la prise en charge de QueryExecutionListener en utilisant SQLConf.get pour obtenir le SQLConf correspondant de SessionState
- [SPARK-37783] [SS][sql][CORE] Activer la récursion terminale dans la mesure du possible
- [SPARK-37726] [SQL] ajouter des métriques de taille de débordement pour trier la jointure de fusion
- [SPARK-37800] [SQL] TreeNode. argString formate de manière incorrecte les arguments de type Set [_]
- [SPARK-37716] [SQL] améliorer les messages d’erreur lorsqu’un LateralJoin a des expressions non déterministes
- [SPARK-37779] [SQL] rendre ColumnarToRowExec plan canonicalizable après (de) sérialisation
- [SPARK-37578] [SQL] mettre à jour les métriques de tâche à partir des métriques personnalisées ds v2
- [SPARK-37676] [SQL] prend en charge la fonction d’agrégation ANSI : percentile_cont
- [SPARK-37724] [SQL] mode ansi : désactiver les mots clés réservés ANSI par défaut
- [SPARK-37705] [SQL] [3,2] rebaser les horodateurs dans le fuseau horaire de session enregistré dans les métadonnées Parquet/Avro
- [SPARK-34755] [SQL] prend en charge les utils pour le format de numéro de transformation
- [SPARK-36703] [SQL] supprime le tri s’il s’agit de l’enfant de RepartitionByExpression
- [SPARK-37369] [SQL] évitez la transition redondante ColumnarToRow sur InMemoryTableScan
- [SPARK-37450] [SQL] élaguer les champs inutiles de la génération
- [SPARK-37728] [SQL] la lecture de colonnes imbriquées avec un lecteur ORC vectorisé peut provoquer la ArrayIndexOutOfBoundsException
- [SPARK-37564] [SQL] ajouter du code-gen pour trier l’agrégat sans regrouper les clés
- [Spark-37659] [UI] [3.2] Correction de la condition de concurrence FsHistoryProvider entre la liste et les informations du journal delet
- [SPARK-37727] [SQL] Afficher les configurations ignorées et masquer les avertissements pour les configurations déjà définies dans SparkSession.builder.getOrCreate
- [SPARK-37391] [SQL] JdbcConnectionProvider indique si le contexte de sécurité est modifié
- [spark-37273] [SQL] prend en charge les colonnes de métadonnées de fichier caché dans SPARK SQL
- [SPARK-36876] [SQL] prend en charge le nettoyage de Partition dynamique pour HiveTableScanExec
- [SPARK-37546] [SQL] V2 la commande ReplaceTableAsSelect doit qualifier l’emplacement
- [SPARK-37545] [SQL] V2 la commande ReplaceTableAsSelect doit qualifier l’emplacement
- [SPARK-37707] [SQL] autorise l’attribution de magasin et le cast implicite entre les types datetime
- [SPARK-37644] [SQL] prend en charge la fonction d’agrégation de la source v2 complète
- [SPARK-37695] [CORE][shuffle] Ignorer l'analyse des blocs fusionnés de shuffle basé sur push
- [SPARK-35295] [ML] remplacez entièrement com. github. fommil. netlib par dev. ludovic. netlib : 2.0
- [spark-37694] [SQL] interdire la suppression de ressources dans l’interface cli SQL SPARK
- [SPARK-37330] [SQL] migrer ReplaceTableStatement vers la commande v2
- [SPARK-27974] [SQL] prend en charge la fonction d’agrégation ANSI : array_agg
- [SPARK-36902] [SQL] migrer CreateTableAsSelectStatement vers la commande v2
- [SPARK-37678] [PYTHON] Corriger la signature de _cleanup_and_return
- [SPARK-37613] [SQL] prend en charge la fonction d’agrégation ANSI : regr_count
- [SPARK-37689] [SQL] le développement doit être pris en charge dans PropagateEmptyRelation
- [SPARK-37654] [SQL] corriger le NPE dans Row. getSeq quand field a la valeur Null
- [SPARK-37496] [SQL] migrer ReplaceTableAsSelectStatement vers la commande v2
- [SPARK-37483] [SQL] prise en charge push des N premiers vers la source de données JDBC V2
- [SPARK-37577][SQL] Correction de ClassCastException : ArrayType ne peut pas être converti en StructType pour Générer le nettoyage
- [SPARK-37310] [SQL] migrer l’espace de noms ALTER... SET PROPERTIES pour utiliser la commande V2 par défaut
- [SPARK-37501] [SQL] CREATE/REPLACE TABLE doit qualifier l’emplacement de la commande v2
- [SPARK-37343] [SQL] implémentation de createIndex, IndexExists et dropIndex dans JDBC (dialecte postgres)
- [Spark-37060] [Core] [3.2] gérer la réponse de l’état du pilote à partir des réplicas de sauvegarde
- [SPARK-37629] [SQL] accélérer l’Expression.canonicalization
- [SPARK-37633] [SQL] la conversion sans encapsuler doit ignorer si le downcast a échoué avec un...
- [SPARK-37631] [SQL] nettoyage du Code sur la promotion des chaînes en type double dans les fonctions mathématiques
- [SPARK-37569] [ SQL] Ne marquez pas les champs d’affichage imbriqués comme nullables
- [SPARK-37557] [SQL] remplacer le hachage de l’objet par l’agrégat de tri si l’enfant est déjà trié
- [SPARK-36850] [SQL] Migrer CreateTableStatement vers le framework de commande v2
-
[SPARK-37592] [SQL] améliorer les performances de
JoinSelection - [SPARK-37217] [SQL] le nombre de partitions dynamiques doit être vérifié tôt lors de l’écriture dans des tables externes
- [SPARK-37584] [SQL] nouvelle fonction SQL : map_contains_key
- [SPARK-37455] [SQL] remplacer le hachage de l’objet par l’agrégat de tri si l’enfant est déjà trié
- [SPARK-34735] [SQL][ui] Ajouter des configurations modifiées pour l’exécution de SQL dans l’interface utilisateur
- [SPARK-37540] [SQL] détecter des voyages de temps plus non pris en charge
- [SPARK-37376] [SQL] introduire une nouvelle interface DataSource V2 HasPartitionKey
-
[SPARK-37666] [SQL] défini
GCMcomme mode par défaut dansaes_encrypt()/aes_decrypt() - [SPARK-37573] [SQL] IsolatedClientLoader doit revenir à la version associée, pas toujours hadoop-2.7.4
- [SPARK-37561] [SQL] Éviter de charger toutes les fonctions lors de l’obtention du DelegationToken de Hive
- [SPARK-37370] [SQL] ajoutez des configurations SQL pour contrôler la génération de code de jointure récemment ajoutée 3,3
- [SPARK-37311] [SQL] migrer l’espace de noms ALTER... SET LOCATION pour utiliser la commande V2 par défaut
- [SPARK-37192] [SQL] Migrer SHOW TBLPROPERTIES pour utiliser la commande V2 par défaut
- [SPARK-37219] [SQL] ajouter à la prise en charge de la syntaxe
- [SPARK-37316] [SQL] ajouter code-génération pour la jointure de fusion de tri de l’existence
-
[SPARK-37591] [SQL] prend en charge le mode GCM par
aes_encrypt()/aes_decrypt() -
[SPARK-37586] [SQL] ajoutez les arguments
modeetpaddingàaes_encrypt()/aes_decrypt() - [SPARK-12567] [SQL] ajouter des fonctions intégrées aes_encrypt et aes_decrypt
- [SPARK-37392] [SQL] corriger le bogue de performance lors de l’inférence de contraintes pour la génération
- [SPARK-37481] [Core][webui] Correction de la disparition des étapes ignorées après une nouvelle tentative
- [SPARK-37533] [SQL] nouvelle fonction SQL : try_element_at
- [SPARK-37451] [SQL] correction du type de chaîne de conversion en type décimal si SPARK. SQL. legacy. allowNegativeScaleOfDecimal est activé
- [Spark-37062] [SS] introduisez une nouvelle source de données pour fournir un ensemble cohérent de lignes par microlot
-
[SPARK-37552] [SQL] Ajout de la fonction
convert_timezone() - [spark-37555] [SQL] SPARK-SQL doit transmettre le dernier commentaire non fermé au backend
- [SPARK-37286] [SQL] déplacer compileAggregates à partir de JDBCRDD vers JdbcDialect
-
[SPARK-37485] [CORE][sql] Remplacer
mappar des expressions qui ne produisent aucun résultatforeach - [SPARK-37556] [SQL] Deser void class échoue avec la sérialisation Java
-
[SPARK-37520] [SQL] ajoutez les
startswith()endswith()fonctions de chaîne et -
[spark-37471] [SQL] SPARK-SQL prise en charge
;dans un commentaire entre crochets imbriqués - [SPARK-37360] [SQL] prend en charge TimestampNTZ dans la source de données JSON
- [SPARK-37508] [SQL] Add contains () string (fonction)
-
[SPARK-37494] [SQL] unification des options v1 et v2 sortie de la commande
SHOW CREATE TABLE - [SPARK-37524] [SQL] nous devrions supprimer toutes les tables après avoir testé le nettoyage de la partition dynamique.
- [SPARK-37389] [SQL] vérifier les commentaires entre crochets non fermés
- [SPARK-37220] [SQL] ne pas fractionner le fichier d’entrée pour le lecteur Parquet avec la poussée de l’agrégat
- [SPARK-37326] [SQL] prend en charge TimestampNTZ dans la source de données CSV
- [SPARK-35867] [SQL] activer la lecture vectorielle pour VectorizedPlainValuesReader. readBooleans
-
[SPARK-37484] [CORE][sql] Remplacer
getetgetOrElsepargetOrElse - [SPARK-37492] [SQL] optimiser le code de test Orc avec withAllNativeOrcReaders
- [Spark-37458] [SS] supprimer les SerializeFromObject inutiles du plan de foreachBatch
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 10.3.
Environnement du système
- Système d’exploitation : Ubuntu 20.04.3 LTS
- Java : Zulu 8.56.0.21-CA-linux64
- Scala : 2.12.14
- Python : 3.8.10
- R : 4.1.2
- Delta Lake : 1.1.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| Antergos Linux | 2015,10 (ISO-Rolling) | appdirs | 1.4.4 | cfp2-cffi | 20.1.0 |
| générateur asynchrone | 1,10 | attributs | 20.3.0 | appel de retour | 0.2.0 |
| bidict | 0.21.4 | blanchir | 3.3.0 | boto3 | 1.16.7 |
| botocore | 1.19.7 | certifi | 2020.12.5 | cffi | 1.14.5 |
| chardet | 4.0.0 | cycliste | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | décorateur | 5.0.6 | defusedxml | 0.7.1 |
| distlib | 0.3.4 | distro-infos | 0.23ubuntu1 | points d’entrée | 0,3 |
| aperçu des facettes | 1.0.0 | verrou de fichier | 3.4.2 | idna | 2.10 |
| ipykernel | 5.3.4 | ipython | 7.22.0 | ipython-genutils | 0.2.0 |
| ipywidgets (un outil de widgets interactifs pour Python) | 7.6.3 | Jedi | 0.17.2 | Jinja2 | 2.11.3 |
| jmespath | 0.10.0 | joblib | 1.0.1 | jsonschema | 3.2.0 |
| jupyter-client | 6.1.12 | jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 | kiwisolver | 1.3.1 | Koalas | 1.8.2 |
| MarkupSafe | 2.0.1 | matplotlib | 3.4.2 | désaccorder | 0.8.4 |
| nbclient | 0.5.3 | nbconvert | 6.0.7 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | carnet de notes | 6.3.0 | numpy | 1.20.1 |
| empaquetage | 20.9 | Pandas | 1.2.4 | pandocfilters | 1.4.3 |
| parso | 0.7.0 | dupe | 0.5.1 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Oreiller | 8.2.0 | pépin | 21.0.1 |
| tracé | 5.5.0 | prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 |
| protobuf | 3.17.2 | psycopg2 | 2.8.5 | ptyprocess | 0.7.0 |
| pyarrow | 4.0.0 | pycparser | 2.20 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | pyparsing | 2.4.7 | pyrsistent | 0.17.3 |
| python-apt | 2.0.0+ubuntu0.20.4.6 | python-dateutil | 2.8.1 | python-engineio | 4.3.0 |
| python-socketio | 5.4.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
| requêtes | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn | 0.24.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.6.2 | seaborn | 0.11.1 |
| Send2Trash | 1.5.0 | setuptools | 52.0.0 | Six | 1.15.0 |
| ssh-import-id | 5.10 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.12.2 | ténacité | 8.0.1 |
| terminé | 0.9.4 | chemin de test | 0.4.4 | threadpoolctl | 2.1.0 |
| tornade | 6.1 | Traitlets | 5.0.5 | mises à niveau automatiques | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| webencodings | 0.5.1 | roue | 0.36.2 | widgetsnbextension | 3.5.1 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané Microsoft CRAN du 19/01/2022.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| Askpass | 1.1 | assertthat | 0.2.1 | rétroportage | 1.4.1 |
| base | 4.1.2 | base64enc | 0.1-3 | morceau | 4.0.4 |
| bit 64 | 4.0.5 | objet BLOB | 1.2.2 | botte | 1.3-28 |
| brasser | 1.0-6 | brio | 1.1.3 | balai | 0.7.11 |
| bslib | 0.3.1 | cachemire | 1.0.6 | appelant | 3.7.0 |
| caret | 6.0-90 | cellranger | 1.1.0 | Chron | 2.3-56 |
| classe | 7.3-20 | Cli | 3.1.0 | Presse-papiers | 0.7.1 |
| Grappe | 2.1.2 | codetools | 0.2-18 | espace colorimétrique | 2.0-2 |
| commonmark | 1.7 | compilateur | 4.1.2 | Configuration | 0.3.1 |
| cpp11 | 0.4.2 | pastel | 1.4.2 | Références | 1.3.2 |
| friser | 4.3.2 | data.table | 1.14.2 | jeux de données | 4.1.2 |
| DBI | 1.1.2 | dbplyr | 2.1.1 | Desc | 1.4.0 |
| devtools | 2.4.3 | diffobj | 0.3.5 | digérer | 0.6.29 |
| dplyr | 1.0.7 | dtplyr | 1.2.0 | e1071 | 1.7-9 |
| ellipse | 0.3.2 | évaluer | 0.14 | fans | 1.0.2 |
| couleurs | 2.1.0 | carte rapide | 1.1.0 | fontawesome | 0.2.2 |
| condamnés | 0.5.1 | foreach | 1.5.1 | étranger | 0.8-82 |
| forger | 0.2.0 | Fs | 1.5.2 | futur | 1.23.0 |
| future.apply | 1.8.1 | se gargariser | 1.2.0 | produits génériques | 0.1.1 |
| Gert | 1.5.0 | ggplot2 | 3.3.5 | Gh | 1.3.0 |
| gitcreds | 0.1.1 | glmnet | 4.1-3 | globales | 0.14.0 |
| colle | 1.6.0 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
| Gower | 0.2.2 | graphisme | 4.1.2 | grDevices | 4.1.2 |
| grille | 4.1.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gt ;pouvant être | 0.3.0 | havre | 2.4.3 | supérieur | 0.9 |
| Hms | 1.1.1 | outils HTML | 0.5.2 | htmlwidgets | 1.5.4 |
| httpuv | 1.6.5 | httr | 1.4.2 | hwriter | 1.3.2 |
| hwriterPlus | 1.0-3 | Id | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-12 | isoband | 0.2.5 | itérateurs | 1.0.13 |
| jquerylib | 0.1.4 | jsonlite | 1.7.3 | KernSmooth | 2,23-20 |
| knitr | 1,37 | étiquetage | 0.4.2 | plus tard | 1.3.0 |
| treillis | 0.20-45 | lave | 1.6.10 | cycle de vie | 1.0.1 |
| listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.1 |
| Markdown | 1.1 | MASSE | 7.3-55 | Matrice | 1.4-0 |
| mémorisation | 2.0.1 | méthodes | 4.1.2 | mgcv | 1.8-38 |
| mime | 0,12 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.8 |
| munsell | 0.5.0 | nlme | 3.1-155 | nnet | 7.3-17 |
| numDeriv | 2016.8-1.1 | openssl | 1.4.6 | parallèle | 4.1.2 |
| parallèlement | 1.30.0 | pilier | 1.6.4 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgload | 1.2.4 | plogr | 0.2.0 |
| plyr (un package logiciel pour le traitement de données) | 1.8.6 | éloge | 1.0.0 | joliesunits | 1.1.1 |
| Proc | 1.18.0 | processx | 3.5.2 | prodlim | 2019.11.13 |
| progrès | 1.2.2 | progresseur | 0.10.0 | promesses | 1.2.0.1 |
| proto | 1.0.0 | mandataire | 0.4-26 | p.s. | 1.6.0 |
| purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| randomForest (algorithme d'apprentissage automatique) | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.8 | RcppEigen | 0.3.3.9.1 |
| readr | 2.1.1 | readxl | 1.3.1 | recettes | 0.1.17 |
| match retour | 1.0.1 | revanche2 | 2.1.2 | Télécommandes | 2.4.2 |
| exemple reproductible | 2.0.1 | remodeler2 | 1.4.4 | rlang | 0.4.12 |
| rmarkdown | 2,11 | RODBC | 1.3-19 | roxygen2 | 7.1.2 |
| rpart | 4.1-15 | rprojroot | 2.0.2 | Rserve | 1.8-10 |
| RSQLite | 2.2.9 | rstudioapi | 0,13 | rversions | 2.1.1 |
| rvest | 1.0.2 | Sass | 0.4.0 | écailles | 1.1.1 |
| sélecteur | 0,4-2 | informations sur la session | 1.2.2 | forme | 1.4.6 |
| brillant | 1.7.1 | sourcetools | 0.1.7 | sparklyr | 1.7.4 |
| SparkR | 3.2.0 | spatial | 7.3-11 | Cannelures | 4.1.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiques | 4.1.2 |
| statistiques4 | 4.1.2 | chaine | 1.7.6 | stringr | 1.4.0 |
| survie | 3.2-13 | sys | 3.4 | tcltk | 4.1.2 |
| Démos Pédagogiques | 2.10 | testthat | 3.1.1 | tibble | 3.1.6 |
| tidyr | 1.1.4 | tidyselect | 1.1.1 | tidyverse | 1.3.1 |
| date-heure | 3043.102 | tinytex | 0,36 | outils | 4.1.2 |
| tzdb | 0.2.0 | Utilise ça | 2.1.5 | utf8 | 1.2.2 |
| utils | 4.1.2 | Identifiant unique universel (UUID) | 1.0-3 | vctrs | 0.3.8 |
| viridisLite | 0.4.0 | Vroom | 1.5.7 | Waldo | 0.3.1 |
| vibrisse | 0,4 | flétrir | 2.4.3 | xfun | 0,29 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.2.1 | fermeture éclair | 2.2.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.11.655 |
| com.amazonaws | aws-java-sdk-millisecondes | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | Outil de support aws-java-sdk | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | flux | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.12.3 |
| com.fasterxml.jackson.core | jackson-core | 2.12.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.3 |
| com.github.ben-manes.caféine | caféine | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Configuration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.3.0 |
| io.dropwizard.metrics | métriques de base | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | servlets de métriques | 4.1.1 |
| io.netty | netty-all | 4.1.68.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collecteur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.10 |
| log4j | apache-log4j-suppléments | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pyrolite (roche pyrolitique) | 4 h 30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.3 |
| net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 2.0.0 |
| org.apache.arrow | arrow-memory-core | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | vecteur-flèche | 2.0.0 |
| org.apache.avro | Avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | texte commun | 1.6 |
| org.apache.curator | curateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur-recettes | 2.13.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.1 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.9 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-en incubation |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | lierre | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.12 |
| org.apache.orc | orc-mapreduce | 1.6.12 |
| org.apache.orc | orc-shims | 1.6.12 |
| org.apache.parquet | colonne de parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
| org.apache.parquet | encodage parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | structures-de-format-parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,20 |
| org.apache.yetus | annotations du public | 0.5.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-continuation | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-http | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-io | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-plus | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-proxy | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.43.v20210629 |
| org.eclipse.jetty | serveur jetty | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlet | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlets | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-webapp | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.43.v20210629 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-client | 2,34 |
| org.glassfish.jersey.core | jersey-commun | 2,34 |
| org.glassfish.jersey.core | jersey-server | 2,34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
| org.hibernate.validator | hibernate-validateator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.joddd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | Cales | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,2 |
| org.scalanlp | breeze_2.12 | 1,2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark.spark | inutilisé | 1.0.0 |
| org.springframework | spring-core | 4.1.4.RELEASE |
| org.springframework | test de printemps | 4.1.4.RELEASE |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | chats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly.openssl | 1.0.7.Version Finale |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |