Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Note
La prise en charge de cette version de Databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour connaître toutes les versions de Databricks Runtime prises en charge, consultez les notes de versions et de compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 15.1 optimisé par Apache Spark 3.5.0.
Databricks a publié cette version en avril 2024.
Changements cassants
La prise en charge de Databricks Runtime 15.0 et de Databricks Runtime 15.0 for Machine Learning prendra fin le 31 mai 2024, car une mise à niveau de la bibliothèque pandas 1.5.3 vers 2.0.3 dans la version 15.0 a provoqué un changement non rétrocompatible dans plusieurs API Apache Spark. Pour plus d’informations sur les changements non rétrocompatibles, consultez La bibliothèque Python pandas repasse à la version 1.5.3. Pour résoudre cette incompatibilité, Databricks a publié Databricks Runtime 15.1 et Databricks Runtime 15.1 for Machine Learning. Les fonctionnalités prises en charge par ces versions sont les mêmes que celles des versions 15.0, mais pandas est repassé à la version 1.5.3.
Les clusters ou travaux qui utilisent les versions 15.0 de Databricks Runtime continueront de fonctionner, mais ne recevront aucune mise à jour de produit ni aucun correctif de sécurité. Vous ne pouvez plus configurer un nouveau calcul qui utilise Databricks Runtime 15.0 ou Databricks Runtime 15.0 ML dans l’interface utilisateur Databricks. Si vous n’utilisez pas de fonctionnalités ni d’API nécessitant pandas 2.0 ou versions ultérieures, Databricks vous recommande de basculer ces charges de travail vers Databricks Runtime 15.1.
Si vous utilisez des fonctionnalités ou des API disponibles uniquement dans pandas 2.0 ou versions ultérieures et que vous n’utilisez aucune fonction affectée par cette version, Databricks vous recommande de passer à Databricks Runtime 15.1 et de mettre à niveau le package pandas par défaut à l’aide des bibliothèques de cluster ou délimitées aux notebooks. Par exemple, pour mettre à niveau la bibliothèque pandas dans un notebook Databricks, utilisez la commande suivante :
%pip install pandas==2.0.3
La bibliothèque Python pandas repasse à la version 1.5.3
Dans cette version, la bibliothèque pandas passe de la version 2.0.3 à la version 1.5.3. Cette restauration d’une version antérieure était nécessaire, car des incompatibilités dans la version 2.0.3 de pandas provoquaient des erreurs dans certaines API pandas sur des fonctions Spark. Voici la liste des fonctions affectées par la version 2.0.3 de pandas :
-
pyspark.date_range: le paramètreclosedest manquant, provoquant des erreurs lorsque cette fonction est appelée par du code existant. - La fonctionnalité de
GroupByavec des colonnesMultiIndexest modifiée, provoquant un comportement inattendu. - Certains attributs
datetimedeDatetimeIndex(par exempleday,month,year, etc.) renvoient des types de donnéesint32au lieu de types de donnéesint64.
La fonction PySpark spark.sql() échoue désormais en raison de types d’arguments non valides
Dans Databricks Runtime 15.1 et versions ultérieures, le paramètre args pour les paramètres nommés ou positionnels transmis à la fonction spark.sql() doit être un dictionnaire ou une liste. Si un autre type d’objet est transmis, l’erreur suivante est générée : PySparkTypeError: [INVALID_TYPE] Argument `args` should not be a <arg_type>.
Le stockage des bibliothèques à la racine de DBFS est obsolète et désactivé par défaut.
Pour améliorer la sécurité des bibliothèques dans un espace de travail Azure Databricks, le stockage des fichiers de bibliothèque à la racine de DBFS est obsolète et désactivé par défaut dans Databricks Runtime 15.1 et les versions suivantes. Databricks recommande de charger toutes les bibliothèques, y compris les bibliothèques Python, les fichiers JAR et les connecteurs Spark, dans les fichiers de l’espace de travail, les volumes Unity Catalog, ou d’utiliser un référentiel de packages. Consultez Recommandations relatives au chargement des bibliothèques.
Pour réactiver le stockage des bibliothèques à la racine DBFS, définissez le paramètre de configuration Spark suivant : spark.databricks.driver.dbfsLibraryInstallationAllowed true.
La version Python par défaut est mise à niveau de la version 3.10 vers la version 3.11
Avec Databricks Runtime 15.1, la version Python par défaut est la version 3.11.0. Pour obtenir la liste des bibliothèques Python mises à niveau, consultez Mises à niveau des bibliothèques.
JDK 11 est supprimé.
Comme précédemment annoncé, JDK 11 est supprimé de Databricks Runtime 15.1 et versions ultérieures. Databricks recommande la mise à niveau vers JDK 17 lors de la mise à niveau vers Databricks Runtime 15.1 et versions ultérieures. Consultez le kit de développement logiciel (SDK) Databricks pour Java.
Le REPL Python se termine maintenant correctement.
Avec Databricks Runtime 15.1, le processus PYTHON REPL du notebook se termine normalement à la sortie. Ceci fait que les hooks atexit sont respectés. Par exemple, dans un workflow comportant plusieurs tâches de notebook Python, les hooks atexit inscrits dans la première tâche s’exécutent avant l’exécution de la deuxième tâche de notebook Python.
Améliorations et nouvelles fonctionnalités
- La clause * (étoile) est désormais prise en charge dans la WHERE clause
-
La configuration
spark.sql.json.enablePartialResultsest désormais activée par défaut. - Les bibliothèques de cluster prennent désormais en charge les fichiers requirements.txt.
- L’interface CLI Databricks est désormais disponible dans le terminal web.
- Ajout de référentiels Python par défaut aux configurations de cluster
- Terminal web disponible sur les clusters standard
- Le transfert d’informations d’identification et les contrôles d’accès aux tables du metastore Hive sont obsolètes
La clause * (étoile) est désormais prise en charge dans la WHERE clause
Vous pouvez maintenant utiliser la clause étoile (*) dans la clause WHERE pour référencer toutes les colonnes de la liste SELECT.
Par exemple : SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*).
La configuration spark.sql.json.enablePartialResults est désormais activée par défaut.
La configuration Spark spark.sql.json.enablePartialResults est désormais activée par défaut, ce qui permet à l’analyseur JSON de gérer correctement les erreurs d’analyse pour les types complexes comme struct, map et array sans supprimer les champs restants. Cette modification résout un problème de cohérence pour les sources de données JSON avec le nettoyage des colonnes.
Les bibliothèques de cluster prennent désormais en charge les fichiers requirements.txt.
Vous pouvez désormais installer des bibliothèques de cluster en utilisant un fichier requirements.txt stocké dans un fichier d’espace de travail ou un volume Unity Catalog. Dans les clusters en mode d’accès Dédié et Standard , le requirements.txt fichier peut référencer d’autres fichiers. Dans les clusters en mode d’accès Aucune isolation partagée, seuls les packages PyPI sont pris en charge. Consultez les bibliothèques délimitées par le calcul.
L’interface CLI Databricks est désormais disponible dans le terminal web.
Vous pouvez désormais utiliser l’interface CLI Databricks à partir du terminal web dans le notebook. Le bloc-notes doit être attaché à un cluster en mode d’accès partagé dédié ou sans isolation . Pour plus d’informations, consultez Utiliser le terminal web et l’interface CLI Databricks.
Ajout de référentiels Python par défaut aux configurations de cluster
Dans Databricks Runtime 15.1 et ultérieur, vous pouvez configurer des paramètres globaux pip index-url et extra-index-url pour l’installation d’une bibliothèque au niveau du cluster et du notebook lors de la configuration d’un cluster ou de la définition d’une stratégie de cluster. Pour ce faire, définissez les variables d’environnement DATABRICKS_PIP_INDEX_URL et DATABRICKS_PIP_EXTRA_INDEX_URL.
Terminal web disponible sur les clusters standard
Dans Databricks Runtime 15.1 et versions ultérieures, vous pouvez utiliser un terminal web sur des clusters en mode d’accès Standard .
Le transfert d’informations d’identification et les contrôles d’accès aux tables du metastore Hive sont obsolètes
Le transfert des informations d’identification et les contrôles d’accès aux tables du metastore Hive sont des modèles de gouvernance des données hérités. Passez à Unity Catalog pour simplifier la sécurité et la gouvernance de vos données grâce à un point centralisé de gestion et d’audit de l’accès aux données sur plusieurs espaces de travail de votre compte. Consultez Qu’est-ce que Unity Catalog ?.
La prise en charge du transfert d’informations d’identification et des contrôles d’accès aux tables du metastore Hive sera supprimée dans une future version de DBR.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- black de la version 22.6.0 à la version 23.3.0
- boto3 de 1.24.28 à 1.34.39
- botocore de 1.27.96 à 1.34.39
- certifi de 2022.12.7 à 2023.7.22
- chiffrement de la version 39.0.1 à la version 41.0.3
- databricks-sdk de la version 0.1.6 à la version 0.20.0
- distlib de la version 0.3.7 vers la version 0.3.8
- googleapis-common-protos de la version 1.62.0 à la version 1.63.0
- grpcio de la version 1.48.2 vers la version 1.60.0
- grpcio-status de la version 1.48.1 vers la version 1.60.0
- importlib-metadata de la version 4.6.4 à la version 6.0.0
- ipykernel de 6.25.0 à 6.25.1
- ipython de 8.14.0 à 8.15.0
- ipywidgets de 7.7.2 à 8.0.4
- jupyter-core de 5.2.0 à 5.3.0
- jupyterlab-widgets de la version 1.0.0 à la version 3.0.5
- matplotlib de 3.7.0 à 3.7.2
- pip de 22.3.1 à 23.2.1
- platformdirs de 2.5.2 vers 3.10.0
- protobuf de la version 4.24.0 vers la version 4.24.1
- pyarrow de 8.0.0 à 14.0.1
- Pygments de 2.11.2 à 2.15.1
- pyodbc de 4.0.32 à 4.0.38
- requests de 2.28.1 à 2.31.0
- s3transfer de 0.6.2 à 0.10.0
- scikit-learn de 1.1.1 à 1.3.0
- scipy de 1.10.0 à 1.11.1
- setuptools de 65.6.3 à 68.0.0
- statsmodels de 0.13.5 à 0.14.0
- tenacity de la version 8.1.0 vers la version 8.2.2
- tornade de 6.1 à 6,3,2
- typing_extensions de la version 4.4.0 vers la version 4.7.1
- urllib3 de 1.26.14 à 1.26.16
- virtualenv de 20.16.7 à 20.24.2
- widgetsnbextension de 3.6.1 à 4.0.5
- zipp de la version 1.0.0 vers la version 3.11.0
- Bibliothèques R mises à niveau :
- arrow de la version 12.0.1 vers la version 14.0.0.2
- askpass de la version 1.1 à la version 1.2.0
- base de 4.3.1 à 4.3.2
- brew de 1.0-8 à 1.0-10
- brio de 1.1.3 à 1.1.4
- bslib de la version 0.5.0 vers la version 0.6.1
- cli de 3.6.1 vers 3.6.2
- commonmark de 1.9.0 à 1.9.1
- compiler de 4.3.1 à 4.3.2
- config de la version 0.3.1 à la version 0.3.2
- cpp11 de 0.4.4 à 0.4.7
- credentials de 1.3.2 à 2.0.1
- curl de 5.0.1 à 5.2.0
- data.table de 1.14.8 à 1.15.0
- datasets de 4.3.1 à 4.3.2
- DBI de la version 1.1.3 vers la version 1.2.1
- dbplyr de la version 2.3.3 vers la version 2.4.0
- desc de 1.4.2 à 1.4.3
- digest de 0.6.33 vers 0.6.34
- dplyr de la version 1.1.2 vers la version 1.1.4
- e1071 de 1.7-13 à 1.7-14
- evaluate de la version 0.21 vers la version 0.23
- fansi de 1.0.4 à 1.0.6
- fontawesome de la version 0.5.1 vers la version 0.5.2
- fs de 1.6.2 à 1.6.3
- future de la version 1.33.0 vers la version 1.33.1
- future.apply de la version 1.11.0 vers la version 1.11.1
- gargle de 1.5.1 à 1.5.2
- gert de la version 1.9.2 vers la version 2.0.1
- ggplot2 de 3.4.2 à 3.4.4
- glmnet de 4.1-7 vers 4.1-8
- glue de 1.6.2 à 1.7.0
- graphics de 4.3.1 à 4.3.2
- grDevices de 4.3.1 à 4.3.2
- grid de 4.3.1 à 4.3.2
- gtable de la version 0.3.3 vers la version 0.3.4
- hardhat de la version 1.3.0 vers la version 1.3.1
- haven de la version 2.5.3 vers la version 2.5.4
- htmltools de la version 0.5.5 vers la version 0.5.7
- htmlwidgets de la version 1.6.2 à la version 1.6.4
- httpuv de 1.6.11 à 1.6.14
- httr de la version 1.4.6 vers la version 1.4.7
- httr2 de la version 0.2.3 vers la version 1.0.0
- jsonlite de 1.8.7 à 1.8.8
- knitr de la version 1.43 vers la version 1.45
- étiquetage de la version 0.4.2 à la version 0.4.3
- later de la version 1.3.1 vers la version 1.3.2
- lave de 1.7.2.1 à 1.7.3
- lifecycle de 1.0.3 à 1.0.4
- listenv de la version 0.9.0 à la version 0.9.1
- lubridate de 1.9.2 à 1.9.3
- markdown de 1.7 à 1.12
- methods de 4.3.1 à 4.3.2
- openssl de 2.0.6 à 2.1.1
- parallel de 4.3.1 à 4.3.2
- pkgbuild de 1.4.2 à 1.4.3
- pkgload de la version 1.3.2.1 vers la version 1.3.4
- plyr de 1.8.8 à 1.8.9
- prettyunits de la version 1.1.1 à la version 1.2.0
- pROC de la version 1.18.4 à la version 1.18.5
- processx de la version 3.8.2 vers la version 3.8.3
- prodlim de la version 2023.03.31 à la version 2023.08.28
- progress de la version 1.2.2 à la version 1.2.3
- progressr de la version 0.13.0 vers la version 0.14.0
- promises de la version 1.2.0.1 vers la version 1.2.1
- ps de 1.7.5 vers 1.7.6
- purrr de 1.0.1 à 1.0.2
- ragg de 1.2.5 à 1.2.7
- Rcpp de la version 1.0.11 vers la version 1.0.12
- RcppEigen de 0.3.3.9.3 à 0.3.3.9.4
- readr de 2.1.4 vers 2.1.5
- recipes de la version 1.0.6 vers la version 1.0.9
- rematch de la version 1.0.1 à la version 2.0.0
- remotes de 2.4.2 vers 2.4.2.1
- reprex de la version 2.0.2 vers la version 2.1.0
- rlang de la version 1.1.1 vers la version 1.1.3
- rmarkdown de la version 2.23 vers la version 2.25
- RODBC de la version 1.3-20 à la version 1.3-23
- roxygen2 de la version 7.2.3 vers la version 7.3.1
- rprojroot de 2.0.3 vers 2.0.4
- Rserve de la version 1.8-11 vers la version 1.8-13
- RSQLite de la version 2.3.1 vers la version 2.3.5
- sass de la version 0.4.6 vers la version 0.4.8
- scales de la version 1.2.1 vers la version 1.3.0
- shiny de la version 1.7.4.1 vers la version 1.8.0
- sparklyr de la version 1.8.1 vers la version 1.8.4
- splines de 4.3.1 à 4.3.2
- stas de 4.3.1 à 4.3.2
- stats4 de 4.3.1 à 4.3.2
- stringi de la version 1.7.12 vers la version 1.8.3
- stringr de la version 1.5.0 vers la version 1.5.1
- systemfonts de la version 1.0.4 vers la version 1.0.5
- tcltk de 4.3.1 à 4.3.2
- testthat de 3.1.10 vers 3.2.1
- textshaping de la version 0.3.6 vers la version 0.3.7
- tidyr de 1.3.0 vers 1.3.1
- timechange de la version 0.2.0 à la version 0.3.0
- timeDate de la version 4022.108 vers la version 4032.109
- tinytex de la version 0.45 vers la version 0.49
- tools de 4.3.1 à 4.3.2
- utf8 de la version 1.2.3 à la version 1.2.4
- utils de 4.3.1 à 4.3.2
- uuid de 1.1-0 vers 1.2-0
- vctrs de 0.6.3 vers 0.6.5
- vroom de 1.6.3 à 1.6.5
- waldo de 0.5.1 à 0.5.2
- withr de 2.5.0 à 3.0.0
- xfun de la version 0.39 vers la version 0.41
- xml2 de 1.3.5 à 1.3.6
- yaml de 2.3.7 à 2.3.8
- zip de 2.3.0 à 2.3.1
- Bibliothèques Java mises à niveau :
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de la version 2.15.1 vers la version 2.16.0
- com.google.flatbuffers.flatbuffers-java de la version 1.12.0 vers la version 23.5.26
- com.typesafe.config de la version 1.2.1 à la version 1.4.3
- org.apache.ant.ant de la version 1.9.16 à la version 1.10.11
- org.apache.ant.ant-jsch de la version 1.9.16 à la version 1.10.11
- org.apache.ant.ant-launcher de la version 1.9.16 à la version 1.10.11
- org.apache.arrow.arrow-format de la version 12.0.1 vers la version 15.0.0
- org.apache.arrow.arrow-memory-core de la version 12.0.1 vers la version 15.0.0
- org.apache.arrow.arrow-memory-netty de la version 12.0.1 vers la version 15.0.0
- org.apache.arrow.arrow-vector de la version 12.0.1 vers la version 15.0.0
- org.apache.avro.avro de la version 1.11.2 à la version 1.11.3
- org.apache.avro.avro-ipc de la version 1.11.2 à 1.11.3
- org.apache.avro.avro-mapred de la version 1.11.2 à 1.11.3
- org.apache.logging.log4j.log4j-api de la version 2.20.0 à 2.22.1
- org.apache.logging.log4j.log4j-api de la version 2..20.0 à 2.22.1
- org.apache.logging.log4j.log4j-core de la version 2.20.0 à 2.22.1
- org.apache.logging.log4j.log4j-slf4j2-impl de la version 2.20.0 à 2.22.1
- org.postgresql.postgresql de 42.6.0 à 42.6.1
Apache Spark
Databricks Runtime 15.1 comprend Apache Spark 3.5.0. Cette version inclut tous les correctifs et améliorations Spark figurant dans Databricks Runtime 14.3 LTS ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-45527] [DBRRM-805][es-1073714] Revertir « [SC-151626][core] Utiliser une fraction pour effectuer le calcul des ressources »
-
[SPARK-47102] [DBRRM-803][sc-158253][SQL] Ajouter l’indicateur
COLLATION_ENABLEDde configuration - [SPARK-46973] [SC-158140][dbrrm-777][SQL] Ignorer la recherche de table V2 lorsqu’une table se trouve dans le cache de table V1
- [SPARK-46808] [SC-154113][python] Affiner les classes d’erreur dans Python avec fonction de tri automatique
-
[SPARK-47251] [SC-158291][python] Bloquer les types non valides de l’argument
argspour la commandesql -
[SPARK-47251] [SC-158121][python] Blocage des types non valides de l’argument
argspour la commandesql -
[SPARK-47108] [SC-157204][core] Définir
derby.connection.requireAuthenticationàfalseexplicitement dans les CLIs - [SPARK-45599] [SC-157537][core] Utiliser l’égalité des objets dans OpenHashSet
-
[SPARK-47099] [SC-157352][sql] Utiliser
ordinalNumberpour définir uniformément la valeur deparamIndexla classe d’erreurUNEXPECTED_INPUT_TYPE -
[SPARK-46558] [SC-151363][connect] Extraire une fonction d’assistance pour éliminer le code dupliqué qui est récupéré
MessageParametersdansErrorParamsGrpcExceptionConverter -
[SPARK-43117] [SC-156177][connect] Permettre à
ProtoUtils.abbreviatede prendre en charge les champs répétés -
[SPARK-46342] [SC-150283][sql] Remplacer
IllegalStateExceptionparSparkException.internalErrordans sql - [SPARK-47123] [SC-157412][core] JDBCRDD ne gère pas correctement les erreurs dans getQueryOutputSchema
- [SPARK-47189] [SC-157667][sql] Ajuster les noms et les textes des erreurs de colonne
- [SPARK-45789] [SC-157101][sql] Prise en charge DESCRIBE TABLE pour les colonnes de clustering
- [SPARK-43256] [SC-157699][sql] Supprimer la classe d’erreur _LEGACY_ERROR_TEMP_2021
-
[SPARK-47201] [SC-157782][python][CONNECT]
sameSemanticsvérifie les types d’entrée -
[SPARK-47183] [SC-157660][python] Correction de la classe d’erreur pour
sameSemantics - [SPARK-47179] [SC-157663][sql] Améliorer le message d’erreur de SparkThrowableSuite pour une meilleure débogabilité
-
[SPARK-46965] [SC-155791][core] Vérifier
logTypedansUtils.getLog - [SPARK-46832] [SC-156774][sql] Présentation des expressions Collate (Assembler) et Collation (Classement)
- [SPARK-46946] [SC-155721][sql] Prise en charge de la diffusion de plusieurs clés de filtrage dans DynamicPruning
- [SPARK-47079] [VARIANT-22][sc-157598][PYTHON][sql][CONNECT] Ajouter des informations de type Variant à PySpark
-
[SPARK-47101] [SC-157360][sql] Autoriser l’utilisation de virgules dans les noms de colonnes de niveau supérieur et supprimer la vérification de la définition de type imbriquée dans
HiveExternalCatalog.verifyDataSchema - [SPARK-47173] [SC-157571][ss][UI] Correction d’une faute de frappe dans l’explication de l’interface utilisateur de streaming
- [SPARK-47113] [SC-157348][core] Rétablir la logique de correction du point de terminaison S3A de SPARK-35878
- [SPARK-47130] [SC-157462][core] Utiliser listStatus pour contourner les informations de localisation de blocs lors du nettoyage des logs du pilote
- [SPARK-43259] [SC-157368][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_2024
-
[SPARK-47104] [SC-157355][sql]
TakeOrderedAndProjectExecdoit initialiser la projection non sécurisée - [SPARK-47137] [SC-157463][python][CONNECT] Ajouter getAll à spark.conf pour la parité des fonctionnalités avec Scala
-
[SPARK-46924] [SC-154905][core] Corriger le bouton
Load Newdans l’interface utilisateur de journalisationMaster/HistoryServer -
[SPARK-47069] [SC-157370][python][CONNECT] Présentation
spark.profile.show/dumpdu profilage basé sur SparkSession - [SPARK-46812] [SC-157075][sql][PYTHON] Rendre mapInPandas / mapInArrow compatible avec ResourceProfile
- [SPARK-46833] [SC-155866][sql] Classements - Présentation de CollationFactory qui fournit des règles de comparaison et de hachage pour les classements pris en charge
- [SPARK-47057] [SC-157036][python] Test de données Reeanble MyPy
- [SPARK-46934] [SC-157084][sql] Aller-retour en lecture/écriture avec HMS pour le type struct avec des caractères spéciaux.
-
[SPARK-46727] [SC-153472][sql] Port
classifyException()dans les dialectes JDBC sur les classes d’erreur - [SPARK-46964] [SC-155740][sql] Modifier la signature de l’erreur d’exécution de requête hllInvalidLgK pour prendre un entier comme 4ème argument
- [SPARK-46949] [SC-155719][sql] Prise en charge de CHAR/VARCHAR via ResolveDefaultColumns
- [SPARK-46972] [SC-1558888][sql] Correction du remplacement asymétrique de char/varchar dans V2SessionCatalog.createTable
- [SPARK-47014] [SC-156778][python][CONNECT] Implémenter des méthodes dumpPerfProfiles et dumpMemoryProfiles de SparkSession
- [SPARK-46689] [SC-156221][spark-46690][PYTHON][connect] Prise en charge du profilage v2 dans les fonctions de groupe/cogroupe applyInPandas/applyInArrow
- [SPARK-47040] [SC-156773][connect] Autoriser le script du serveur Spark Connect à attendre
- [SPARK-46688] [SC-156113][spark-46691][PYTHON][connect] Prise en charge du profilage v2 pour fonctions Pandas définies par l’utilisateur de type agrégées
- [SPARK-47004] [SC-156499][connect] Ajout de tests supplémentaires à ClientStreamingQuerySuite pour augmenter la couverture des tests du client Scala
- [SPARK-46994] [SC-156169][python] Refactoriser PythonWrite pour préparer la prise en charge de l’écriture en continu de source de données Python
- [SPARK-46979] [SC-156587][ss] Ajout de prise en charge pour spécifier l’encodeur de clé et de valeur séparément, ainsi que pour chaque famille de colonnes dans le fournisseur de magasins d’état RocksDB.
- [SPARK-46960] [SC-155940][ss] Test de plusieurs flux d’entrée avec l’opérateur TransformWithState
- [SPARK-46966] [SC-156112][python] Ajouter l’API UDTF pour « analyser » pour indiquer un sous-ensemble de colonnes de table d’entrée à sélectionner
- [SPARK-46895] [SC-155950][core] Remplacer le minuteur par un exécuteur planifié à thread unique
-
[SPARK-46967] [SC-155815][core][UI] Masquer
Thread DumpetHeap HistogramdesDeadexécuteurs dans l’interfaceExecutorsutilisateur - [SPARK-46512] [SC-155826][core] Optimiser la lecture de shuffle lorsque le tri et la combinaison sont utilisés.
- [SPARK-46958] [SC-155942][sql] Ajouter un fuseau horaire manquant pour forcer les valeurs par défaut
- [SPARK-46754] [SC-153830][sql][AVRO] Corriger la résolution du code de compression dans les options de définition de table avro et d’écriture
- [SPARK-46728] [SC-154207][python] Vérifier correctement l’installation de Pandas
- [SPARK-43403] [SC-154216][ui] Vérifiez que l’ancien SparkUI dans HistoryServer a été détaché avant de charger un nouveau
- [SPARK-39910] [SC-156203][sql] Délégation de la qualification des chemins au système de fichiers lors du globbing des chemins des fichiers DataSource
-
[SPARK-47000] [SC-156123] Rétablir "[SC-156123][core] Utiliser
getTotalMemorySize... - [SPARK-46819] [SC-154560][core] Déplacer les catégories d’erreurs et les états dans JSON
-
[SPARK-46997] [SC-156175][core] Activer
spark.worker.cleanup.enabledpar défaut - [SPARK-46865] [SC-156168][ss] Ajouter le support par lots pour l'opérateur TransformWithState
-
[SPARK-46987] [SC-156040][connect]
ProtoUtils.abbreviateéviter les opérations inutilessetField -
[SPARK-46970] [SC-155816][core] Réécriture
OpenHashSet#hasheravecpattern matching - [SPARK-46984] [SC-156024][python] Supprimer pyspark.copy_func
-
[SPARK-47000] [SC-156123][core] Utilisation
getTotalMemorySizedansWorkerArguments - [SPARK-46980] [SC-155914][sql][MINOR] Éviter d’utiliser des API internes dans des tests de bout en bout de trame de données
-
[SPARK-46931] Rétablir « [SC-155661][ps] Implémenter
{Frame, Series}.to_hdf» - [SPARK-46618] [SC-153828][sql] Améliorer les messages d’erreur pour l’erreur DATA_SOURCE_NOT_FOUND
- [SPARK-46849] [SC-154586][sql] Exécuter l'optimiseur sur les valeurs par défaut de la colonne CREATE TABLE
- [SPARK-46911] [SC-155724][ss] Ajout de l’opérateur deleteIfExists à StatefulProcessorHandleImpl
-
[SPARK-43273] [SQL] Prise en charge du codec de compression
lz4rawpour Parquet - [SPARK-47002] [SC-156223][python] Renvoyer un message d’erreur amélioré si le champ 'orderBy' de la méthode 'analyze' retourne accidentellement une liste de chaînes de caractères
- [SPARK-46890] [SC-155802][sql] Correction du bogue d’analyse de CSV avec les valeurs d’existence par défaut et le nettoyage des colonnes
- [SPARK-46977] [SC-155892][core] Une demande ayant échoué pour obtenir un jeton à partir d’un NameNode ne doit pas ignorer les demandes de jeton suivantes
-
[SPARK-46608] [SC-151806][sql] Restaurer la compatibilité descendante de
JdbcDialect.classifyException - [SPARK-46908] [SC-155702][sql] Clause star de prise en charge dans la clause WHERE
- [SPARK-46908] [SC-155702][sql] Clause star de prise en charge dans la clause WHERE
- [SPARK-46852] [SC-155665][ss] Supprimer l’utilisation de l’encodeur de clé explicite et la transmettre implicitement à l’opérateur pour l’opérateur transformWithState
- [SPARK-46864] [SC-155669][ss] Intégrer l'État Arbitraire V2 au nouveau cadre de classe d'erreur
- [SPARK-45807] [SC-155706][sql] Vue de retour après avoir appelé replaceView(..)
-
[SPARK-46899] [SC-154651][core] Supprimer
POSTles API deMasterWebUIlorsquespark.ui.killEnabledestfalse - [SPARK-46868] [SC-154539][core] Prise en charge de l’interface utilisateur du journal de travail Spark
-
[SPARK-46931] [SC-155661][ps] Implémenter
{Frame, Series}.to_hdf -
[SPARK-46940] [SC-155667][core] Supprimer les éléments inutilisés
updateSparkConfigFromPropertiesetisAbsoluteURIino.a.s.u.Utils - [SPARK-46929] [SC-155659][core][CONNECT][ss] Utiliser ThreadUtils.shutdown pour fermer les pools de threads
- [SPARK-46400] [SC-155658][core][SQL] Lorsqu’il existe des fichiers endommagés dans le référentiel maven local, ignorez ce cache et réessayez
-
[SPARK-46932] [SC-155655] Nettoyer les importations dans
pyspark.pandas.test_* - [SPARK-46683] [SC-154120] Écrire un générateur de sous-requête qui génère des permutations des sous-requêtes pour augmenter la couverture des tests
- [SPARK-46914] [SC-154776][ui] Raccourcir le nom de l’application dans le tableau récapitulatif de la page Historique
- [SPARK-46831] [SC-154699][sql] Collations - Extension de StringType et PhysicalStringType avec le champ collationId
- [SPARK-46816] [SC-154415][ss] Ajouter la prise en charge de base pour un nouvel opérateur de gestion d’état arbitraire, un type valueState unique, plusieurs variables d’état et la prise en charge sous-jacente des familles de colonnes pour RocksDBStateStoreProvider avec/sans point de contrôle de journal des modifications
- [SPARK-46925] [SC-154890][python][CONNECT] Ajouter un avertissement qui indique d’installer memory_profiler pour le profilage de la mémoire
-
[SPARK-46927] [SC-154904][python] Faire
assertDataFrameEqualfonctionner correctement sans PyArrow - [SPARK-46021] [SC-148987][core] Prise en charge de l’annulation des travaux futurs appartenant à un groupe de travaux
- [SPARK-46747] [SC-154789][sql] Éviter l’analyse lors de l'utilisation de la fonction getTableExistsQuery pour les dialectes JDBC
- [SPARK-46904] [SC-154704][ui] Correction du problème d’affichage du résumé de l’interface Historique
- [SPARK-46870] [SC-154541][core] Prise en charge de l’interface utilisateur du journal maître Spark
- [SPARK-46893] [SC-154780][ui] Supprimer les scripts inline des descriptions de l’interface utilisateur
- [SPARK-46910] [SC-154760][python] Éliminer les exigences JDK dans l’installation de PySpark
- [SPARK-46907] [SC-154736][core] Afficher l’emplacement du journal des pilotes dans le serveur d’historique Spark
- [SPARK-46902] [SC-154661][ui] Correction de l’interface utilisateur du serveur d’historique Spark pour utiliser setAppLimit non exporté
- [SPARK-46687] [SC-154725][python][CONNECT] Prise en charge de base du profileur de mémoire basé sur SparkSession
- [SPARK-46623] [SC-153831][core][MLLIB][sql] Remplacer SimpleDateFormat par DateTimeFormatter
-
[SPARK-46875] [SC-154627][sql] Quand la valeur
modeest Null, une exceptionNullPointExceptiondoitnotêtre levée -
[SPARK-46872] [SC-154543][core] Récupérer
log-view.jspour être non modulaire -
[SPARK-46883] [SC-154629][core] API de support
/json/clusterutilization -
[SPARK-46886] [SC-154630][core] Activer
spark.ui.prometheus.enabledpar défaut - [SPARK-46873] [SC-154638][ss] Ne recréez pas de nouveau StreamingQueryManager pour la même session Spark
- [SPARK-46829] [SC-154419][core] Supprimer createExecutorEnv de SparkEnv
-
[SPARK-46827] [SC-154280][core] Adapter
RocksDBPersistenceEnginepour qu'il prenne en charge un lien symbolique - [SPARK-46903] [SC-154662][core] Prise en charge de l’interface utilisateur du journal du serveur d’historique Spark
-
[SPARK-46874] [SC-154646][python] Supprimer la
pyspark.pandasdépendance deassertDataFrameEqual -
[SPARK-46889] [SC-154639][core] Paramètre de validation
spark.master.ui.decommission.allow.mode -
[SPARK-46850] [SC-154443][sql] Convertir
_LEGACY_ERROR_TEMP_2102enUNSUPPORTED_DATATYPE -
[SPARK-46704] [SC-153323][core][UI] Correction
MasterPagepour trierRunning Driverscorrectement la table parDurationcolonne - [SPARK-46796] [SC-154279][ss] Vérifiez que les fichiers distants corrects (mentionnés dans metadata.zip) sont utilisés sur le chargement de version de RocksDB
-
[SPARK-46888] [SC-154636][core] Correction
Masterpour rejeter les demandes/workers/kill/si le retrait est désactivé - [SPARK-46818] [SC-154422][sql] Améliorer les messages d’erreur pour la plage avec des entrées non assemblables
- [SPARK-46898] [SC-154649][connect] Simplifier la transformation de la fonction protobuf dans le Planificateur
- [SPARK-46828] [SC-154413][sql] Supprimer l’assertion non valide du mode distant pour spark sql Shell
- [SPARK-46733] [SC-154274][core] Simplifiez le BlockManager où l'opération de sortie dépend uniquement du thread d'interruption.
-
[SPARK-46777] [ SC-154016][ss] Réorganisation de la structure du catalyseur
StreamingDataSourceV2Relationpour être plus aligné avec la version par lot - [SPARK-46515] [SC-151716] Ajouter la fonction MONTHNAME
-
[SPARK-46823] [SC-154276][connect][PYTHON]
LocalDataToArrowConversiondoit vérifier la nullabilité -
[SPARK-46787] [SC-154404][connect]
bloomFilterla fonction doit lancer une exceptionAnalysisExceptionpour une entrée non valide -
[SPARK-46779] [SC-154045][sql]
InMemoryRelationinstances du même plan mis en cache doivent être sémantiquement équivalentes - [SPARK-45827] [SC-153973] Interdire le partitionnement sur une colonne Variant
-
[SPARK-46797] [SC-154085][core] Renommer
spark.deploy.spreadOutenspark.deploy.spreadOutApps - [SPARK-46094] [SC-153421] Prise en charge du profilage JVM de l’exécuteur
- [SPARK-46746] [SC-153557][sql][AVRO] Attacher l’extension codec aux fichiers de source de données avro
- [SPARK-46698] [SC-153288][cœur] Remplacer le minuteur par un exécuteur planifié à thread unique pour la barre de progression de la console.
- [SPARK-46629] [SC-153835] Corriger le type STRUCT DDL qui ne prend pas en charge la nullabilité et les commentaires
- [SPARK-46750] [SC-153772][connect][PYTHON] Nettoyage du code des API DataFrame
- [SPARK-46769] [SC-153979][sql] Affiner l’inférence du schéma liée à l’horodatage
-
[SPARK-46765] [SC-153904][python][CONNECT] Permettre à
shufflede spécifier le type de données deseed - [SPARK-46579] [SC-151481][sql] Éditer l’URL JDBC dans les erreurs et les journaux
- [SPARK-46686] [SC-153875][python][CONNECT] Prise en charge de base du profileur UDF Python basé sur SparkSession
-
[SPARK-46748] Annuler “[SC-153800][core] Supprimer
*slav**.shle script..." - [SPARK-46707] [SC-153833][sql] Ajout d’un champ jetable aux expressions pour améliorer la poussée de prédicats
-
[SPARK-46519] [SC-151278][sql] Effacer les classes d’erreur inutilisées du
error-classes.jsonfichier -
[SPARK-46677] [SC-153426][sql][CONNECT] Correction de la résolution
dataframe["*"] - [SPARK-46317] [SC-150184][python][CONNECT] Mettre en correspondance les comportements mineurs dans SparkSession avec une couverture de test complète
-
[SPARK-46748] [SC-153800][core] Supprimer les
*slav**.shscripts - [SPARK-46663] [SC-153490][python] Désactiver le profiler de mémoire pour les fonctions pandas définies par l’utilisateur utilisant des itérateurs
- [SPARK-46410] [SC-150776][sql] Attribuer des classes/sous-classes d'erreurs dans JdbcUtils.classifyException
- [SPARK-46277] [SC-150126][python] Valider les URL de démarrage avec la configuration en cours de définition
- [SPARK-46612] [SC-153536][sql] Ne pas convertir la chaîne de type d’un tableau récupérée à partir du pilote JDBC
- [SPARK-46254] [SC-149788][python] Supprimer la vérification des versions obsolètes de Python 3.8/3.7
-
[SPARK-46490] [SC-151335][sql] Exiger des classes d’erreur dans
SparkThrowableles sous-classes -
[SPARK-46383] [SC-153274][sc-147443][WARMFIX] Réduire l’utilisation de la mémoire Heap du pilote en raccourcissant la durée de vie de
TaskInfo.accumulables() - [SPARK-46541] [SC-153109][sql][CONNECT] Correction de la référence de colonne ambiguë dans la jointure automatique
-
[SPARK-46381] [SC-150495][sql] Migrer des sous-classes de
AnalysisExceptionvers des classes d’erreur -
[SPARK-46351] [SC-150335][sql] Exiger une classe d’erreur dans
AnalysisException -
[SPARK-46220] [SC-149689][sql] Restreindre les charsets dans
decode() -
[SPARK-46369] [SC-150340][core] Supprimer le
killlien desRELAUNCHINGpilotes dansMasterPage - [SPARK-46052] [SC-153284][core] Supprimer la fonction TaskScheduler.killAllTaskAttempts
- [SPARK-46536] [SC-153164][sql] Prise en charge GROUP BY calendar_interval_type
- [SPARK-46675] [SC-153209][sql] Supprimer inferTimestampNTZ inutilisé dans ParquetReadSupport
-
[SPARK-46717] [SC-153423][core] Simplifier
ReloadingX509TrustManageren se basant uniquement sur le thread d’interruption pour l’opération de sortie. - [SPARK-46722] [SC-153438][connect] Ajouter un test concernant la vérification de compatibilité descendante pour StreamingQueryListener dans Spark Connect (Scala/PySpark)
-
[SPARK-46187] [SC-149580][sql] Aligner l’implémentation « codegen » et « non-codegen » de
StringDecode -
[SPARK-46258] [SC-149799][core] Ajouter
RocksDBPersistenceEngine -
[SPARK-46216] [SC-149676][core] Améliorer
FileSystemPersistenceEnginela prise en charge des compressions - [SPARK-46189] [SC-149567][ps][SQL] Effectuer des comparaisons et des arithmétiques entre les mêmes types dans différentes fonctions d’agrégation Pandas pour éviter les erreurs de mode interprétées
- [SPARK-46184] [SC-149563][core][SQL][connect][MLLIB] Réduire la profondeur de pile en remplaçant Option.isDefined par Option.isEmpty
- [SPARK-46700] [SC-153329][core] Compter le dernier déversement pour la métrique des octets de déversement de disque pendant la répartition
-
[SPARK-45642] [SC-150286][core][SQL] Correction
FileSystem.isFile & FileSystem.isDirectory is deprecated - [SPARK-46640] [SC-153272][sql] Correction de RemoveRedundantAlias en excluant les attributs de sous-requête
-
[SPARK-46681] [SC-153287][core] Refacturer
ExecutorFailureTracker#maxNumExecutorFailurespour éviter de calculerdefaultMaxNumExecutorFailureslorsqueMAX_EXECUTOR_FAILURESest configuré - [SPARK-46695] [SC-153289][sql][HIVE] Configurer systématiquement hive.execution.engine sur mr
-
[SPARK-46325] [SC-150228][connect] Supprimer les fonctions de remplacement inutiles lors de la construction de
WrappedCloseableIteratordansResponseValidator#wrapIterator - [SPARK-46232] [SC-149699][python] Migrez toutes les ValeursError restantes dans l’infrastructure d’erreur PySpark.
- [SPARK-46547] [SC-153174][ss] Avaler une exception non critique dans la tâche de maintenance pour éviter un blocage entre le thread de maintenance et l’opérateur d’agrégation de streaming
-
[SPARK-46169] [SC-149373][ps] Affecter les numéros JIRA appropriés pour les paramètres manquants de l’API
DataFrame. -
[SPARK-45857] [SC-148096][sql] Appliquer les classes d’erreur dans les sous-classes de
AnalysisException
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Veuillez télécharger les pilotes récemment publiés et mettre à niveau (téléchargez ODBC, téléchargez JDBC).
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 15.1.
Environnement du système
- Système d’exploitation : Ubuntu 22.04.4 LTS
- Java : Zulu 8.74.0.17-CA-linux64
- Scala : 2.12.15
- Python : 3.11.0
- R : 4.3.2
- Delta Lake : 3.1.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
| azure-storage-blob | 12.19.1 | Azure Storage File Data Lake | 12.14.0 | backcall | 0.2.0 |
| black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
| cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| cliquez | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
| contourpy | 1.0.5 | chiffrement | 41.0.3 | cycliste | 0.11.0 |
| Cython | 0.29.32 | Kit de développement logiciel Databricks (SDK) | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | décorateur | 5.1.1 | distlib | 0.3.8 |
| points d’entrée | 0,4 | exécuter | 0.8.3 | aperçu des facettes | 1.1.1 |
| verrou de fichier | 3.13.1 | outils de police | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.42 | google-api-core | 2.17.1 | google-auth | 2.28.2 |
| google-cloud-core | 2.4.1 | google-cloud-storage (Stockage dans le cloud de Google) | 2.15.0 | google-crc32c | 1.5.0 |
| google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipywidgets (un outil de widgets interactifs pour Python) | 8.0.4 | isodate | 0.6.1 |
| Jedi | 0.18.1 | jeepney | 0.7.1 | jmespath | 0.10.0 |
| joblib | 1.2.0 | jupyter_client | 7.4.9 | jupyter_core | 5.3.0 |
| jupyterlab-widgets (widgets pour JupyterLab) | 3.0.5 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.1 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | empaquetage | 23,2 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
| plotly | 5.9.0 | prompt-toolkit | 3.0.36 | protobuf | 4.24.1 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 14.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 | pycparser | 2.21 |
| pydantic | 1.10.6 | Pygments | 2.15.1 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.38 | pyparsing | 3.0.9 |
| python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | pytz | 2022.7 |
| PyYAML | 6,0 | pyzmq | 23.2.0 | Requêtes | 2.31.0 |
| rsa | 4,9 | s3transfer | 0.10.0 | scikit-learn | 1.3.0 |
| scipy | 1.11.1 | seaborn | 0.12.2 | SecretStorage | 3.3.1 |
| setuptools | 68.0.0 | six | 1.16.0 | smmap | 5.0.1 |
| sqlparse | 0.4.4 | ssh-import-id | 5.11 | données en pile | 0.2.0 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.14.0 | ténacité | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tornade | 6.3.2 | traitlets | 5.7.1 |
| typing_extensions | 4.7.1 | tzdata | 2022.1 | ujson | 5.4.0 |
| unattended-upgrades | 0,1 | urllib3 | 1.26.16 | virtualenv | 20.24.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | roue | 0.38.4 |
| widgetsnbextension | 4.0.5 | zipp | 3.11.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l'instantané CRAN du gestionnaire de packages en date du 10-02-2023.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 14.0.0.2 | Askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-7 | objet BLOB | 1.2.4 | boot | 1.3-28 |
| brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
| bslib | 0.6.1 | cachemire | 1.0.8 | callr | 3.7.3 |
| caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| classe | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
| horloge | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
| colorspace | 2.1-0 | commonmark | 1.9.1 | compilateur | 4.3.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
| data.table | 1.15.0 | jeux de données | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagramme | 1.6.5 | diffobj | 0.3.5 | digérer | 0.6.34 |
| downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | ellipse | 0.3.2 | évaluer | 0.23 |
| fans | 1.0.6 | farver | 2.1.1 | carte rapide | 1.1.1 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
| futur | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
| produits génériques | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
| gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| graphisme | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
| gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
| highr | 0.10 | hms | 1.1.3 | outils HTML | 0.5.7 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-21 | knitr | 1,45 | étiquetage | 0.4.3 |
| plus tard | 1.3.2 | lattice | 0.21-8 | lave | 1.7.3 |
| cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
| Matrice | 1.5-4.1 | memoise | 2.0.1 | methods | 4.3.2 |
| mgcv | 1.8-42 | mime | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
| parallelly | 1.36.0 | pilier | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.9 | éloge | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | progrès | 1.2.3 |
| progressr | 0.14.0 | promesses | 1.2.1 | proto | 1.0.0 |
| proxy | 0,4-27 | p.s. | 1.7.6 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | réactif | 0.4.4 |
| reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recettes | 1.0.9 | match retour | 2.0.0 | revanche2 | 2.1.2 |
| remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1,8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
| écailles | 1.3.0 | selectr | 0,4-2 | informations sur la session | 1.2.2 |
| shape | 1.4.6 | brillant | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiques | 4.3.2 |
| statistiques4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
| survival | 3.5-5 | fichier Swagger | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| mise en forme de texte | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | changement d'heure | 0.3.0 |
| date-heure | 4032.109 | tinytex | 0,49 | outils | 4.3.2 |
| tzdb | 0.4.0 | vérificateur d'URL | 1.0.1 | Utilise ça | 2.2.2 |
| utf8 | 1.2.4 | utils | 4.3.2 | Identifiant unique universel (UUID) | 1.2-0 |
| V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
| vroom | 1.6.5 | Waldo | 0.5.2 | whisker | 0.4.1 |
| withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
| zeallot | 0.1.0 | zip | 2.3.1 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flux | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.17.1 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1,1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0,25 |
| io.delta | delta-sharing-client_2.12 | 1.0.4 |
| io.dropwizard.metrics | annotation des métriques | 4.2.19 |
| io.dropwizard.metrics | métriques de base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | servlets de métriques | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | de collecte | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | transaction-api | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | vecteur-flèche | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.52.v20230823 |
| org.eclipse.jetty | serveur jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | shims | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1,9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |