Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 17.2, alimenté par Apache Spark 4.0.0.
Azure Databricks a publié cette version en septembre 2025.
Nouvelles fonctionnalités et améliorations
- LIKE prend en charge le classement UTF8_LCASE
-
st_exteriorringla fonction est désormais prise en charge -
Afficher les détails du pushdown dans
EXPLAINet l’interface utilisateur Spark pour les analyses à distance -
Déclarer plusieurs variables de session ou locales dans une seule
DECLAREinstruction -
Mot clé de prise en charge
TEMPORARYpour la création d’une vue de métrique - Prendre en charge des commandes supplémentaires avec un contrôle d’accès affiné
-
Remplacer de manière sélective et atomique les données par
INSERT REPLACE USINGetINSERT REPLACE ON(GA) -
Utiliser des E/S natives pour
LokiFileSystem.getFileStatusS3 - Mode ANSI activé par défaut pour l’API Pandas sur Spark
-
Auto Loader déduit les colonnes de partition en
singleVariantColumnmode
LIKE prend en charge le classement UTF8_LCASE
L’opérateur LIKE prend désormais en charge le classement, ce qui permet une correspondance non sensible à la UTF8_LCASE casse.
st_exteriorring la fonction est désormais prise en charge
Vous pouvez maintenant utiliser la st_exteriorring fonction pour extraire la limite externe d’un polygone et la renvoyer en tant que chaîne de ligne. Consultez Fonction st_exteriorring.
Afficher les détails du pushdown dans EXPLAIN et l’interface utilisateur Spark pour les analyses à distance
La EXPLAIN commande et l’interface utilisateur Spark pour RemoteSparkConnectScan le calcul dédié affichent désormais les prédicats, les agrégations, les groupes par clauses, les limites et les exemples qui sont poussés vers le bas dans l’analyse distante.
Déclarer plusieurs variables de session ou locales dans une seule DECLARE instruction
Dans Databricks Runtime 17.2 et versions ultérieures, vous pouvez déclarer plusieurs variables de session ou locales du même type et de la même valeur par défaut dans une instruction unique DECLARE . Afficher DECLARE VARIABLE et commencer l’instruction composée DE END.
Mot clé de prise en charge TEMPORARY pour la création d’une vue de métrique
Vous pouvez maintenant utiliser le mot clé lors de la TEMPORARY création d’une vue de métrique. Les vues de métriques temporaires sont visibles uniquement dans la session qui les a créées et sont supprimées lorsque la session se termine. Voir CREATE VIEW.
Prendre en charge des commandes supplémentaires avec un contrôle d’accès affiné
Le contrôle d’accès affiné sur le calcul dédié prend désormais en charge les commandes et FSCK REPAIR TABLE les DESCRIBE DETAIL commandes.
Remplacer de manière sélective et atomique les données par INSERT REPLACE USING et INSERT REPLACE ON (GA)
INSERT REPLACE USING et INSERT REPLACE ON sont désormais en disponibilité générale pour Databricks Runtime 17.2. Les deux commandes SQL remplacent une partie de la table par le résultat d’une requête.
INSERT REPLACE USING remplace les lignes lorsque les USING colonnes comparent égales à l’égalité.
INSERT REPLACE ON remplace les lignes lorsqu’elles correspondent à une condition définie par l’utilisateur.
Voir INSERT dans la référence du langage SQL et remplacer sélectivement les données avec Delta Lake.
Utiliser des E/S natives pour LokiFileSystem.getFileStatus S3
LokiFileSystem.getFileStatus utilise désormais la pile d’E/S native pour le trafic Amazon S3 et retourne org.apache.hadoop.fs.FileStatus des objets au lieu de shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
Mode ANSI activé par défaut pour l’API Pandas sur Spark
ANSI_MODE est désormais activé par défaut pour l’API Pandas sur Spark, compute.ansi_mode_support=Truece qui garantit la parité de conformité ANSI avec pandas natifs. L’option s’applique toujours si compute.fail_on_ansi_mode elle compute.ansi_mode_support est définie sur False.
Auto Loader déduit les colonnes de partition en mode singleVariantColumn
Le chargeur automatique déduit désormais les colonnes de partition à partir de chemins de fichiers lors de l’ingestion de données au format de type semi-structuré à l’aide de l’option singleVariantColumn. Auparavant, les colonnes de partition n’ont pas été détectées automatiquement. Consultez les options du chargeur automatique.
Changements comportementaux
-
DESCRIBE CONNECTIONaffiche les paramètres d’environnement pour les connexions JDBC - Option permettant de tronquer l’historique uniforme pendant la migration des tables managées
- Syntaxe SQL pour les options de lecture Delta dans les requêtes de streaming
-
Corriger les résultats avec
splitune limite régulière vide et positive -
Correction
url_decodeettry_url_decodegestion des erreurs dans Photon - Environnement d’exécution partagée pour les fonctions définies par l’utilisateur Python du catalogue Unity
- Suivi des lignes activé par défaut pour les nouvelles tables
- TABLE prise en charge des arguments pour les UDTF Python du catalogue Unity
DESCRIBE CONNECTION affiche les paramètres d’environnement pour les connexions JDBC
Azure Databricks inclut désormais les paramètres d’environnement définis par l’utilisateur dans la DESCRIBE CONNECTION sortie des connexions JDBC qui prennent en charge les pilotes personnalisés et s’exécutent en isolation. Les autres types de connexion restent inchangés.
Option permettant de tronquer l’historique uniforme pendant la migration des tables managées
Vous pouvez désormais tronquer l’historique uniforme lors de la migration de tables avec Uniform/Iceberg activé à l’aide ALTER TABLE...SET MANAGEDde . Cela simplifie les migrations et réduit les temps d’arrêt par rapport à la désactivation et à la réactivation manuelle d’Uniform.
Syntaxe SQL pour les options de lecture Delta dans les requêtes de streaming
Vous pouvez maintenant spécifier des options de lecture Delta pour les requêtes de streaming basées sur SQL à l’aide de la WITH clause. Par exemple:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Corriger les résultats avec split une limite régulière vide et positive
Azure Databricks retourne désormais des résultats corrects lors de l’utilisation split function avec un regex vide et une limite positive. Précédemment, la fonction a tronqué incorrectement la chaîne restante au lieu de l’inclure dans le dernier élément.
Correction url_decode et try_url_decode gestion des erreurs dans Photon
Dans Photon, try_url_decode() et url_decode() avec failOnError = false maintenant NULL retour pour les chaînes encodées url non valides au lieu d’échouer la requête.
Environnement d’exécution partagée pour les fonctions définies par l’utilisateur Python du catalogue Unity
Azure Databricks partage désormais l’environnement d’exécution pour les fonctions de table définies par l’utilisateur Python (UDF) à partir du même propriétaire et de la même session Spark. Une clause facultative STRICT ISOLATION est disponible pour désactiver le partage pour les fonctions définies par l’utilisateur avec des effets secondaires, tels que la modification de variables d’environnement ou l’exécution de code arbitraire.
Suivi des lignes activé par défaut pour les nouvelles tables
Azure Databricks active désormais le suivi des lignes par défaut pour toutes les tables managées du catalogue Unity nouvellement créées. Les tables existantes ne sont pas affectées et conservent leurs paramètres de suivi des lignes actuels.
TABLE prise en charge des arguments pour les UDTF Python dans Unity Catalog
Unity Catalog Python UDTFs prennent en charge TABLE les arguments, ce qui permet aux fonctions d’accepter des tables entières en tant que paramètres d’entrée, ce qui permet d’effectuer des transformations et des agrégations de données plus complexes sur des jeux de données structurés. Consultez les fonctions de table définies par l’utilisateur Python dans le catalogue Unity. (Rétroporté à partir de 17.3 LTS).
Mises à niveau de la bibliothèque
Bibliothèques Python mises à niveau :
Aucune bibliothèque Python n’a été mise à niveau dans cette version.
Bibliothèques R mises à niveau :
Aucune bibliothèque R n’a été mise à niveau dans cette version.
Bibliothèques Java mises à niveau :
- io.delta.delta-sharing-client_2.13 de 1.3.3 à 1.3.5
Apache Spark
Databricks Runtime 17.2 inclut Apache Spark 4.0.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans la version 17.1, ainsi que les correctifs de bogues supplémentaires suivants et les améliorations apportées à Spark :
-
SPARK-53183 Utiliser Java
Files.readStringau lieu deo.a.s.sql.catalyst.util.fileToString - SPARK-51817 Réintroduisez les champs ansiConfig dans messageParameters de CAST_INVALID_INPUT et CAST_OVERFLOW
- SPARK-53124 Supprimer des champs inutiles à partir de JsonTuple
- SPARK-53106 Ajouter des tests d’évolution de schéma pour les suites de connexion Spark Scala TWS
-
SPARK-53201 Utiliser
SparkFileUtils.contentEqualsau lieu deFiles.equal - SPARK-53308 Ne supprimez pas les alias dans RemoveRedundantAliases qui provoqueraient des doublons
-
SPARK-53241 Prise en charge
createArraydansSparkCollectionUtils -
SPARK-53239 Améliorer et
MapSortaméliorerSortArrayles performances viaparallelSort - SPARK-53184 Correction de melt() lorsque les colonnes de valeur combinent des chaînes et des nombres
- SPARK-53144 Libérer createViewCommand dans SparkConnectPlanner effet secondaire
- SPARK-53303 Utilisez l’encodeur d’état vide lorsque l’état initial n’est pas fourni dans TWS
- SPARK-52917 Prise en charge de lecture pour activer l’aller-retour pour le fichier binaire au format xml
- SPARK-53110 Implémenter la fonction time_trunc dans PySpark
- SPARK-53107 Implémenter la fonction time_trunc dans Scala
- SPARK-52146 Détecter les références de fonction cycliques dans les fonctions définies par l’utilisateur SQL
- SPARK-52469 Utiliser l’API JEP 223 pour traiter la version Java
- SPARK-53094 Corriger CUBE avec un agrégat contenant des HAVING clauses
- SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
- SPARK-53287 Ajouter un guide de migration ANSI
- SPARK-43100 Les métriques shuffle basées sur push doivent être désérialisées correctement
- SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
-
SPARK-53114 Prise en charge
joindansJavaUtils - SPARK-53297 Correction de la documentation de l’API Pipelines déclaratifs StreamingTable
- SPARK-53181 Activer les tests de documentation sous ANSI
- SPARK-52482 Améliorer la gestion des exceptions pour lire certains fichiers zstd endommagés
-
SPARK-52990 Soutien
StringSubstitutor - SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
-
SPARK-53169 Supprimer les commentaires liés à «
Set the logger level of File Appender to» delog4j2.properties -
SPARK-53080 Prise en charge et prise en
cleanDirectorychargeSparkFileUtilsJavaUtils - SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
-
SPARK-53000 Renommer
StringUtils.scaladansStringConcat.scalalesql/apimodule - SPARK-52952 Ajouter un script de développement de forçage de type UDF PySpark
- SPARK-52998 Plusieurs variables à l’intérieur de déclarer
- SPARK-51817 Réintroduisez les champs ansiConfig dans messageParameters de CAST_INVALID_INPUT et CAST_OVERFLOW
- SPARK-52820 Capturer des plans complets dans des fichiers dorés
- SPARK-53274 Prise en charge du pushdown de jointure gauche et droite dans JDBCScanBuilder
- SPARK-52110 Implémenter la prise en charge de la syntaxe SQL pour les pipelines
- SPARK-52950 Activer le mode ANSI dans DataSourceV2StrategySuite
- SPARK-52947 Corriger le chemin d’accès à l’image dans le guide de programmation des pipelines déclaratifs
- SPARK-52592 Prise en charge de la création d’un ps. Séries d’une ps. Série
- SPARK-53301 Différencier les indicateurs de type de Pandas UDF et Flèche UDF
- SPARK-53146 Rendre MergeIntoTable disponible dans l’effet secondaire SparkConnectPlanner
-
SPARK-53166 Utiliser
SparkExitCode.EXIT_FAILUREdans l’objetSparkPipelines - SPARK-53288 Corriger l’erreur d’assertion avec la limite globale de diffusion en continu
- SPARK-52394 Correction de l’erreur de division par zéro de la correction automatique en mode ANSI
- SPARK-51555 Ajouter la fonction time_diff()
- SPARK-52948 Activer test_np_spark_compat_frame sous ANSI
- SPARK-53134 Nettoyer les importations ANSI inutilisées dans les tests
-
SPARK-52593 Éviter CAST_INVALID_INPUT de
MultiIndex.to_series,Series.dotetDataFrame.doten mode ANSI - SPARK-53291 Correction de la valeur nullabilité pour la colonne valeur
- SPARK-53097 Rendre WriteOperationV2 libre dans SparkConnectPlanner effet secondaire
- SPARK-53305 Prise en charge de TimeType dans createDataFrame
-
SPARK-52914 Prise en charge des
On-Demand Log Loadingjournaux propagés dansHistory Server - SPARK-33538 Envoyer directement des prédicats IN/NOT au metastore Hive
-
SPARK-52849 Ajouter
stringifyExceptionào.a.s.util.Utils -
SPARK-52771 Correction de l’élargissement du type float32 dans
truediv/floordiv - SPARK-52502 Vue d’ensemble du nombre de threads
- SPARK-52788 Correction de l’erreur de conversion de la valeur binaire dans BinaryType en XML
-
SPARK-53123 Prise en charge
getRootCausedansSparkErrorUtils -
SPARK-53129 Améliorer
SparkShelll’importationjava.net._par défaut -
SPARK-53061 Prise en charge
copyFileToDirectorydansSparkFileUtils - SPARK-52683 Prise en charge de ExternalCatalog alterTableSchema
-
SPARK-52871 Fusionner
o.a.s.sql.catalyst.util.SparkStringUtilsverso.a.s.util.SparkStringUtils -
SPARK-52817 Corriger les
Likeperformances des expressions - SPARK-52545 Normaliser l’échappement de guillemets doubles pour suivre la spécification SQL
-
SPARK-52711 Correction de l’élargissement du type float32 sous
mul/rmulANSI - SPARK-52615 Remplacer File.mkdirs par Utils.createDirectory
- SPARK-52381 JsonProtocol : Accepter uniquement les sous-classes de SparkListenerEvent
- SPARK-52613 Restaurer l’impression complète stacktrace lorsque HBase/Hive DelegationTokenProvider a atteint l’exception
- SPARK-52651 Gérer le type défini par l’utilisateur dans ColumnVector imbriqué
- SPARK-52611 Correction de la version SQLConf pour excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Ignorer l’application de contrainte CHECK pour les suppressions de vecteurs de suppression
- Paramètre de prise en charge
-i-Ispark-shell 2.13 - SPARK-52492 Rendre InMemoryRelation.convertToColumnarIfPossible personnalisable
- SPARK-52451 Rendre WriteOperation libre dans SparkConnectPlanner effet secondaire
- SPARK-53272 Refactoriser la logique pushdown SPJ hors de BatchScanExec
-
SPARK-53071 Prise en charge
copyFiledansSparkFileUtils - SPARK-51415 Prendre en charge le type de temps par make_timestamp()
- SPARK-51554 Ajouter la fonction time_trunc()
- SPARK-52426 Prise en charge de la redirection stdout/stderr vers le système de journalisation
- SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
- SPARK-53063 Implémenter et appeler de nouvelles API dans FileCommitProtocol au lieu du déprécié
- Spark-52546 vérifiez sparkContext si elle s’est arrêtée lors de l’exécution du bloc de code catch dans execute(), sinon, elle retourne un état incorrect.
-
SPARK-53023 Supprimer la
commons-iodépendance dusql/apimodule - SPARK-52396 Le répertoire racine d’artefact doit utiliser tmpdir
-
SPARK-53131 Améliorer
SparkShelll’importationjava.nio.file._par défaut - SPARK-42322 Attribuer un nom to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
- SPARK-52484 Ignorer l’assertion child.supportsColumnar côté pilote dans ColumnarToRowExec
- SPARK-52384 Corriger la connexion à bogue ne doit pas tenir compte des options JDBC
- SPARK-52034 Ajouter des méthodes courantes dans SparkOperation trait pour les opérations thriftserver
-
SPARK-53031 Prise en charge
getFiledansSparkFileUtils - SPARK-52976 Correction de la fonction UDF Python qui n’accepte pas la chaîne compilée comme type d’entrée param/retour (17.x)
- SPARK-52943 Activer arrow_cast pour tous les types d’évaluation UDF pandas
- SPARK-53263 Prise en charge de TimeType dans df.toArrow
- SPARK-53141 Ajouter des API pour obtenir la taille de mémoire de surcharge et la taille de mémoire offheap à partir du profil de ressource
- SPARK-53259 Corrigez le message pour INVALID_UDF_EVAL_TYPE
- SPARK-53167 Le lanceur Spark isRemote respecte également le fichier de propriétés
-
SPARK-53165 Ajouter
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Répétition UTF8String d’amélioration
-
SPARK-53170 Améliorer
SparkUserAppExceptionpour avoircauseun paramètre - SPARK-52989 Ajouter des itérateurs close() explicites au magasin d’états
- SPARK-53074 Éviter un clustering partiel dans SPJ pour répondre à la distribution requise d’un enfant
- SPARK-52252 Les encodeurs ScalaUDF dans la sous-requête doivent être résolus
- SPARK-53244 Ne stockez pas les confs activés à double exécution et en mode provisoire activé lors de la création de l’affichage
- SPARK-53192 Toujours mettre en cache une source de données dans le cache du plan Spark Connect
- SPARK-51813 Ajouter un DefaultCachedBatchKryoSerializer nonullable pour éviter la propagation null dans DefaultCachedBatch serde
- SPARK-52904 Réapply "[SC-202233][python] Enable convertToArrowArrayS...
-
SPARK-53253 Correction de l’inscription de la fonction UDF de type
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 Répertorier les types d’évaluation pris en charge dans les nœuds de direction
-
SPARK-53130 Corriger le
toJsoncomportement des types de chaînes compilés -
SPARK-53003 Prise en charge
stripdansSparkStringUtils - SPARK-51902 Synchroniser OSS : Appliquer la contrainte de vérification lors de l’insertion de table
- SPARK-52047 Déclencher PySparkValueError pour les types de tracés non pris en charge
-
SPARK-53004 Prise en charge
abbreviatedansSparkStringUtils - SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
- SPARK-30848 Supprimer productHash de TreeNode
-
SPARK-53046 Utiliser Java
readAllBytesau lieu deIOUtils.toByteArray -
SPARK-53206 Utiliser
SparkFileUtils.moveau lieu decom.google.common.io.Files.move - SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
- SPARK-53069 Corriger les métriques de magasin d’état incorrectes avec les familles de colonnes virtuelles
- SPARK-52904 Activer convertToArrowArraySafely par défaut [17.x]
- Spark-52821 ajouter int-DecimalType> pyspark udf type de contrainte de type de retour
-
SPARK-51562 Ajouter une
timefonction - SPARK-52971 Limiter la taille de file d’attente de travail Python inactive
-
SPARK-53057 Prise en charge et prise en
sizeOfchargeSparkFileUtilsJavaUtils - SPARK-53040 Interdire les références auto à l’intérieur des CTEs les plus hauts dans les CTEs récursives
- SPARK-53104 Introduire ansi_mode_context pour éviter plusieurs vérifications de configuration par appel d’API
-
SPARK-47547 Ajouter
BloomFilterV2 et l’utiliser comme valeur par défaut -
SPARK-53098
DeduplicateRelationsne doit pas remapiser les expressions si l’ancienneExprIdexiste toujours dans la sortie -
SPARK-53049 Prise en charge
toStringdansSparkStreamUtils -
SPARK-53062 Prise en charge et prise en
deleteQuietlychargeSparkFileUtilsJavaUtils -
SPARK-53070 Prise en charge
is(Not)?EmptydansSparkCollectionUtils - SPARK-53020 Les arguments JPMS doivent également s’appliquer au processus non-SparkSubmit
- SPARK-52968 Émettre des métriques de magasin d’état supplémentaires
- SPARK-52975 Simplifier les noms de champs dans la jointure pushdown sql
- SPARK-52926 Ajout de SQLMetric pour la durée de récupération de schéma à distance.
- SPARK-53059 Flèche UDF pas besoin de dépendre des pandas
-
SPARK-52646 Éviter CAST_INVALID_INPUT en
__eq__mode ANSI -
SPARK-52622 Éviter CAST_INVALID_INPUT en
DataFrame.meltmode ANSI - SPARK-52985 Déclencher TypeError pour l’opérande numpy pandas dans les opérateurs de comparaison
-
SPARK-52580 Éviter CAST_INVALID_INPUT en
replacemode ANSI - SPARK-52549 Désactiver les références auto-références CTE récursives à partir des fonctions de fenêtre et à l’intérieur des tris
-
SPARK-52895 N’ajoutez pas d’éléments en double dans
resolveExprsWithAggregate - SPARK-50748 Résolution d’un problème de condition de concurrence qui se produit lorsque les opérations sont interrompues
- SPARK-52737 Prédicat pushdown et nombre d’applications sur FsHistoryProvider lors de la liste des applications
- SPARK-53018 ArrowStreamArrowUDFSerializer doit respecter l’argument arrow_cast
- SPARK-53013 Correction de l’UDTF Python optimisé pour les flèches retournant aucune ligne sur la jointure latérale
- SPARK-51834 Synchroniser OSS : prise en charge de la contrainte de table de bout en bout alter add/drop
- SPARK-52921 Spécifier outputPartitioning pour UnionExec pour le même partitoning de sortie que les opérateurs enfants
- SPARK-52908 Empêcher que le nom de la variable itérateur soit en conflit avec les noms d’étiquettes dans le chemin d’accès à la racine d’AST
- SPARK-52954 La fonction UDF de direction prend en charge le forçage du type de retour
- SPARK-52925 Renvoyer un message d’erreur correct pour les références d’auto-ancrage dans les RCTEs
- SPARK-52889 Implémenter la fonction current_time dans PySpark
- SPARK-52675 Interrompre les gestionnaires ML suspendus dans les tests
- SPARK-52959 Prise en charge de l’UDT dans Python UDTF optimisé par flèche
- SPARK-52962 BroadcastExchangeExec ne doit pas réinitialiser les métriques
- SPARK-52956 Conserver les métadonnées d’alias lors de la réduction des projets
- SPARK-52890 Implémenter les fonctions to_time et try_to_time dans PySpark
- SPARK-52888 Implémenter la fonction make_time dans PySpark
- SPARK-52892 Prendre en charge time dans les fonctions heure, minute et seconde dans PySpark
- SPARK-52837 Prise en charge de TimeType dans pyspark
- SPARK-52023 Corriger l’altération des données/segfault retournant Option[Produit] à partir d’udaf
- SPARK-52955 Modifier les types de retour de WindowResolution.resolveOrder et WindowResolution.resolveFrame en WindowExpression
- SPARK-52166 Ajouter la prise en charge de PipelineEvents
- SPARK-51834 Correctif : supprimer valide de toDDL
- SPARK-52735 Corriger les conditions d’erreur manquantes pour les fonctions définies par l’utilisateur SQL
- SPARK-51834 Synchroniser la table de création/remplacement de bout en bout du support OSS par contrainte
- SPARK-51834 Synchroniser les appels nonapply de la mise à jour d’OSS ResolvedIdentifier
- SPARK-52929 Prise en charge du connecteur MySQL et SQLServer pour le pushdown de jointure DSv2
- SPARK-52448 Ajouter une expression.littérale struct simplifiée
- SPARK-52882 Implémenter la fonction current_time dans Scala
- SPARK-52905 Flèche UDF pour la fenêtre
-
SPARK-52876 Correction d’une faute de frappe
bufferdansbodyChunkFetchSuccess.toString - SPARK-52883 Implémenter les fonctions to_time et try_to_time dans Scala
-
SPARK-52751 Ne validez pas avec impatience le nom de colonne dans
dataframe['col_name'] - SPARK-52791 Corriger l’erreur lors de l’inférence d’un UDT avec un premier élément Null
-
SPARK-52686
Unionne doit être résolu que s’il n’y a pas de doublons - SPARK-52881 Implémenter la fonction make_time dans Scala
- SPARK-52919 Correction du pushdown de jointure DSv2 pour utiliser la colonne précédemment aliasée
-
SPARK-52866 Ajouter une prise en charge pour
try_to_date - SPARK-52846 Ajoutez une métrique dans JDBCRDD pendant combien de temps il faut pour extraire le jeu de résultats
- SPARK-52859 Ajouter la caractéristique SparkSystemUtils
- SPARK-52823 Prise en charge du pushdown de jointure DSv2 pour le connecteur Oracle
- SPARK-52165 Configurer la génération de modèles de génération pour le projet pipelines
- SPARK-52869 Ajouter la validation FrameLessOffsetWindowFunction à validateResolvedWindowExpression pour la réutilisation dans l’analyseur à passe unique
- SPARK-52885 Implémenter les fonctions d’heure, de minute et de seconde dans Scala pour le type TIME
- SPARK-52903 Découper les alias de niveau supérieur avant la résolution LCA
- SPARK-52832 Correction du guillemet d’identificateur de dialecte JDBC
-
SPARK-52870 Guillemets corrects noms de variables dans l’instruction
FOR -
SPARK-52859 Ajouter une
SparkSystemUtilscaractéristique -
SPARK-52900 Utiliser
SparkStringUtils.stringToSeqdansFsHistoryProvider - SPARK-52809 Ne pas contenir de références de lecteur et d’itérateur pour toutes les partitions des écouteurs d’achèvement des tâches pour la mise à jour des métriques
-
SPARK-52815 Améliorer
SparkClassUtilsla prise en chargegetAllInterfaces - SPARK-52795 Inclure runId dans les journaux du magasin d’états
- SPARK-52779 Prise en charge du littéral TimeType dans Connect
- SPARK-52899 Correction du test QueryExecutionErrorsSuite pour inscrire H2Dialect
-
SPARK-52862 Correction de la vérification de la nullabilité de
Decimal('NaN') - SPARK-52214 Flèche UDF pour l’agrégation
- SPARK-52787 Réorganiser l’exécution de streaming dir autour des zones d’exécution et de point de contrôle
- SPARK-51564 Analyse TIME au format horloge de 12 heures
-
SPARK-52859 Ajouter une
SparkSystemUtilscaractéristique -
SPARK-51562 Ajouter une
timefonction - SPARK-52850 Ignorer les conversions d’appels si la fonction d’identité
- SPARK-52863 Nettoyer les chemins de code pour les anciennes versions de pandas
- SPARK-52516 Ne conservez pas la référence d’itérateur précédente après l’avancement vers le fichier suivant dans ParquetPartitionReaderFactory
-
SPARK-52848 Évitez d’effectuer un
Doublecast dans la conversion de TIME/TIMESTAMP en DECIMAL -
SPARK-52770 Type de prise en charge
TIMEdans le proto de connexion - SPARK-52842 Nouvelles fonctionnalités et correctifs de bogues pour l’analyseur à passe unique
- SPARK-52620 Prise en charge du cast de TIME sur DECIMAL
- SPARK-52783 Refactoriser la logique de validation windowFunction à partir de checkAnalysis pour la réutilisation dans l’analyseur à passe unique
- SPARK-51695 Synchroniser la table de création/remplacement/modification du système d’exploitation pour une contrainte unique via DSv2
- SPARK-51695 Synchroniser la contrainte de suppression OSS via DSv2
- SPARK-52824 Classification des erreurs CheckpointFileManager
- SPARK-52829 Correction de LocalDataToArrowConversion.convert pour gérer correctement les lignes vides
- SPARK-52811 Optimiser ArrowTableToRowsConversion.convert pour améliorer ses performances
- SPARK-52796 Optimiser LocalDataToArrowConversion.convert pour améliorer ses performances
- SPARK-51695 Synchroniser les modifications apportées à l’analyseur de contraintes ALTER Table OSS
- SPARK-52619 Cast TimeType en IntegralType
- SPARK-52187 Présentation du pushdown de jointure pour DSv2
- SPARK-52782 Retourner NULL à partir de +/- à datetime avec NULL
- SPARK-51695 Introduire les modifications de l’analyseur pour les contraintes de table (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationsdoit être positif - SPARK-52776 Ne fractionnez pas le champ comm dans ProcfsMetricsGetter
-
SPARK-52793 Support
isUnixà l’adresseo.a.s.util.Utils -
SPARK-52792 Supprimer la
commons-lang3dépendance denetwork-common -
SPARK-52797 Utiliser
Utils.isWindowsau lieu de réévaluer dansPythonWorkerFactory - SPARK-52784 Ajouter un cast TimeZoneAware dans WindowFrameTypeCoercion.createBoundaryCast
- SPARK-52725 Retarder l’initialisation du gestionnaire de profils de ressources jusqu’à ce que le plug-in soit chargé
- SPARK-52565 Appliquer la résolution ordinale avant d’autres expressions d’ordre de tri
- SPARK-52740 Correction de NPE dans HDFSBackedStateStoreProvider accédant à StateStoreConf.sqlConf lorsque la version du format de point de contrôle est >=2
- SPARK-52673 Ajouter la gestion grpc RetryInfo aux stratégies de nouvelle tentative Spark Connect
- SPARK-52724 Améliorer la gestion des erreurs de jointure de diffusion OOM avec SHUFFLE_MERGE prise en charge des indicateurs
- SPARK-52781 Correction de la faute de frappe dtyeps dans internal.py
- SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
- SPARK-52727 Refactoriser la résolution de fenêtre afin de la réutiliser dans l’analyseur à passe unique
- SPARK-52695 Prise en charge de l’écriture de type défini par l’utilisateur pour le format de fichier xml
- SPARK-52722 Déprécier la classe JdbcRDD
- SPARK-51695 Introduire les modifications de l’analyseur pour les contraintes de table (CHECK, PK, FK)
- SPARK-52763 Prise en charge de la soustraction TIME
- SPARK-52768 Correction de la faute de frappe « déplacement » dans pandas/series.py
- SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
-
SPARK-52694 Ajouter une
o.a.s.sql.Encoders#udtAPI -
SPARK-52720 Correction de l’élargissement du type float32 sous
add/raddANSI - SPARK-52723 Validation du nom de colonne côté serveur
-
SPARK-52760 Correction de l’élargissement du type float32 sous
sub/rsubANSI -
SPARK-52738 Prise en charge de l’agrégation du type TIME avec un UDAF lorsque la mémoire tampon sous-jacente est une
UnsafeRow - SPARK-52704 Simplifier les interopérations entre les options SQLConf et de format de fichier dans TextBasedFileFormats
- SPARK-52706 Corriger les incohérences et les types primitifs refactorisables dans l’analyseur
-
SPARK-52718 Correction de l’élargissement du type float32 sous
rmod/modANSI - SPARK-52736 Correction des fautes de frappe « déplacement » dans pyspark/pandas/generic.py
Prise en charge du pilote ODBC/JDBC d'Azure Databricks
Azure Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).
Environnement du système
- Système d’exploitation : Ubuntu 24.04.3 LTS
- Java : Zulu17.58+21-CA
- Scala : 2.13.16
- Python : 3.12.3
- R : 4.4.2
- Delta Lake : 4.0.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flèche | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attributs | 24.3.0 |
| commande automatique | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob (service de stockage de blobs Azure) | 12.23.0 | Azure Storage File Data Lake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | bellesoupe4 | 4.12.3 | black | 24.10.0 |
| bleach | 6.2.0 | clignotant | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| cliquez | 8.1.7 | cloudpickle | 3.0.0 | comm | 0.2.1 |
| contourpy | 1.3.1 | cryptographie | 43.0.3 | cycliste | 0.11.0 |
| Cython | 3.0.12 | Kit de développement logiciel Databricks (SDK) | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | décorateur | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | Conversion de docstring en markdown | 0.11 |
| executing | 0.8.3 | aperçu des facettes | 1.1.1 | fastapi | 0.115.12 |
| validation rapide des schémas JSON (fastjsonschema) | 2.21.1 | verrou de fichier | 3.18.0 | outils de police | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| google-cloud-core | 2.4.3 | google-cloud-storage (Stockage dans le cloud de Google) | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| spécifications du schéma JSON | 2023.7.1 | événements Jupyter | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | serveur Jupyter | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny (version légère de mlflow) | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions | 0.53b1 | remplace | 7.4.0 | empaquetage | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| pillow | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | référencement | 0.30.2 | requests | 2.32.3 |
| RFC3339 validateur | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| corde | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.15.1 |
| seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | données en pile | 0.2.0 | starlette | 0.46.2 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.14.4 | strictyaml | 1.7.3 | ténacité | 9.0.0 |
| terminé | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornade | 6.4.2 |
| Traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unattended-upgrades | 0.1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 24.11.1 | webencodings | 0.5.1 |
| websocket-client | 1.8.0 | c’est quoi le patch | 1.0.2 | roue | 0.45.1 |
| widgetsnbextension | 3.6.6 | wrapt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l'instantané CRAN du gestionnaire de packages en date du 20-03-2025.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 19.0.1 | Askpass | 1.2.1 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | objet BLOB | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | balai | 1.0.7 |
| bslib | 0.9.0 | cachemire | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | chron | 2.3-62 |
| classe | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| horloge | 0.7.2 | cluster | 2.1.6 | codetools | 0,2-20 |
| espace colorimétrique | 2.1-1 | commonmark | 1.9.5 | compilateur | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | credentials | 2.0.2 | friser | 6.4.0 |
| data.table | 1.17.0 | ensembles de données | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagramme | 1.6.5 | diffobj | 0.3.5 | digérer | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | ellipse | 0.3.2 | évaluer | 1.0.3 |
| fans | 1.0.6 | couleurs | 2.1.2 | carte rapide | 1.2.0 |
| fontawesome | 0.5.3 | condamnés | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.5 |
| futur | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| produits génériques | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | colle | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| graphisme | 4.4.2 | grDevices | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | hardhat | 1.4.1 | haven | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | outils HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | itérateurs | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | étiquetage | 0.4.3 |
| plus tard | 1.4.1 | lattice | 0.22-5 | lave | 1.8.1 |
| cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | méthodes | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.3.3 | parallèle | 4.4.2 |
| parallèlement | 1.42.0 | pilier | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.9 | éloge | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | progrès | 1.2.3 |
| progressr | 0.15.1 | promesses | 1.3.2 | proto | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest (algorithme d'apprentissage automatique) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | réactif | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl | 1.4.5 |
| recettes | 1.2.0 | match retour | 2.0.0 | revanche2 | 2.1.2 |
| remotes | 2.5.0 | exemple reproductible | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| écailles | 1.3.0 | selectr | 0,4-2 | informations sur la session | 1.2.3 |
| forme | 1.4.6.1 | brillant | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiques | 4.4.2 | statistiques4 | 4.4.2 |
| chaine | 1.8.7 | stringr | 1.5.1 | survie | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | mise en forme de texte | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | changement d'heure | 0.3.0 | date-heure | 4041.110 |
| tinytex | 0.56 | outils | 4.4.2 | tzdb | 0.5.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 3.1.0 | utf8 | 1.2.6 |
| utilitaires | 4.4.2 | Identifiant unique universel (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.5 |
| Waldo | 0.6.1 | vibrisse | 0.4.1 | flétrir | 3.0.2 |
| xfun | 0,51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.13)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | ruisseau | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | goyave | 33.4.0-jre |
| com.google.guava | listenablefuture | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profileur | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | annotation des métriques | 4.2.30 |
| io.dropwizard.metrics | métriques de base | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | servlets de métriques | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | transport-netty-natif-commun-unix | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | collectionneur | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1,5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | vecteur-flèche | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.13.0 |
| org.apache.curator | curator-client | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | curator-recipes | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.10 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.53.v20231009 |
| org.eclipse.jetty | serveur jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-webapp | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenèse | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Conseil / Astuce
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.