Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 14.1, propulsées par Apache Spark 3.5.0.
Databricks a publié cette version en octobre 2023.
Nouvelles fonctionnalités et améliorations
- array_insert() est basé sur 1 pour les index négatifs
- Les points de contrôle Delta v2 sont activés par défaut avec un clustering liquide
- Supprimer la fonctionnalité de table Delta en préversion publique
- Partage Delta : les destinataires peuvent effectuer des requêtes par lots sur des tables partagées avec des vecteurs de suppression (Aperçu Public)
- Delta Sharing: les destinataires peuvent effectuer des requêtes par lots sur des tables partagées avec le mappage de colonnes (aperçu public)
- Diffuser en continu à partir des affichages du Catalogue Unity en préversion publique
- Connecteur Apache Pulsar en préversion publique
- Pilote Snowflake mis à niveau
- Variables de session SQL
- Invocation de paramètre nommé pour les UDF SQL et Python.
- Les arguments de table pour les fonctions prennent en charge le partitionnement et l’ordre.
- Fonctions SQL intégrées nouvelles et améliorées
- Gestion améliorée des sous-requêtes corrélées
array_insert() est basé sur 1 pour les index négatifs
La array_insert fonction est basée sur 1 pour les index positifs et négatifs. Il insère maintenant un nouvel élément à la fin des tableaux d’entrée pour l’index -1. Pour restaurer le comportement précédent, définissez spark.sql.legacy.negativeIndexInArrayInsert sur true.
Les points de contrôle Delta v2 sont activés par défaut avec un clustering liquide
Les tables Delta nouvellement créées avec clustering liquide utilisent des points de contrôle v2 par défaut. Consultez Compatibilité pour les tables avec un groupement liquide.
Supprimer la fonctionnalité de table Delta en préversion publique
Vous pouvez maintenant supprimer certaines fonctionnalités de table pour les tables Delta. La prise en charge actuelle inclut l’annulation de deletionVectors et de v2Checkpoint. Consultez Supprimer une fonctionnalité de table Delta Lake et passer à une version antérieure du protocole de table.
Partage Delta : les destinataires peuvent effectuer des requêtes par lots sur des tables partagées avec des vecteurs de suppression (aperçu public)
Les destinataires de partage delta peuvent désormais effectuer des requêtes par lots sur des tables partagées qui utilisent des vecteurs de suppression. Consultez Ajouter des tables avec des vecteurs de suppression ou le mappage de colonnes à un partage, Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés et Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés.
Partage Delta : les destinataires peuvent effectuer des requêtes par lots sur des tables partagées avec le mappage de colonnes (version préliminaire publique)
Les destinataires du partage Delta peuvent désormais effectuer des requêtes par lots sur des tables partagées qui utilisent le mappage de colonnes. Consultez Ajouter des tables avec des vecteurs de suppression ou le mappage de colonnes à un partage, Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés et Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés.
Diffusion en continu à partir des affichages du Catalogue Unity en préversion publique
Vous pouvez désormais utiliser Structured Streaming pour effectuer des lectures de streaming à partir de vues inscrites auprès du catalogue Unity. Azure Databricks prend uniquement en charge les lectures en continu de vues définies sur des tables Delta.
Connecteur Apache Pulsar en préversion publique
Vous pouvez désormais utiliser Structured Streaming pour diffuser en continu des données à partir d’Apache Pulsar sur Azure Databricks. Consultez Diffuser en continu à partir d’Apache Pulsar.
Pilote Snowflake mis à niveau
Le pilote JDBC Snowflake utilise désormais la version 3.13.33.
Variables de session SQL
Cette version introduit la possibilité de déclarer des variables temporaires dans une session qui peuvent être définies, puis référencées à partir de requêtes. Consultez les variables .
Invocation de paramètre nommé pour SQL et Python UDF.
Vous pouvez maintenant utiliser l’appel de paramètres nommés sur les fonctions UDF SQL et Python.
Les arguments de table pour les fonctions prennent en charge le partitionnement et l’ordre.
Vous pouvez désormais utiliser PARTITION BY et ORDER BY clauses pour contrôler la façon dont les arguments de table sont passés à une fonction pendant l’appel de fonction.
Fonctions SQL intégrées nouvelles et améliorées
Les fonctions intégrées suivantes ont été ajoutées :
-
from_xml : analyse un code XML
STRINGdans unSTRUCT. -
schema_of_xml : dérive un schéma à partir d’un code XML
STRING. - session_user : retourne l’utilisateur connecté.
-
try_reflect : retourne
NULLau lieu de l’exception si une méthode Java échoue.
Les fonctions intégrées suivantes ont été améliorées :
- mode : prise en charge d’un paramètre facultatif forçant un résultat déterministe.
-
to_char : Nouvelle prise en charge pour
DATE,TIMESTAMPetBINARY. -
to_varchar : Nouvelle prise en charge pour
DATE,TIMESTAMPetBINARY.
Gestion améliorée des sous-requêtes corrélées
La possibilité de traiter la corrélation dans les sous-requêtes a été étendue :
- Gérez la limite et l’ordre de tri dans des sous-requêtes scalaires (latérales) corrélées.
- Prise en charge des fonctions de fenêtre dans les sous-requêtes scalaires corrélées.
- Prendre en charge des références corrélées dans les prédicats de jointure pour les sous-requêtes scalaires et latérales
Changement de comportement
Vérification de type stricte dans le lecteur Photon Parquet
Photon échoue lorsqu'il tente de lire une valeur décimale à partir d'une colonne Parquet qui n'est pas de type décimal. Photon échoue également lors de la lecture d’un tableau d’octets de longueur fixe sous forme de chaîne issu de Parquet.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- filelock de la version 3.12.2 vers la version 3.12.3
- s3transfer de la version 0.6.1 vers la version 0.6.2
- Bibliothèques Java mises à niveau :
- com.uber.h3 de 3.7.0 à 3.7.3
- io.airlift.aircompressor de la version 0.24 vers la version 0.25
- io.delta.delta-sharing-spark_2.12 de 0.7.1 à 0.7.5
- io.netty.netty-all de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-buffer de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-codec de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-codec-http de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-codec-http2 de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-codec-socks de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-common de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-handler de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-handler-proxy de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-resolver de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-transport de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-transport-classes-epoll de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-transport-classes-kqueue de la version 4.1.93.Final vers la version 4.1.96.Final
- io.netty.netty-transport-native-epoll de la version 4.1.93.Final-linux-x86_64 vers la version 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de la version 4.1.93.Final-osx-x86_64 vers la version 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de la version 4.1.93.Final vers la version 4.1.96.Final
- net.snowflake.snowflake-jdbc de la version 3.13.29 vers la version 3.13.33
- org.apache.orc.orc-core de la version 1.9.0-shaded-protobuf vers la version 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce de la version 1.9.0-shaded-protobuf vers la version 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims de la version 1.9.0 vers la version 1.9.1
Apache Spark
Databricks Runtime 14.1 inclut Apache Spark 3.5.0. Cette version inclut tous les correctifs spark et les améliorations inclus dans Databricks Runtime 14.0 (EoS), ainsi que les correctifs de bogues supplémentaires suivants et les améliorations apportées à Spark :
- [SPARK-45088] [DBRRM-557] Rétablir « [SC-142785][python][CONNECT] Faire fonctionner getitem avec les colonnes dupliquées »
-
[SPARK-43453] [DBRRM-557] Annuler « [SC-143135][ps] Ignorer les
namesdeMultiIndexquandaxis=1pourconcat» - [SPARK-45225] [SC-143207][sql] XML : prise en charge de l’URL du fichier XSD
-
[SPARK-45156] [SC-142782][sql] Envelopper
inputNameavec des accents graves dans la classe d’erreurNON_FOLDABLE_INPUT - [SPARK-44910] [SC-143082][sql] Encoders.bean ne prend pas en charge les superclasses avec des arguments de type générique
-
[SPARK-43453] [SC-143135][ps] Ignorer le
namesdeMultiIndexlors deaxis=1pourconcat - [SPARK-44463] [SS][CONNECT] Améliorer la gestion des erreurs pour Connect qui diffuse en continu un Worker Python
- [SPARK-44960] [SC-141023][ui] Résumé des erreurs unescape et consist dans les pages de l’IU
- [SPARK-44788] [SC-142980][connect][PYTHON][sql] Ajouter from_xml et schema_of_xml à pyspark, spark connect et sql function
- [SPARK-44614] [SC-138460][python][CONNECT][3.5] Ajouter des packages manquants dans setup.py
- [SPARK-45151] [SC-142861][core][UI] Prise en charge de la sauvegarde de thread au niveau des tâches
- [SPARK-45056] [SC-142779][python][SS][connect] Tests d’arrêt pour streamingQueryListener et foreachBatch
- [SPARK-45084] [SC-142828][ss] StateOperatorProgress doit utiliser un numéro de partition aléatoire effectif précis
- [SPARK-44872] [SC-142405][connect] Infrastructure de test du serveur et ReattachableExecuteSuite
-
[SPARK-45197] [SC-142984][core] Faire en sorte que
StandaloneRestServerajouteJavaModuleOptionsaux pilotes - [SPARK-44404] [SC-139601][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[1009,1010,1013,1015,1016,1278]
- [SPARK-44647] [SC-142297][sql] Prise en charge de SPJ où les clés de jointure sont inférieures aux clés de cluster
-
[SPARK-45088] [SC-142785][python][CONNECT] Rendre
getitemcompatible avec les colonnes dupliquées -
[SPARK-45128] [SC-142851][sql] Prendre en charge
CalendarIntervalTypedans Arrow - [SPARK-45130] [SC-142976][connect][ML][python] Éviter le modèle ML Spark Connect pour modifier le dataframe Pandas d’entrée
- [SPARK-45034] [SC-142959][sql] Supporter la fonction en mode déterministe
- [SPARK-45173] [SC-142931][ui] Supprimer certains fichiers sourceMapping inutiles dans l’interface utilisateur
-
[SPARK-45162] [SC-142781][sql] Prendre en charge les mappages et paramètres de tableau construits via
call_function - [SPARK-45143] [SC-142840][python][CONNECT] Rendre PySpark compatible avec PyArrow 13.0.0
-
[SPARK-45174] [SC-142837][core] Prendre en charge
spark.deploy.maxDrivers -
[SPARK-45167] [SC-142956][connect][PYTHON] Le client Python doit appeler
release_all - [SPARK-36191] [SC-142777][sql] Gérer la limite et l’ordre dans les sous-requêtes scalaires corrélées (latérales)
- [SPARK-45159] [SC-142829][python] Gérer les arguments nommés uniquement si nécessaire
- [SPARK-45133] [SC-142512][connect] Rendre les requêtes Spark Connect terminées lorsque la dernière tâche de résultat est terminée
- [SPARK-44801] [SC-140802][sql][UI] Capturer l’analyse des requêtes ayant échoué dans l’écouteur et l’interface utilisateur
- [SPARK-45139] [SC-142527][sql] Ajouter DatabricksDialect pour gérer la conversion de type SQL
-
[SPARK-45157] [SC-142546][sql] Éviter les vérifications répétées
ifdans[On|Off|HeapColumnVector - [SPARK-45077] Rétablir « [SC-142069][ui] Mettre à niveau dagre-d3.js de 04.3 à 0.6.4 »
- [SPARK-45145] [SC-142521][exemple] Ajouter un exemple JavaSparkSQLCli
-
[SPARK-43295] Annuler « [SC-142254][ps] Prendre en charge les colonnes de type chaîne pour
DataFrameGroupBy.sum» - [SPARK-44915] [SC-142383][core] Valider la somme de vérification des données de shuffle du PVC remonté avant la récupération
-
[SPARK-45147] [SC-142524][core] Supprimer l’utilisation de
System.setSecurityManager -
[SPARK-45104] [SC-142206][ui] Upgrade
graphlib-dot.min.jsto 1.0.2 -
[SPARK-44238] [SC-141606][core][SQL] Introduction d’une nouvelle
readFromméthode avec une entrée de tableau d’octets pourBloomFilter -
[SPARK-45060] [SC-141742][sql] Correction d'une erreur interne dans le format
to_char()NULL -
[SPARK-43252] [SC-142381][sql] Remplacer la classe
_LEGACY_ERROR_TEMP_2016d’erreur par une erreur interne - [SPARK-45069] [SC-142279][sql] La variable SQL doit toujours être résolue après référence externe
- [SPARK-44911] [SC-142388][sql] Créer une table hive avec une colonne non valide doit retourner la classe d’erreur
- [SPARK-42754] [SC-125567][sql][UI] Résoudre le problème de compatibilité descendante dans l’exécution imbriquée de SQL
-
[SPARK-45121] [SC-142375][connect][PS] Prendre en charge
Series.emptypour Spark Connect. - [SPARK-44805] [SC-142203][sql] getBytes/getShorts/getInts/etc. doit fonctionner dans un vecteur de colonne qui a un dictionnaire
-
[SPARK-45027] [SC-142248][python] Masquer les fonctions/variables internes dans
pyspark.sql.functionsà partir de la saisie semi-automatique -
[SPARK-45073] [SC-141791][ps][CONNECT] Remplacer
LastNotNullparLast(ignoreNulls=True) - [SPARK-44901] [SC-141676][sql] Rétroportage manuel : Ajouter une API dans la méthode « analyser » UDTF en Python pour retourner des expressions de partitionnement et de tri.
-
[SPARK-45076] [SC-141795][ps] Basculer vers la fonction intégrée
repeat - [SPARK-44162] [SC-141605][core] Prendre en charge G1GC dans les indicateurs de performance Spark
- [SPARK-45053] [SC-141733][python][MINOR] Amélioration de la journalisation en cas d'incompatibilité de version Python
-
[SPARK-44866] [SC-142221][sql] Ajouter
SnowflakeDialectpour gérer correctement le type BOOLEAN -
[SPARK-45064] [SC-141775][python][CONNECT] Ajouter le paramètre manquant
scaledansceil/ceiling -
[SPARK-45059] [SC-141757][connect][PYTHON] Ajouter des
try_reflectfonctions à Scala et Python -
[SPARK-43251] [SC-142280][sql] Remplacer la classe
_LEGACY_ERROR_TEMP_2015d’erreur par une erreur interne - [SPARK-45052] [SC-141736][sql][PYTHON][connect] Faire en sorte que le nom des colonnes en sortie des alias de fonction soit cohérent avec SQL
- [SPARK-44239] [SC-141502][sql] Mémoire libre allouée par de grands vecteurs lorsque les vecteurs sont réinitialisés
-
[SPARK-43295] [SC-142254][ps] Prendre en charge les colonnes de type chaîne pour
DataFrameGroupBy.sum - [SPARK-45080] [SC-142062][ss] Appeler explicitement la prise en charge des colonnes dans les sources de données de diffusion en continu DSv2
- [SPARK-45036] [SC-141768][sql] SPJ : Simplifier la logique pour gérer la distribution partiellement en cluster
- [SPARK-45077] [SC-142069][ui] Mettre à niveau dagre-d3.js de 0.4.3 à 0.6.4
-
[SPARK-45091] [SC-142020][python][CONNECT][sql] Fonction
floor/round/broundaccepte le type de colonnescale -
[SPARK-45090] [SC-142019][python][CONNECT]
DataFrame.{cube, rollup}doit prendre en charge les numéros de colonne -
[SPARK-44743] [SC-141625][sql] Ajouter la fonction
try_reflect - [SPARK-45086] [SC-142052][ui] Afficher en hexadécimal le code de hachage de verrou de thread
- [SPARK-44952] [SC-141644][sql][PYTHON] Prendre en charge les arguments nommés dans les UDF agrégées de Pandas
-
[SPARK-44987] [SC-141552][sql] Affecter un nom à la classe d’erreur
_LEGACY_ERROR_TEMP_1100 -
[SPARK-45032] [SC-141730][connect] Correction des avertissements de compilation liés à
Top-level wildcard is not allowed and will error under -Xsource:3 - [SPARK-45048] [SC-141629][connect] Ajouter des tests supplémentaires pour le client Python et l’exécution attachable
- [SPARK-45072] [SC-141807][connect] Corriger les étendues externes pour les classes d’ammonite
-
[SPARK-45033] [SC-141759][sql] Prendre en charge les cartes par
sql()paramétrisé -
[SPARK-45066] [SC-141772][sql][PYTHON][connect] Adapter la fonction
repeatpour accepter le type de colonnen - [SPARK-44860] [SC-141103][sql] Ajouter SESSION_USER fonction
-
[SPARK-45074] [SC-141796][python][CONNECT]
DataFrame.{sort, sortWithinPartitions}doit prendre en charge les numéros de colonne -
[SPARK-45047] [SC-141774][python][CONNECT]
DataFrame.groupBydoit prendre en charge les nombres ordinaux - [SPARK-44863] [SC-140798][ui] Ajouter un bouton pour télécharger le dump de thread en tant que fichier texte dans l'interface de Spark
-
[SPARK-45026] [SC-141604][connect]
spark.sqldoit prendre en charge les types de données non compatibles avec la flèche -
[SPARK-44999] [SC-141145][core] Refactoriser
ExternalSorterpour réduire les vérificationsshouldPartitionlors de l’appelgetPartition -
[SPARK-42304] [SC-141501][sql] Renommer
_LEGACY_ERROR_TEMP_2189enGET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION - [SPARK-43781] [SC-139450][sql] Fix IllegalStateException lors du regroupement de deux jeux de données dérivés de la même source
- [SPARK-45018] [SC-141516][python][CONNECT] Ajouter CalendarIntervalType au client Python
- [SPARK-45024] [SC-141513][python][CONNECT] Filtrer certaines configurations dans la création de session
-
[SPARK-45017] [SC-141508][python] Ajouter
CalendarIntervalTypeà PySpark - [SPARK-44720] [SC-139375][connect] Faire en sorte que Dataset utilise Encoder au lieu de AgnosticEncoder
- [SPARK-44982] [SC-141027][connect] Marquer les configurations du serveur Spark Connect comme statiques
- [SPARK-44839] [SC-140900][ss][CONNECT] Meilleure journalisation des erreurs lorsque l’utilisateur tente de sérialiser une session Spark
- [SPARK-44865] [SC-140905][ss] Faire en sorte que StreamingRelationV2 prenne en charge la colonne de métadonnées
- [SPARK-45001] [SC-141141][python][CONNECT] Mise en œuvre de DataFrame.foreachPartition
- [SPARK-44497] [SC-141017][webui] Afficher l’ID de partition de tâche dans la table de tâches
- [SPARK-45006] [SC-141143][ui] Utilisez le même format de date que d’autres éléments de date d’interface utilisateur pour l’axe x des chronologies
- [SPARK-45000] [SC-141135][python][CONNECT] Implémenter DataFrame.foreach
- [SPARK-44967] [SC-141137][sql][CONNECT] L’unité doit être considérée en premier avant d’utiliser booléen pour TreeNodeTag
-
[SPARK-44993] [SC-141088][core] Ajouter
ShuffleChecksumUtils.compareChecksumsen réutilisantShuffleChecksumTestHelp.compareChecksums - [SPARK-44807] [SC-140176][connect] Ajouter Dataset.metadataColumn à Scala Client
-
[SPARK-44965] [SC-141098][python] Masquer les fonctions/variables internes de
pyspark.sql.functions -
[SPARK-44983] [SC-141030][sql] Convertir le fichier binaire en chaîne
to_charpour les formats :hex,base64,utf-8 - [SPARK-44980] [DBRRM-462] [sc-141024] [PYTHON] [connect] Corriger les namedtuples hérités afin qu’ils fonctionnent dans createDataFrame
- [SPARK-44985] [SC-141033][core] Utilisez toString au lieu de stacktrace pour le faucheur de tâches threadDump.
-
[SPARK-44984] [SC-141028][python][CONNECT] Remove
_get_aliasfrom DataFrame - [SPARK-44975] [SC-141013][sql] Résolution de la suppression du remplacement inutile de BinaryArithmetic
-
[SPARK-44969] [SC-140957][sql] Réutilisation
ArrayInsertdansArrayAppend - [SPARK-44549] [SC-140714][sql] Prise en charge des fonctions de fenêtre dans les sous-requêtes scalaires corrélées
-
[SPARK-44938] [SC-140811][sql] Modifier la valeur par défaut de
spark.sql.maxSinglePartitionBytes128m - [SPARK-44918] [SC-140816][sql][PYTHON] Prendre en charge les arguments nommés dans les UDF Python/Pandas scalaires
-
[SPARK-44966] [SC-140907][core][CONNECT] Remplacer
var(jamais remplacé) parval - [SPARK-41471] [SC-140804][sql] Réduire le shuffle Spark lorsque seulement un côté d'une jointure utilise un partitionnement par regroupement de clés
- [SPARK-44214] [SC-140528][core] Prendre en charge l’IU des journaux en direct de Spark Driver
- [SPARK-44861] [SC-140716][connect] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519][connect] Ajoutez ProducedRowCount à SparkListenerConnectOperationFinished
-
[SPARK-42017] [SC-140765][python][CONNECT]
df['col_name']doit valider le nom de colonne - [SPARK-40178] [SC-140433][sql][CONNECT] Prendre facilement en charge les indicateurs de fusion pour PySpark et R
-
[SPARK-44840] [SC-140593][sql] Rendre
array_insert()1 pour les index négatifs - [SPARK-44939] [SC-140778][r] Prise en charge de Java 21 dans SparkR SystemRequirements
- [SPARK-44936] [SC-140770][core] Simplifiez le journal lorsque Spark HybridStore atteint la limite de mémoire
- [SPARK-44908] [SC-140712][ml][CONNECT] Corriger la fonctionnalité du paramètre foldCol entre validateurs
- [SPARK-44816] [SC-140717][connect] Améliorer le message d’erreur lorsque la classe UDF est introuvable
- [SPARK-44909] [SC-140710][ml] Ignorer le démarrage du serveur de streaming de journaux du distributeur torch lorsqu’il n’est pas disponible
- [SPARK-44920] [SC-140707][core] Utiliser await() au lieu d’awaitUninterruptibly() dans TransportClientFactory.createClient()
- [SPARK-44905] [SC-140703][sql] Stateful lastRegex entraîne NullPointerException lors de l'évaluation de regexp_replace
- [SPARK-43987] [SC-139594][shuffle] Séparer le traitement de finalizeShuffleMerge en pools de threads dédiés
- [SPARK-42768] [SC-140549][sql] Activer le plan mis en cache appliquer AQE par défaut
-
[SPARK-44741] [SC-139447][core] Prendre en charge MetricFilter basé sur regex dans
StatsdSink - [SPARK-44751] [ SC-140532][sql] Implémentation de l’interface FileFormat XML
-
[SPARK-44868] [SC-140438][sql] Convertir datetime en chaîne par
to_char/to_varchar - [SPARK-44748] [SC-140504][sql] Exécution de requête pour la PARTITION clause BY dans les arguments UDTF TABLE
- [SPARK-44873] [SC-140427] Prendre en charge la modification de la vue avec des colonnes imbriquées dans le client Hive
- [SPARK-44876] [SC-140431][python] Correction de la fonction UDF Python optimisée par flèche sur Spark Connect
- [SPARK-44520] [SC-137845][sql] Remplacer le terme UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY par UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY et l’AE racine de divulgation
-
[SPARK-42664] [SC-139769][connect] Prendre en charge la fonction
bloomFilterpourDataFrameStatFunctions -
[SPARK-43567] [SC-139227][ps] Prendre en charge
use_na_sentinelpourfactorize - [SPARK-44859] [SC-140254][ss] Correction d’un nom de propriété incorrect dans la documentation de streaming structuré
- [SPARK-44822] [SC-140182][python][SQL] Rendre les UDTFs Python par défaut non déterministes
- [SPARK-44731] [SC-139524][python][CONNECT] Rendre TimestampNTZ fonctionne avec des littéraux dans Python Spark Connect
- [SPARK-44836] [SC-140180][python] Refactorisation de Arrow Python UDTF
- [SPARK-44714] [SC-139238] Assouplir les restrictions de la résolution d’ECV concernant les requêtes avec having
- [SPARK-44749] [SC-139664][sql][PYTHON] Prendre en charge les arguments nommés dans les UDTF Python
- [SPARK-44737] [SC-139512][sql][UI] Ne pas afficher les erreurs de format JSON sur la page SQL pour les non-SparkThrowables sous l’onglet SQL
- [SPARK-44665] [SC-139307][python] Ajouter la prise en charge de Pandas DataFrame assertDataFrameEqual
- [SPARK-44736] [SC-139622][connect] Ajouter Dataset.explode au client Scala Spark Connect
- [SPARK-44732] [SC-139422][sql] Prise en charge de la source de données XML intégrée
- [SPARK-44694] [SC-139213][python][CONNECT] Refactoriser les sessions actives et les exposer en tant qu’API
- [SPARK-44652] [SC-138881] Déclencher une erreur quand un seul df est à l’état None
- [SPARK-44562] [SC-138824][sql] Ajouter OptimizeOneRowRelationSubquery dans le lot de la sous-requête
- [SPARK-44717] [SC-139319][python][PS] Respecter TimestampNTZ lors du resampling
- [SPARK-42849] [SC-139365] [SQL] Variables de session
-
[SPARK-44236] [SC-139239][sql] Désactiver WholeStageCodegen lorsqu’il est défini
spark.sql.codegen.factoryModesur NO_CODEGEN -
[SPARK-44695] [SC-139316][python] Améliorer le message d’erreur pour
DataFrame.toDF -
[SPARK-44680] [SC-139234][sql] Améliorer l’erreur pour les paramètres dans
DEFAULT - [SPARK-43402] [SC-138321][sql] FileSourceScanExec prend en charge le filtrage de données push avec la sous-requête scalaire
- [SPARK-44641] [SC-139216][sql] Résultat incorrect dans certains scénarios lorsque SPJ n’est pas déclenché
-
[SPARK-44689] [SC-139219][connect] Rendre la gestion des exceptions de la fonction
SparkConnectPlanner#unpackScalarScalaUDFplus universelle -
[SPARK-41636] [SC-139061][sql] Assurez-vous que
selectFiltersles prédicats sont retournés dans l’ordre déterministe -
[SPARK-44132] [SC-139197][sql] Matérialiser le
Streamdes noms de colonnes de jointure pour éviter l’échec de codegen -
[SPARK-42330] [SC-138838][sql] Affecter le nom
RULE_ID_NOT_FOUNDà la classe d’erreur_LEGACY_ERROR_TEMP_2175 - [SPARK-44683] [SC-139214][ss] Le niveau de journalisation n’est pas correctement transmis au fournisseur de store d'état RocksDB.
-
[SPARK-44658] [SC-138868][core]
ShuffleStatus.getMapStatusdoit retournerNoneau lieu deSome(null) - [SPARK-44603] [SC-138353] Ajouter pyspark.testing à setup.py
- [SPARK-44252] [SC-137505][ss] Définir une nouvelle classe d’erreur et appliquer pour le cas où l’état de chargement à partir de DFS échoue
- [SPARK-29497] [DBRRM-396][sc-138477][CONNECT] Lever une erreur lorsque l’UDF n’est pas désérialisable.
- [SPARK-44624] [DBRRM-396][sc-138900][CONNECT] Retry ExecutePlan dans le cas où la requête initiale n’a pas atteint le serveur
- [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Supprimer la dépendance de Connect Client Catalyst
- [SPARK-44059] [SC-138833][sql] Ajouter de meilleurs messages d’erreur pour les arguments nommés SQL
-
[SPARK-44620] [SC-138831][sql][PS][connect] Faire en sorte que
ResolvePivotconservePlan_ID_TAG - [SPARK-43838] [SC-137413][sql] Correction de la sous-requête sur une table unique avec une clause HAVING qui ne peut pas être optimisée.
[SPARK-44555] [SC-138820][sql] Utiliser checkError() pour vérifier l'Exception dans la Suite de commandes & attribuer certains noms de classes d'erreur.- [SPARK-44280] [SC-138821][sql] Ajouter convertJavaTimestampToTimestamp dans l’API JDBCDialect
-
[SPARK-44602] [SC-138337][sql][CONNECT][ps] Faire en sorte que
WidenSetOperationTypesconserve lePlan_ID_TAG - [SPARK-42941] [SC-138389][ss][CONNECT] Python StreamingQueryListener
- [SPARK-43838] Annuler « [SC-137413][sql] Corriger la sous-requête sur une table unique…
- [SPARK-44538] [SC-138178][connect][SQL] Rétablir Row.jsonValue et amis
- [SPARK-44421] [SC-138434][spark-44423][CONNECT] Exécution retachable dans Spark Connect
- [SPARK-43838] [SC-137413][sql] Correction de la sous-requête sur une table unique avec une clause HAVING qui ne peut pas être optimisée.
- [SPARK-44587] [SC-138315][sql][CONNECT] Augmenter la limite de récursivité du marshaller protobuf
- [SPARK-44605] [SC-138338][core] Affiner l’API ShuffleWriteProcessor interne
- [SPARK-44394] [SC-138291][connect][WEBUI] Ajouter une page d’interface utilisateur Spark pour Spark Connect
- [SPARK-44585] [SC-138286][mllib] Correction de la condition d’avertissement dans MLLib RankingMetrics ndcgAk
- [SPARK-44198] [SC-138137][core] Supporter la propagation du niveau de log aux exécuteurs
- [SPARK-44454] [SC-138071][sql][HIVE] HiveShim getTablesByType doit prendre en charge une action de secours
- [SPARK-44425] [SC-138135][connect] Valider que l’ID de session fourni par l’utilisateur est un UUID
-
[SPARK-43611] [SC-138051][sql][PS][connect] Faire en sorte que
ExtractWindowExpressionsconservePLAN_ID_TAG - [SPARK-44560] [SC-138117][python][CONNECT] Améliorer les tests et la documentation pour Arrow Python UDF
- [SPARK-44482] [SC-138067][connect] Le serveur de connexion doit pouvoir spécifier l’adresse de liaison
- [SPARK-44528] [SC-138047][connect] Prise en charge de l’utilisation appropriée de hasattr() pour le dataframe Connect
- [SPARK-44525] [SC-138043][sql] Améliorer le message d’erreur lorsque la méthode Invoke est introuvable
- [SPARK-44355] [SC-137878][sql] Déplacer WithCTE dans les requêtes de commande
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).
Consultez les mises à jour de maintenance Databricks Runtime 14.1.
Environnement du système
- Système d’exploitation : Ubuntu 22.04.3 LTS
- Java : Zulu 8.72.0.17-CA-linux64
- Scala : 2.12.15
- Python : 3.10.12
- R : 4.3.1
- Delta Lake : 3.0.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| anyio | 3.5.0 | cfp2-cffi | 21.3.0 | cfc2-cffi-bindings | 21.2.0 |
| asttokens | 2.0.5 | attributs | 22.1.0 | appel de retour | 0.2.0 |
| bellesoupe4 | 4.11.1 | noir | 22.6.0 | blanchir | 4.1.0 |
| clignotant | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
| certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | cliquez | 8.0.4 | Communication | 0.1.2 |
| contourpy | 1.0.5 | cryptographie | 39.0.1 | cycliste | 0.11.0 |
| Cython | 0.29.32 | Kit de développement logiciel Databricks (SDK) | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | décorateur | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.7 | Conversion de docstring en markdown | 0.11 | points d’entrée | 0,4 |
| Exécution | 0.8.3 | aperçu des facettes | 1.1.1 | validation rapide des schémas JSON (fastjsonschema) | 2.18.0 |
| verrou de fichier | 3.12.3 | outils de police | 4.25.0 | Bibliothèque de runtime de Cloud de la communauté du secteur public (GCC) | 1.10.0 |
| googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
| ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
| ipywidgets (un outil de widgets interactifs pour Python) | 7.7.2 | Jedi | 0.18.1 | Jeepney (véhicule de transport public philippin) | 0.7.1 |
| Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.17.3 | jupyter-client | 7.3.4 | serveur Jupyter | 1.23.4 |
| jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 |
| porte-clés | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
| lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
| MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | désaccorder | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
| nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
| nodeenv | 1.8.0 | carnet de notes | 6.5.2 | notebook_shim | 0.2.2 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | empaquetage | 22.0 |
| Pandas | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
| spécification de chemin | 0.10.3 | dupe | 0.5.3 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Oreiller | 9.4.0 | pépin | 22.3.1 |
| platformdirs | 2.5.2 | tracé | 5.9.0 | enfiché | 1.0.0 |
| prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser | 2.21 |
| pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
| python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 |
| pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
| Requêtes | 2.28.1 | corde | 1.7.0 | s3transfer | 0.6.2 |
| scikit-learn | 1.1.1 | seaborn | 0.12.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 65.6.3 | Six | 1.16.0 |
| sniffio | 1.2.0 | Soupsieve | 2.3.2.post1 | ssh-import-id | 5.11 |
| données en pile | 0.2.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.13.5 | ténacité | 8.1.0 |
| terminé | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornade | 6.1 |
| Traitlets | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
| mises à niveau automatiques | 0.1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | webencodings | 0.5.1 |
| websocket-client | 0.58.0 | c’est quoi le patch | 1.0.2 | roue | 0.38.4 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
| SciPy | 1.10.1 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit le 10-02-2023.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 12.0.1 | Askpass | 1.1 | assertthat | 0.2.1 |
| rétroportage | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| morceau | 4.0.5 | bit 64 | 4.0.5 | objet BLOB | 1.2.4 |
| botte | 1.3-28 | brasser | 1,0-8 | brio | 1.1.3 |
| balai | 1.0.5 | bslib | 0.5.0 | cachemire | 1.0.8 |
| appelant | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
| Chron | 2.3-61 | classe | 7.3-22 | Cli | 3.6.1 |
| Presse-papiers | 0.8.0 | horloge | 0.7.0 | Grappe | 2.1.4 |
| codetools | 0.2-19 | espace colorimétrique | 2.1-0 | commonmark | 1.9.0 |
| compilateur | 4.3.1 | config | 0.3.1 | Conflit | 1.2.0 |
| cpp11 | 0.4.4 | pastel | 1.5.2 | Références | 1.3.2 |
| friser | 5.0.1 | data.table | 1.14.8 | ensembles de données | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Desc | 1.4.2 |
| devtools | 2.4.5 | diagramme | 1.6.5 | diffobj | 0.3.5 |
| digérer | 0.6.33 | éclairage vers le bas | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | ellipse | 0.3.2 |
| évaluer | 0,21 | fans | 1.0.4 | couleurs | 2.1.1 |
| carte rapide | 1.1.1 | fontawesome | 0.5.1 | condamnés | 1.0.0 |
| foreach | 1.5.2 | étranger | 0.8-82 | forger | 0.2.0 |
| Fs | 1.6.2 | futur | 1.33.0 | future.apply | 1.11.0 |
| se gargariser | 1.5.1 | produits génériques | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | globales | 0.16.2 | colle | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| graphisme | 4.3.1 | grDevices | 4.3.1 | grille | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt ;pouvant être | 0.3.3 |
| casque de sécurité | 1.3.0 | havre | 2.5.3 | supérieur | 0.10 |
| Hms | 1.1.3 | outils HTML | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| isoband | 0.2.7 | itérateurs | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1.43 |
| étiquetage | 0.4.2 | plus tard | 1.3.1 | treillis | 0.21-8 |
| lave | 1.7.2.1 | cycle de vie | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.2 | magrittr | 2.0.3 | Markdown | 1.7 |
| MASSE | 7.3-60 | Matrice | 1.5-4.1 | mémorisation | 2.0.1 |
| méthodes | 4.3.1 | mgcv | 1.8-42 | mime | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallèle | 4.3.1 |
| parallèlement | 1.36.0 | pilier | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.8 | éloge | 1.0.0 |
| joliesunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | progrès | 1.2.2 |
| progresseur | 0.13.0 | promesses | 1.2.0.1 | proto | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.7.5 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.4 | readxl | 1.4.3 | recettes | 1.0.6 |
| match retour | 1.0.1 | revanche2 | 2.1.2 | Télécommandes | 2.4.2 |
| exemple reproductible | 2.0.2 | remodeler2 | 1.4.4 | rlang | 1.1.1 |
| rmarkdown | 2.23 | RODBC | 1,3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.6 | écailles | 1.2.1 |
| sélecteur | 0,4-2 | informations sur la session | 1.2.2 | forme | 1.4.6 |
| brillant | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
| SparkR | 3.5.0 | spatial | 7.3-15 | Cannelures | 4.3.1 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiques | 4.3.1 |
| statistiques4 | 4.3.1 | chaine | 1.7.12 | stringr | 1.5.0 |
| survie | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
| tcltk | 4.3.1 | testthat | 3.1.10 | mise en forme de texte | 0.3.6 |
| tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 2.0.0 | changement d'heure | 0.2.0 | date et heure | 4022.108 |
| tinytex | 0.45 | outils | 4.3.1 | tzdb | 0.4.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 2.2.2 | utf8 | 1.2.3 |
| utils | 4.3.1 | Identifiant unique universel (UUID) | 1.1:0 | vctrs | 0.6.3 |
| viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
| vibrisse | 0.4.1 | flétrir | 2.5.0 | xfun | 0.39 |
| xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | fermeture éclair | 2.3.0 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.390 |
| com.amazonaws | aws-java-sdk-millisecondes | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | Outil de support aws-java-sdk | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | ruisseau | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caféine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0.25 |
| io.delta | delta-sharing-spark_2.12 | 0.7.5 |
| io.dropwizard.metrics | annotation des métriques | 4.2.19 |
| io.dropwizard.metrics | métriques de base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | servlets de métriques | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | transport-netty-natif-commun-unix | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collectionneur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.33 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant-launcher | 1.9.16 |
| org.apache.arrow | format de flèche | 12.0.1 |
| org.apache.arrow | arrow-memory-core | 12.0.1 |
| org.apache.arrow | arrow-memory-netty | 12.0.1 |
| org.apache.arrow | vecteur-flèche | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.10.0 |
| org.apache.curator | curateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur-recettes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.9 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | annotations du public | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.52.v20230823 |
| org.eclipse.jetty | serveur jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-commun | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validateator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.joddd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Cales | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | chats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |