Partager via


Databricks Runtime 14.1 (EoS)

Remarque

La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 14.1, propulsées par Apache Spark 3.5.0.

Databricks a publié cette version en octobre 2023.

Nouvelles fonctionnalités et améliorations

array_insert() est basé sur 1 pour les index négatifs

La array_insert fonction est basée sur 1 pour les index positifs et négatifs. Il insère maintenant un nouvel élément à la fin des tableaux d’entrée pour l’index -1. Pour restaurer le comportement précédent, définissez spark.sql.legacy.negativeIndexInArrayInsert sur true.

Les points de contrôle Delta v2 sont activés par défaut avec un clustering liquide

Les tables Delta nouvellement créées avec clustering liquide utilisent des points de contrôle v2 par défaut. Consultez Compatibilité pour les tables avec un groupement liquide.

Supprimer la fonctionnalité de table Delta en préversion publique

Vous pouvez maintenant supprimer certaines fonctionnalités de table pour les tables Delta. La prise en charge actuelle inclut l’annulation de deletionVectors et de v2Checkpoint. Consultez Supprimer une fonctionnalité de table Delta Lake et passer à une version antérieure du protocole de table.

Partage Delta : les destinataires peuvent effectuer des requêtes par lots sur des tables partagées avec des vecteurs de suppression (aperçu public)

Les destinataires de partage delta peuvent désormais effectuer des requêtes par lots sur des tables partagées qui utilisent des vecteurs de suppression. Consultez Ajouter des tables avec des vecteurs de suppression ou le mappage de colonnes à un partage, Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés et Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés.

Partage Delta : les destinataires peuvent effectuer des requêtes par lots sur des tables partagées avec le mappage de colonnes (version préliminaire publique)

Les destinataires du partage Delta peuvent désormais effectuer des requêtes par lots sur des tables partagées qui utilisent le mappage de colonnes. Consultez Ajouter des tables avec des vecteurs de suppression ou le mappage de colonnes à un partage, Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés et Lire des tables avec des vecteurs de suppression ou le mappage de colonnes activés.

Diffusion en continu à partir des affichages du Catalogue Unity en préversion publique

Vous pouvez désormais utiliser Structured Streaming pour effectuer des lectures de streaming à partir de vues inscrites auprès du catalogue Unity. Azure Databricks prend uniquement en charge les lectures en continu de vues définies sur des tables Delta.

Connecteur Apache Pulsar en préversion publique

Vous pouvez désormais utiliser Structured Streaming pour diffuser en continu des données à partir d’Apache Pulsar sur Azure Databricks. Consultez Diffuser en continu à partir d’Apache Pulsar.

Pilote Snowflake mis à niveau

Le pilote JDBC Snowflake utilise désormais la version 3.13.33.

Variables de session SQL

Cette version introduit la possibilité de déclarer des variables temporaires dans une session qui peuvent être définies, puis référencées à partir de requêtes. Consultez les variables .

Invocation de paramètre nommé pour SQL et Python UDF.

Vous pouvez maintenant utiliser l’appel de paramètres nommés sur les fonctions UDF SQL et Python.

Les arguments de table pour les fonctions prennent en charge le partitionnement et l’ordre.

Vous pouvez désormais utiliser PARTITION BY et ORDER BY clauses pour contrôler la façon dont les arguments de table sont passés à une fonction pendant l’appel de fonction.

Fonctions SQL intégrées nouvelles et améliorées

Les fonctions intégrées suivantes ont été ajoutées :

  • from_xml : analyse un code XML STRING dans un STRUCT.
  • schema_of_xml : dérive un schéma à partir d’un code XML STRING.
  • session_user : retourne l’utilisateur connecté.
  • try_reflect : retourne NULL au lieu de l’exception si une méthode Java échoue.

Les fonctions intégrées suivantes ont été améliorées :

  • mode : prise en charge d’un paramètre facultatif forçant un résultat déterministe.
  • to_char : Nouvelle prise en charge pour DATE, TIMESTAMPet BINARY.
  • to_varchar : Nouvelle prise en charge pour DATE, TIMESTAMPet BINARY.

Gestion améliorée des sous-requêtes corrélées

La possibilité de traiter la corrélation dans les sous-requêtes a été étendue :

  • Gérez la limite et l’ordre de tri dans des sous-requêtes scalaires (latérales) corrélées.
  • Prise en charge des fonctions de fenêtre dans les sous-requêtes scalaires corrélées.
  • Prendre en charge des références corrélées dans les prédicats de jointure pour les sous-requêtes scalaires et latérales

Changement de comportement

Vérification de type stricte dans le lecteur Photon Parquet

Photon échoue lorsqu'il tente de lire une valeur décimale à partir d'une colonne Parquet qui n'est pas de type décimal. Photon échoue également lors de la lecture d’un tableau d’octets de longueur fixe sous forme de chaîne issu de Parquet.

Mises à niveau de la bibliothèque

  • Bibliothèques Python mises à niveau :
    • filelock de la version 3.12.2 vers la version 3.12.3
    • s3transfer de la version 0.6.1 vers la version 0.6.2
  • Bibliothèques Java mises à niveau :
    • com.uber.h3 de 3.7.0 à 3.7.3
    • io.airlift.aircompressor de la version 0.24 vers la version 0.25
    • io.delta.delta-sharing-spark_2.12 de 0.7.1 à 0.7.5
    • io.netty.netty-all de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-buffer de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-codec de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-codec-http de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-codec-http2 de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-codec-socks de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-common de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-handler de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-handler-proxy de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-resolver de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-transport de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-transport-classes-epoll de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-transport-classes-kqueue de la version 4.1.93.Final vers la version 4.1.96.Final
    • io.netty.netty-transport-native-epoll de la version 4.1.93.Final-linux-x86_64 vers la version 4.1.96.Final-linux-x86_64
    • io.netty.netty-transport-native-kqueue de la version 4.1.93.Final-osx-x86_64 vers la version 4.1.96.Final-osx-x86_64
    • io.netty.netty-transport-native-unix-common de la version 4.1.93.Final vers la version 4.1.96.Final
    • net.snowflake.snowflake-jdbc de la version 3.13.29 vers la version 3.13.33
    • org.apache.orc.orc-core de la version 1.9.0-shaded-protobuf vers la version 1.9.1-shaded-protobuf
    • org.apache.orc.orc-mapreduce de la version 1.9.0-shaded-protobuf vers la version 1.9.1-shaded-protobuf
    • org.apache.orc.orc-shims de la version 1.9.0 vers la version 1.9.1

Apache Spark

Databricks Runtime 14.1 inclut Apache Spark 3.5.0. Cette version inclut tous les correctifs spark et les améliorations inclus dans Databricks Runtime 14.0 (EoS), ainsi que les correctifs de bogues supplémentaires suivants et les améliorations apportées à Spark :

  • [SPARK-45088] [DBRRM-557] Rétablir « [SC-142785][python][CONNECT] Faire fonctionner getitem avec les colonnes dupliquées »
  • [SPARK-43453] [DBRRM-557] Annuler « [SC-143135][ps] Ignorer les names de MultiIndex quand axis=1 pour concat »
  • [SPARK-45225] [SC-143207][sql] XML : prise en charge de l’URL du fichier XSD
  • [SPARK-45156] [SC-142782][sql] Envelopper inputName avec des accents graves dans la classe d’erreur NON_FOLDABLE_INPUT
  • [SPARK-44910] [SC-143082][sql] Encoders.bean ne prend pas en charge les superclasses avec des arguments de type générique
  • [SPARK-43453] [SC-143135][ps] Ignorer le names de MultiIndex lors de axis=1 pour concat
  • [SPARK-44463] [SS][CONNECT] Améliorer la gestion des erreurs pour Connect qui diffuse en continu un Worker Python
  • [SPARK-44960] [SC-141023][ui] Résumé des erreurs unescape et consist dans les pages de l’IU
  • [SPARK-44788] [SC-142980][connect][PYTHON][sql] Ajouter from_xml et schema_of_xml à pyspark, spark connect et sql function
  • [SPARK-44614] [SC-138460][python][CONNECT][3.5] Ajouter des packages manquants dans setup.py
  • [SPARK-45151] [SC-142861][core][UI] Prise en charge de la sauvegarde de thread au niveau des tâches
  • [SPARK-45056] [SC-142779][python][SS][connect] Tests d’arrêt pour streamingQueryListener et foreachBatch
  • [SPARK-45084] [SC-142828][ss] StateOperatorProgress doit utiliser un numéro de partition aléatoire effectif précis
  • [SPARK-44872] [SC-142405][connect] Infrastructure de test du serveur et ReattachableExecuteSuite
  • [SPARK-45197] [SC-142984][core] Faire en sorte que StandaloneRestServer ajoute JavaModuleOptions aux pilotes
  • [SPARK-44404] [SC-139601][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[1009,1010,1013,1015,1016,1278]
  • [SPARK-44647] [SC-142297][sql] Prise en charge de SPJ où les clés de jointure sont inférieures aux clés de cluster
  • [SPARK-45088] [SC-142785][python][CONNECT] Rendre getitem compatible avec les colonnes dupliquées
  • [SPARK-45128] [SC-142851][sql] Prendre en charge CalendarIntervalType dans Arrow
  • [SPARK-45130] [SC-142976][connect][ML][python] Éviter le modèle ML Spark Connect pour modifier le dataframe Pandas d’entrée
  • [SPARK-45034] [SC-142959][sql] Supporter la fonction en mode déterministe
  • [SPARK-45173] [SC-142931][ui] Supprimer certains fichiers sourceMapping inutiles dans l’interface utilisateur
  • [SPARK-45162] [SC-142781][sql] Prendre en charge les mappages et paramètres de tableau construits via call_function
  • [SPARK-45143] [SC-142840][python][CONNECT] Rendre PySpark compatible avec PyArrow 13.0.0
  • [SPARK-45174] [SC-142837][core] Prendre en charge spark.deploy.maxDrivers
  • [SPARK-45167] [SC-142956][connect][PYTHON] Le client Python doit appeler release_all
  • [SPARK-36191] [SC-142777][sql] Gérer la limite et l’ordre dans les sous-requêtes scalaires corrélées (latérales)
  • [SPARK-45159] [SC-142829][python] Gérer les arguments nommés uniquement si nécessaire
  • [SPARK-45133] [SC-142512][connect] Rendre les requêtes Spark Connect terminées lorsque la dernière tâche de résultat est terminée
  • [SPARK-44801] [SC-140802][sql][UI] Capturer l’analyse des requêtes ayant échoué dans l’écouteur et l’interface utilisateur
  • [SPARK-45139] [SC-142527][sql] Ajouter DatabricksDialect pour gérer la conversion de type SQL
  • [SPARK-45157] [SC-142546][sql] Éviter les vérifications répétées if dans [On|Off|HeapColumnVector
  • [SPARK-45077] Rétablir « [SC-142069][ui] Mettre à niveau dagre-d3.js de 04.3 à 0.6.4 »
  • [SPARK-45145] [SC-142521][exemple] Ajouter un exemple JavaSparkSQLCli
  • [SPARK-43295] Annuler « [SC-142254][ps] Prendre en charge les colonnes de type chaîne pour DataFrameGroupBy.sum »
  • [SPARK-44915] [SC-142383][core] Valider la somme de vérification des données de shuffle du PVC remonté avant la récupération
  • [SPARK-45147] [SC-142524][core] Supprimer l’utilisation de System.setSecurityManager
  • [SPARK-45104] [SC-142206][ui] Upgrade graphlib-dot.min.js to 1.0.2
  • [SPARK-44238] [SC-141606][core][SQL] Introduction d’une nouvelle readFrom méthode avec une entrée de tableau d’octets pour BloomFilter
  • [SPARK-45060] [SC-141742][sql] Correction d'une erreur interne dans le format to_char()NULL
  • [SPARK-43252] [SC-142381][sql] Remplacer la classe _LEGACY_ERROR_TEMP_2016 d’erreur par une erreur interne
  • [SPARK-45069] [SC-142279][sql] La variable SQL doit toujours être résolue après référence externe
  • [SPARK-44911] [SC-142388][sql] Créer une table hive avec une colonne non valide doit retourner la classe d’erreur
  • [SPARK-42754] [SC-125567][sql][UI] Résoudre le problème de compatibilité descendante dans l’exécution imbriquée de SQL
  • [SPARK-45121] [SC-142375][connect][PS] Prendre en charge Series.empty pour Spark Connect.
  • [SPARK-44805] [SC-142203][sql] getBytes/getShorts/getInts/etc. doit fonctionner dans un vecteur de colonne qui a un dictionnaire
  • [SPARK-45027] [SC-142248][python] Masquer les fonctions/variables internes dans pyspark.sql.functions à partir de la saisie semi-automatique
  • [SPARK-45073] [SC-141791][ps][CONNECT] Remplacer LastNotNull par Last(ignoreNulls=True)
  • [SPARK-44901] [SC-141676][sql] Rétroportage manuel : Ajouter une API dans la méthode « analyser » UDTF en Python pour retourner des expressions de partitionnement et de tri.
  • [SPARK-45076] [SC-141795][ps] Basculer vers la fonction intégrée repeat
  • [SPARK-44162] [SC-141605][core] Prendre en charge G1GC dans les indicateurs de performance Spark
  • [SPARK-45053] [SC-141733][python][MINOR] Amélioration de la journalisation en cas d'incompatibilité de version Python
  • [SPARK-44866] [SC-142221][sql] Ajouter SnowflakeDialect pour gérer correctement le type BOOLEAN
  • [SPARK-45064] [SC-141775][python][CONNECT] Ajouter le paramètre manquant scale dans ceil/ceiling
  • [SPARK-45059] [SC-141757][connect][PYTHON] Ajouter des try_reflect fonctions à Scala et Python
  • [SPARK-43251] [SC-142280][sql] Remplacer la classe _LEGACY_ERROR_TEMP_2015 d’erreur par une erreur interne
  • [SPARK-45052] [SC-141736][sql][PYTHON][connect] Faire en sorte que le nom des colonnes en sortie des alias de fonction soit cohérent avec SQL
  • [SPARK-44239] [SC-141502][sql] Mémoire libre allouée par de grands vecteurs lorsque les vecteurs sont réinitialisés
  • [SPARK-43295] [SC-142254][ps] Prendre en charge les colonnes de type chaîne pour DataFrameGroupBy.sum
  • [SPARK-45080] [SC-142062][ss] Appeler explicitement la prise en charge des colonnes dans les sources de données de diffusion en continu DSv2
  • [SPARK-45036] [SC-141768][sql] SPJ : Simplifier la logique pour gérer la distribution partiellement en cluster
  • [SPARK-45077] [SC-142069][ui] Mettre à niveau dagre-d3.js de 0.4.3 à 0.6.4
  • [SPARK-45091] [SC-142020][python][CONNECT][sql] Fonction floor/round/bround accepte le type de colonne scale
  • [SPARK-45090] [SC-142019][python][CONNECT] DataFrame.{cube, rollup} doit prendre en charge les numéros de colonne
  • [SPARK-44743] [SC-141625][sql] Ajouter la fonction try_reflect
  • [SPARK-45086] [SC-142052][ui] Afficher en hexadécimal le code de hachage de verrou de thread
  • [SPARK-44952] [SC-141644][sql][PYTHON] Prendre en charge les arguments nommés dans les UDF agrégées de Pandas
  • [SPARK-44987] [SC-141552][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1100
  • [SPARK-45032] [SC-141730][connect] Correction des avertissements de compilation liés à Top-level wildcard is not allowed and will error under -Xsource:3
  • [SPARK-45048] [SC-141629][connect] Ajouter des tests supplémentaires pour le client Python et l’exécution attachable
  • [SPARK-45072] [SC-141807][connect] Corriger les étendues externes pour les classes d’ammonite
  • [SPARK-45033] [SC-141759][sql] Prendre en charge les cartes par sql() paramétrisé
  • [SPARK-45066] [SC-141772][sql][PYTHON][connect] Adapter la fonction repeat pour accepter le type de colonne n
  • [SPARK-44860] [SC-141103][sql] Ajouter SESSION_USER fonction
  • [SPARK-45074] [SC-141796][python][CONNECT] DataFrame.{sort, sortWithinPartitions} doit prendre en charge les numéros de colonne
  • [SPARK-45047] [SC-141774][python][CONNECT] DataFrame.groupBy doit prendre en charge les nombres ordinaux
  • [SPARK-44863] [SC-140798][ui] Ajouter un bouton pour télécharger le dump de thread en tant que fichier texte dans l'interface de Spark
  • [SPARK-45026] [SC-141604][connect] spark.sql doit prendre en charge les types de données non compatibles avec la flèche
  • [SPARK-44999] [SC-141145][core] Refactoriser ExternalSorter pour réduire les vérifications shouldPartition lors de l’appel getPartition
  • [SPARK-42304] [SC-141501][sql] Renommer _LEGACY_ERROR_TEMP_2189 en GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
  • [SPARK-43781] [SC-139450][sql] Fix IllegalStateException lors du regroupement de deux jeux de données dérivés de la même source
  • [SPARK-45018] [SC-141516][python][CONNECT] Ajouter CalendarIntervalType au client Python
  • [SPARK-45024] [SC-141513][python][CONNECT] Filtrer certaines configurations dans la création de session
  • [SPARK-45017] [SC-141508][python] Ajouter CalendarIntervalType à PySpark
  • [SPARK-44720] [SC-139375][connect] Faire en sorte que Dataset utilise Encoder au lieu de AgnosticEncoder
  • [SPARK-44982] [SC-141027][connect] Marquer les configurations du serveur Spark Connect comme statiques
  • [SPARK-44839] [SC-140900][ss][CONNECT] Meilleure journalisation des erreurs lorsque l’utilisateur tente de sérialiser une session Spark
  • [SPARK-44865] [SC-140905][ss] Faire en sorte que StreamingRelationV2 prenne en charge la colonne de métadonnées
  • [SPARK-45001] [SC-141141][python][CONNECT] Mise en œuvre de DataFrame.foreachPartition
  • [SPARK-44497] [SC-141017][webui] Afficher l’ID de partition de tâche dans la table de tâches
  • [SPARK-45006] [SC-141143][ui] Utilisez le même format de date que d’autres éléments de date d’interface utilisateur pour l’axe x des chronologies
  • [SPARK-45000] [SC-141135][python][CONNECT] Implémenter DataFrame.foreach
  • [SPARK-44967] [SC-141137][sql][CONNECT] L’unité doit être considérée en premier avant d’utiliser booléen pour TreeNodeTag
  • [SPARK-44993] [SC-141088][core] Ajouter ShuffleChecksumUtils.compareChecksums en réutilisant ShuffleChecksumTestHelp.compareChecksums
  • [SPARK-44807] [SC-140176][connect] Ajouter Dataset.metadataColumn à Scala Client
  • [SPARK-44965] [SC-141098][python] Masquer les fonctions/variables internes de pyspark.sql.functions
  • [SPARK-44983] [SC-141030][sql] Convertir le fichier binaire en chaîne to_char pour les formats : hex, base64, utf-8
  • [SPARK-44980] [DBRRM-462] [sc-141024] [PYTHON] [connect] Corriger les namedtuples hérités afin qu’ils fonctionnent dans createDataFrame
  • [SPARK-44985] [SC-141033][core] Utilisez toString au lieu de stacktrace pour le faucheur de tâches threadDump.
  • [SPARK-44984] [SC-141028][python][CONNECT] Remove _get_alias from DataFrame
  • [SPARK-44975] [SC-141013][sql] Résolution de la suppression du remplacement inutile de BinaryArithmetic
  • [SPARK-44969] [SC-140957][sql] Réutilisation ArrayInsert dans ArrayAppend
  • [SPARK-44549] [SC-140714][sql] Prise en charge des fonctions de fenêtre dans les sous-requêtes scalaires corrélées
  • [SPARK-44938] [SC-140811][sql] Modifier la valeur par défaut de spark.sql.maxSinglePartitionBytes 128m
  • [SPARK-44918] [SC-140816][sql][PYTHON] Prendre en charge les arguments nommés dans les UDF Python/Pandas scalaires
  • [SPARK-44966] [SC-140907][core][CONNECT] Remplacer var (jamais remplacé) par val
  • [SPARK-41471] [SC-140804][sql] Réduire le shuffle Spark lorsque seulement un côté d'une jointure utilise un partitionnement par regroupement de clés
  • [SPARK-44214] [SC-140528][core] Prendre en charge l’IU des journaux en direct de Spark Driver
  • [SPARK-44861] [SC-140716][connect] jsonignore SparkListenerConnectOperationStarted.planRequest
  • [SPARK-44776] [SC-140519][connect] Ajoutez ProducedRowCount à SparkListenerConnectOperationFinished
  • [SPARK-42017] [SC-140765][python][CONNECT] df['col_name'] doit valider le nom de colonne
  • [SPARK-40178] [SC-140433][sql][CONNECT] Prendre facilement en charge les indicateurs de fusion pour PySpark et R
  • [SPARK-44840] [SC-140593][sql] Rendre array_insert() 1 pour les index négatifs
  • [SPARK-44939] [SC-140778][r] Prise en charge de Java 21 dans SparkR SystemRequirements
  • [SPARK-44936] [SC-140770][core] Simplifiez le journal lorsque Spark HybridStore atteint la limite de mémoire
  • [SPARK-44908] [SC-140712][ml][CONNECT] Corriger la fonctionnalité du paramètre foldCol entre validateurs
  • [SPARK-44816] [SC-140717][connect] Améliorer le message d’erreur lorsque la classe UDF est introuvable
  • [SPARK-44909] [SC-140710][ml] Ignorer le démarrage du serveur de streaming de journaux du distributeur torch lorsqu’il n’est pas disponible
  • [SPARK-44920] [SC-140707][core] Utiliser await() au lieu d’awaitUninterruptibly() dans TransportClientFactory.createClient()
  • [SPARK-44905] [SC-140703][sql] Stateful lastRegex entraîne NullPointerException lors de l'évaluation de regexp_replace
  • [SPARK-43987] [SC-139594][shuffle] Séparer le traitement de finalizeShuffleMerge en pools de threads dédiés
  • [SPARK-42768] [SC-140549][sql] Activer le plan mis en cache appliquer AQE par défaut
  • [SPARK-44741] [SC-139447][core] Prendre en charge MetricFilter basé sur regex dans StatsdSink
  • [SPARK-44751] [ SC-140532][sql] Implémentation de l’interface FileFormat XML
  • [SPARK-44868] [SC-140438][sql] Convertir datetime en chaîne par to_char/to_varchar
  • [SPARK-44748] [SC-140504][sql] Exécution de requête pour la PARTITION clause BY dans les arguments UDTF TABLE
  • [SPARK-44873] [SC-140427] Prendre en charge la modification de la vue avec des colonnes imbriquées dans le client Hive
  • [SPARK-44876] [SC-140431][python] Correction de la fonction UDF Python optimisée par flèche sur Spark Connect
  • [SPARK-44520] [SC-137845][sql] Remplacer le terme UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY par UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY et l’AE racine de divulgation
  • [SPARK-42664] [SC-139769][connect] Prendre en charge la fonction bloomFilter pour DataFrameStatFunctions
  • [SPARK-43567] [SC-139227][ps] Prendre en charge use_na_sentinel pour factorize
  • [SPARK-44859] [SC-140254][ss] Correction d’un nom de propriété incorrect dans la documentation de streaming structuré
  • [SPARK-44822] [SC-140182][python][SQL] Rendre les UDTFs Python par défaut non déterministes
  • [SPARK-44731] [SC-139524][python][CONNECT] Rendre TimestampNTZ fonctionne avec des littéraux dans Python Spark Connect
  • [SPARK-44836] [SC-140180][python] Refactorisation de Arrow Python UDTF
  • [SPARK-44714] [SC-139238] Assouplir les restrictions de la résolution d’ECV concernant les requêtes avec having
  • [SPARK-44749] [SC-139664][sql][PYTHON] Prendre en charge les arguments nommés dans les UDTF Python
  • [SPARK-44737] [SC-139512][sql][UI] Ne pas afficher les erreurs de format JSON sur la page SQL pour les non-SparkThrowables sous l’onglet SQL
  • [SPARK-44665] [SC-139307][python] Ajouter la prise en charge de Pandas DataFrame assertDataFrameEqual
  • [SPARK-44736] [SC-139622][connect] Ajouter Dataset.explode au client Scala Spark Connect
  • [SPARK-44732] [SC-139422][sql] Prise en charge de la source de données XML intégrée
  • [SPARK-44694] [SC-139213][python][CONNECT] Refactoriser les sessions actives et les exposer en tant qu’API
  • [SPARK-44652] [SC-138881] Déclencher une erreur quand un seul df est à l’état None
  • [SPARK-44562] [SC-138824][sql] Ajouter OptimizeOneRowRelationSubquery dans le lot de la sous-requête
  • [SPARK-44717] [SC-139319][python][PS] Respecter TimestampNTZ lors du resampling
  • [SPARK-42849] [SC-139365] [SQL] Variables de session
  • [SPARK-44236] [SC-139239][sql] Désactiver WholeStageCodegen lorsqu’il est défini spark.sql.codegen.factoryMode sur NO_CODEGEN
  • [SPARK-44695] [SC-139316][python] Améliorer le message d’erreur pour DataFrame.toDF
  • [SPARK-44680] [SC-139234][sql] Améliorer l’erreur pour les paramètres dans DEFAULT
  • [SPARK-43402] [SC-138321][sql] FileSourceScanExec prend en charge le filtrage de données push avec la sous-requête scalaire
  • [SPARK-44641] [SC-139216][sql] Résultat incorrect dans certains scénarios lorsque SPJ n’est pas déclenché
  • [SPARK-44689] [SC-139219][connect] Rendre la gestion des exceptions de la fonction SparkConnectPlanner#unpackScalarScalaUDF plus universelle
  • [SPARK-41636] [SC-139061][sql] Assurez-vous que selectFilters les prédicats sont retournés dans l’ordre déterministe
  • [SPARK-44132] [SC-139197][sql] Matérialiser le Stream des noms de colonnes de jointure pour éviter l’échec de codegen
  • [SPARK-42330] [SC-138838][sql] Affecter le nom RULE_ID_NOT_FOUND à la classe d’erreur _LEGACY_ERROR_TEMP_2175
  • [SPARK-44683] [SC-139214][ss] Le niveau de journalisation n’est pas correctement transmis au fournisseur de store d'état RocksDB.
  • [SPARK-44658] [SC-138868][core] ShuffleStatus.getMapStatus doit retourner None au lieu de Some(null)
  • [SPARK-44603] [SC-138353] Ajouter pyspark.testing à setup.py
  • [SPARK-44252] [SC-137505][ss] Définir une nouvelle classe d’erreur et appliquer pour le cas où l’état de chargement à partir de DFS échoue
  • [SPARK-29497] [DBRRM-396][sc-138477][CONNECT] Lever une erreur lorsque l’UDF n’est pas désérialisable.
  • [SPARK-44624] [DBRRM-396][sc-138900][CONNECT] Retry ExecutePlan dans le cas où la requête initiale n’a pas atteint le serveur
  • [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Supprimer la dépendance de Connect Client Catalyst
  • [SPARK-44059] [SC-138833][sql] Ajouter de meilleurs messages d’erreur pour les arguments nommés SQL
  • [SPARK-44620] [SC-138831][sql][PS][connect] Faire en sorte que ResolvePivot conserve Plan_ID_TAG
  • [SPARK-43838] [SC-137413][sql] Correction de la sous-requête sur une table unique avec une clause HAVING qui ne peut pas être optimisée.
  • [SPARK-44555] [SC-138820][sql] Utiliser checkError() pour vérifier l'Exception dans la Suite de commandes & attribuer certains noms de classes d'erreur.
  • [SPARK-44280] [SC-138821][sql] Ajouter convertJavaTimestampToTimestamp dans l’API JDBCDialect
  • [SPARK-44602] [SC-138337][sql][CONNECT][ps] Faire en sorte que WidenSetOperationTypes conserve le Plan_ID_TAG
  • [SPARK-42941] [SC-138389][ss][CONNECT] Python StreamingQueryListener
  • [SPARK-43838] Annuler « [SC-137413][sql] Corriger la sous-requête sur une table unique…
  • [SPARK-44538] [SC-138178][connect][SQL] Rétablir Row.jsonValue et amis
  • [SPARK-44421] [SC-138434][spark-44423][CONNECT] Exécution retachable dans Spark Connect
  • [SPARK-43838] [SC-137413][sql] Correction de la sous-requête sur une table unique avec une clause HAVING qui ne peut pas être optimisée.
  • [SPARK-44587] [SC-138315][sql][CONNECT] Augmenter la limite de récursivité du marshaller protobuf
  • [SPARK-44605] [SC-138338][core] Affiner l’API ShuffleWriteProcessor interne
  • [SPARK-44394] [SC-138291][connect][WEBUI] Ajouter une page d’interface utilisateur Spark pour Spark Connect
  • [SPARK-44585] [SC-138286][mllib] Correction de la condition d’avertissement dans MLLib RankingMetrics ndcgAk
  • [SPARK-44198] [SC-138137][core] Supporter la propagation du niveau de log aux exécuteurs
  • [SPARK-44454] [SC-138071][sql][HIVE] HiveShim getTablesByType doit prendre en charge une action de secours
  • [SPARK-44425] [SC-138135][connect] Valider que l’ID de session fourni par l’utilisateur est un UUID
  • [SPARK-43611] [SC-138051][sql][PS][connect] Faire en sorte que ExtractWindowExpressions conserve PLAN_ID_TAG
  • [SPARK-44560] [SC-138117][python][CONNECT] Améliorer les tests et la documentation pour Arrow Python UDF
  • [SPARK-44482] [SC-138067][connect] Le serveur de connexion doit pouvoir spécifier l’adresse de liaison
  • [SPARK-44528] [SC-138047][connect] Prise en charge de l’utilisation appropriée de hasattr() pour le dataframe Connect
  • [SPARK-44525] [SC-138043][sql] Améliorer le message d’erreur lorsque la méthode Invoke est introuvable
  • [SPARK-44355] [SC-137878][sql] Déplacer WithCTE dans les requêtes de commande

Prise en charge du pilote ODBC/JDBC Databricks

Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).

Consultez les mises à jour de maintenance Databricks Runtime 14.1.

Environnement du système

  • Système d’exploitation : Ubuntu 22.04.3 LTS
  • Java : Zulu 8.72.0.17-CA-linux64
  • Scala : 2.12.15
  • Python : 3.10.12
  • R : 4.3.1
  • Delta Lake : 3.0.0

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
anyio 3.5.0 cfp2-cffi 21.3.0 cfc2-cffi-bindings 21.2.0
asttokens 2.0.5 attributs 22.1.0 appel de retour 0.2.0
bellesoupe4 4.11.1 noir 22.6.0 blanchir 4.1.0
clignotant 1.4 boto3 1.24.28 botocore 1.27.96
certifi 2022.12.7 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 cliquez 8.0.4 Communication 0.1.2
contourpy 1.0.5 cryptographie 39.0.1 cycliste 0.11.0
Cython 0.29.32 Kit de développement logiciel Databricks (SDK) 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 décorateur 5.1.1 defusedxml 0.7.1
distlib 0.3.7 Conversion de docstring en markdown 0.11 points d’entrée 0,4
Exécution 0.8.3 aperçu des facettes 1.1.1 validation rapide des schémas JSON (fastjsonschema) 2.18.0
verrou de fichier 3.12.3 outils de police 4.25.0 Bibliothèque de runtime de Cloud de la communauté du secteur public (GCC) 1.10.0
googleapis-common-protos 1.60.0 grpcio 1.48.2 grpcio-status 1.48.1
httplib2 0.20.2 idna 3.4 importlib-metadata 4.6.4
ipykernel 6.25.0 ipython 8.14.0 ipython-genutils 0.2.0
ipywidgets (un outil de widgets interactifs pour Python) 7.7.2 Jedi 0.18.1 Jeepney (véhicule de transport public philippin) 0.7.1
Jinja2 3.1.2 jmespath 0.10.0 joblib 1.2.0
jsonschema 4.17.3 jupyter-client 7.3.4 serveur Jupyter 1.23.4
jupyter_core 5.2.0 jupyterlab-pygments 0.1.2 jupyterlab-widgets (widgets pour JupyterLab) 1.0.0
porte-clés 23.5.0 kiwisolver 1.4.4 launchpadlib 1.10.16
lazr.restfulclient 0.14.4 lazr.uri 1.0.6 lxml 4.9.1
MarkupSafe 2.1.1 matplotlib 3.7.0 matplotlib-inline 0.1.6
Mccabe 0.7.0 désaccorder 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclassic 0.5.2 nbclient 0.5.13
nbconvert 6.5.4 nbformat 5.7.0 nest-asyncio 1.5.6
nodeenv 1.8.0 carnet de notes 6.5.2 notebook_shim 0.2.2
numpy 1.23.5 oauthlib 3.2.0 empaquetage 22.0
Pandas 1.5.3 pandocfilters 1.5.0 parso 0.8.3
spécification de chemin 0.10.3 dupe 0.5.3 pexpect 4.8.0
pickleshare 0.7.5 Oreiller 9.4.0 pépin 22.3.1
platformdirs 2.5.2 tracé 5.9.0 enfiché 1.0.0
prometheus-client 0.14.1 prompt-toolkit 3.0.36 protobuf 4.24.0
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 8.0.0 pycparser 2.21
pydantic 1.10.6 pyflakes 3.0.1 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 pyright 1.1.294 pyrsistent 0.18.0
python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0 python-lsp-server 1.7.1
pytoolconfig 1.2.5 pytz 2022.7 pyzmq 23.2.0
Requêtes 2.28.1 corde 1.7.0 s3transfer 0.6.2
scikit-learn 1.1.1 seaborn 0.12.2 SecretStorage 3.3.1
Send2Trash 1.8.0 setuptools 65.6.3 Six 1.16.0
sniffio 1.2.0 Soupsieve 2.3.2.post1 ssh-import-id 5.11
données en pile 0.2.0 statsmodels, une bibliothèque Python pour la modélisation statistique 0.13.5 ténacité 8.1.0
terminé 0.17.1 threadpoolctl 2.2.0 tinycss2 1.2.1
tokenize-rt 4.2.1 tomli 2.0.1 tornade 6.1
Traitlets 5.7.1 typing_extensions 4.4.0 ujson 5.4.0
mises à niveau automatiques 0.1 urllib3 1.26.14 virtualenv 20.16.7
wadllib 1.3.6 wcwidth 0.2.5 webencodings 0.5.1
websocket-client 0.58.0 c’est quoi le patch 1.0.2 roue 0.38.4
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0
SciPy 1.10.1

Bibliothèques R installées

Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit le 10-02-2023.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
flèche 12.0.1 Askpass 1.1 assertthat 0.2.1
rétroportage 1.4.1 base 4.3.1 base64enc 0.1-3
morceau 4.0.5 bit 64 4.0.5 objet BLOB 1.2.4
botte 1.3-28 brasser 1,0-8 brio 1.1.3
balai 1.0.5 bslib 0.5.0 cachemire 1.0.8
appelant 3.7.3 caret 6.0-94 cellranger 1.1.0
Chron 2.3-61 classe 7.3-22 Cli 3.6.1
Presse-papiers 0.8.0 horloge 0.7.0 Grappe 2.1.4
codetools 0.2-19 espace colorimétrique 2.1-0 commonmark 1.9.0
compilateur 4.3.1 config 0.3.1 Conflit 1.2.0
cpp11 0.4.4 pastel 1.5.2 Références 1.3.2
friser 5.0.1 data.table 1.14.8 ensembles de données 4.3.1
DBI 1.1.3 dbplyr 2.3.3 Desc 1.4.2
devtools 2.4.5 diagramme 1.6.5 diffobj 0.3.5
digérer 0.6.33 éclairage vers le bas 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 ellipse 0.3.2
évaluer 0,21 fans 1.0.4 couleurs 2.1.1
carte rapide 1.1.1 fontawesome 0.5.1 condamnés 1.0.0
foreach 1.5.2 étranger 0.8-82 forger 0.2.0
Fs 1.6.2 futur 1.33.0 future.apply 1.11.0
se gargariser 1.5.1 produits génériques 0.1.3 Gert 1.9.2
ggplot2 3.4.2 Gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 globales 0.16.2 colle 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
graphisme 4.3.1 grDevices 4.3.1 grille 4.3.1
gridExtra 2.3 gsubfn 0,7 gt ;pouvant être 0.3.3
casque de sécurité 1.3.0 havre 2.5.3 supérieur 0.10
Hms 1.1.3 outils HTML 0.5.5 htmlwidgets 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
Id 1.0.1 ini 0.3.1 ipred 0.9-14
isoband 0.2.7 itérateurs 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 knitr 1.43
étiquetage 0.4.2 plus tard 1.3.1 treillis 0.21-8
lave 1.7.2.1 cycle de vie 1.0.3 listenv 0.9.0
lubridate 1.9.2 magrittr 2.0.3 Markdown 1.7
MASSE 7.3-60 Matrice 1.5-4.1 mémorisation 2.0.1
méthodes 4.3.1 mgcv 1.8-42 mime 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modèleur 0.1.11
munsell 0.5.0 nlme 3.1-162 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.0.6 parallèle 4.3.1
parallèlement 1.36.0 pilier 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
plogr 0.2.0 plyr (un package logiciel pour le traitement de données) 1.8.8 éloge 1.0.0
joliesunits 1.1.1 Proc 1.18.4 processx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 progrès 1.2.2
progresseur 0.13.0 promesses 1.2.0.1 proto 1.0.0
mandataire 0,4-27 p.s. 1.7.5 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest (algorithme d'apprentissage automatique) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
readr 2.1.4 readxl 1.4.3 recettes 1.0.6
match retour 1.0.1 revanche2 2.1.2 Télécommandes 2.4.2
exemple reproductible 2.0.2 remodeler2 1.4.4 rlang 1.1.1
rmarkdown 2.23 RODBC 1,3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
rvest 1.0.3 Sass 0.4.6 écailles 1.2.1
sélecteur 0,4-2 informations sur la session 1.2.2 forme 1.4.6
brillant 1.7.4.1 sourcetools 0.1.7-1 sparklyr 1.8.1
SparkR 3.5.0 spatial 7.3-15 Cannelures 4.3.1
sqldf 0.4-11 SQUAREM 2021.1 Statistiques 4.3.1
statistiques4 4.3.1 chaine 1.7.12 stringr 1.5.0
survie 3.5-5 sys 3.4.2 systemfonts 1.0.4
tcltk 4.3.1 testthat 3.1.10 mise en forme de texte 0.3.6
tibble 3.2.1 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 2.0.0 changement d'heure 0.2.0 date et heure 4022.108
tinytex 0.45 outils 4.3.1 tzdb 0.4.0
vérificateur d'URL 1.0.1 Utilise ça 2.2.2 utf8 1.2.3
utils 4.3.1 Identifiant unique universel (UUID) 1.1:0 vctrs 0.6.3
viridisLite 0.4.2 Vroom 1.6.3 Waldo 0.5.1
vibrisse 0.4.1 flétrir 2.5.0 xfun 0.39
xml2 1.3.5 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 fermeture éclair 2.3.0

Bibliothèques Java et Scala installées (version du cluster Scala 2.12)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) 1.12.390
com.amazonaws aws-java-sdk-millisecondes 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws Outil de support aws-java-sdk 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics ruisseau 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.7.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb plugin de compilation_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Camarade de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caféine caféine 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 natifs
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib système_natif-java 1.1 natifs
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 natifs
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1 natifs
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone annotations_sujettes_aux_erreurs 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava goyave 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger profileur 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf (compression utilisant l'algorithme LZF) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentilles_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-analyseurs 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections (bibliothèque de collections communes) commons-collections (bibliothèque de collections communes) 3.2.2
commons-dbcp commons-dbcp 1.4
téléchargement de fichiers communs téléchargement de fichiers communs 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresseur d'air 0.25
io.delta delta-sharing-spark_2.12 0.7.5
io.dropwizard.metrics annotation des métriques 4.2.19
io.dropwizard.metrics métriques de base 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics métriques-vérifications de santé 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics Metrics-JMX 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics servlets de métriques 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty transport-netty-natif-commun-unix 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collectionneur 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine conserve 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk (module d'ingestion de Snowflake) 0.9.6
net.snowflake snowflake-jdbc 3.13.33
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant fourmi 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow format de flèche 12.0.1
org.apache.arrow arrow-memory-core 12.0.1
org.apache.arrow arrow-memory-netty 12.0.1
org.apache.arrow vecteur-flèche 12.0.1
org.apache.avro Avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons texte commun 1.10.0
org.apache.curator curateur-client 2.13.0
org.apache.curator curateur-framework 2.13.0
org.apache.curator curateur-recettes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory (mémoire de croquis de données) 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop environnement d'exécution du client Hadoop 3.3.6
org.apache.hive hive-beeline (outil de ligne de commande d'Apache Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Composant commun de hive-shims 2.3.9
org.apache.hive.shims programmeur de cales de hive 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy lierre 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.9.1-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.1-shaded-protobuf
org.apache.orc orc-shims 1.9.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus annotations du public 0.13.0
org.apache.zookeeper gardien de zoo 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilateur commun 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security (sécurité de quai) 9.4.52.v20230823
org.eclipse.jetty serveur jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket serveur websocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de conteneur jersey 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-commun 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validateator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Annotations 17.0.0
org.joda joda-convert 1.7
org.joddd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.9
org.mlflow mlflow-spark 2.2.0
org.objenesis objenèse 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Cales 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.9.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatible avec scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel chats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly.openssl 1.1.3.Finale
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1