Partager via


Databricks Runtime 17.2

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 17.2, alimenté par Apache Spark 4.0.0.

Azure Databricks a publié cette version en septembre 2025.

Nouvelles fonctionnalités et améliorations

LIKE prend en charge le classement UTF8_LCASE

L’opérateur LIKE prend désormais en charge le classement, ce qui permet une correspondance non sensible à la UTF8_LCASE casse.

st_exteriorring la fonction est désormais prise en charge

Vous pouvez maintenant utiliser la st_exteriorring fonction pour extraire la limite externe d’un polygone et la renvoyer en tant que chaîne de ligne. Consultez Fonction st_exteriorring.

Afficher les détails du pushdown dans EXPLAIN et l’interface utilisateur Spark pour les analyses à distance

La EXPLAIN commande et l’interface utilisateur Spark pour RemoteSparkConnectScan le calcul dédié affichent désormais les prédicats, les agrégations, les groupes par clauses, les limites et les exemples qui sont poussés vers le bas dans l’analyse distante.

Déclarer plusieurs variables de session ou locales dans une seule DECLARE instruction

Dans Databricks Runtime 17.2 et versions ultérieures, vous pouvez déclarer plusieurs variables de session ou locales du même type et de la même valeur par défaut dans une instruction unique DECLARE . Afficher DECLARE VARIABLE et commencer l’instruction composée DE END.

Mot clé de prise en charge TEMPORARY pour la création d’une vue de métrique

Vous pouvez maintenant utiliser le mot clé lors de la TEMPORARY création d’une vue de métrique. Les vues de métriques temporaires sont visibles uniquement dans la session qui les a créées et sont supprimées lorsque la session se termine. Voir CREATE VIEW.

Prendre en charge des commandes supplémentaires avec un contrôle d’accès affiné

Le contrôle d’accès affiné sur le calcul dédié prend désormais en charge les commandes et FSCK REPAIR TABLE les DESCRIBE DETAIL commandes.

Remplacer de manière sélective et atomique les données par INSERT REPLACE USING et INSERT REPLACE ON (GA)

INSERT REPLACE USING et INSERT REPLACE ON sont désormais en disponibilité générale pour Databricks Runtime 17.2. Les deux commandes SQL remplacent une partie de la table par le résultat d’une requête.

INSERT REPLACE USING remplace les lignes lorsque les USING colonnes comparent égales à l’égalité. INSERT REPLACE ON remplace les lignes lorsqu’elles correspondent à une condition définie par l’utilisateur.

Voir INSERT dans la référence du langage SQL et remplacer sélectivement les données avec Delta Lake.

Utiliser des E/S natives pour LokiFileSystem.getFileStatus S3

LokiFileSystem.getFileStatus utilise désormais la pile d’E/S native pour le trafic Amazon S3 et retourne org.apache.hadoop.fs.FileStatus des objets au lieu de shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.

Mode ANSI activé par défaut pour l’API Pandas sur Spark

ANSI_MODE est désormais activé par défaut pour l’API Pandas sur Spark, compute.ansi_mode_support=Truece qui garantit la parité de conformité ANSI avec pandas natifs. L’option s’applique toujours si compute.fail_on_ansi_mode elle compute.ansi_mode_support est définie sur False.

Auto Loader déduit les colonnes de partition en mode singleVariantColumn

Le chargeur automatique déduit désormais les colonnes de partition à partir de chemins de fichiers lors de l’ingestion de données au format de type semi-structuré à l’aide de l’option singleVariantColumn. Auparavant, les colonnes de partition n’ont pas été détectées automatiquement. Consultez les options du chargeur automatique.

Changements comportementaux

DESCRIBE CONNECTION affiche les paramètres d’environnement pour les connexions JDBC

Azure Databricks inclut désormais les paramètres d’environnement définis par l’utilisateur dans la DESCRIBE CONNECTION sortie des connexions JDBC qui prennent en charge les pilotes personnalisés et s’exécutent en isolation. Les autres types de connexion restent inchangés.

Option permettant de tronquer l’historique uniforme pendant la migration des tables managées

Vous pouvez désormais tronquer l’historique uniforme lors de la migration de tables avec Uniform/Iceberg activé à l’aide ALTER TABLE...SET MANAGEDde . Cela simplifie les migrations et réduit les temps d’arrêt par rapport à la désactivation et à la réactivation manuelle d’Uniform.

Syntaxe SQL pour les options de lecture Delta dans les requêtes de streaming

Vous pouvez maintenant spécifier des options de lecture Delta pour les requêtes de streaming basées sur SQL à l’aide de la WITH clause. Par exemple:

SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);

Corriger les résultats avec split une limite régulière vide et positive

Azure Databricks retourne désormais des résultats corrects lors de l’utilisation split function avec un regex vide et une limite positive. Précédemment, la fonction a tronqué incorrectement la chaîne restante au lieu de l’inclure dans le dernier élément.

Correction url_decode et try_url_decode gestion des erreurs dans Photon

Dans Photon, try_url_decode() et url_decode() avec failOnError = false maintenant NULL retour pour les chaînes encodées url non valides au lieu d’échouer la requête.

Environnement d’exécution partagée pour les fonctions définies par l’utilisateur Python du catalogue Unity

Azure Databricks partage désormais l’environnement d’exécution pour les fonctions de table définies par l’utilisateur Python (UDF) à partir du même propriétaire et de la même session Spark. Une clause facultative STRICT ISOLATION est disponible pour désactiver le partage pour les fonctions définies par l’utilisateur avec des effets secondaires, tels que la modification de variables d’environnement ou l’exécution de code arbitraire.

Suivi des lignes activé par défaut pour les nouvelles tables

Azure Databricks active désormais le suivi des lignes par défaut pour toutes les tables managées du catalogue Unity nouvellement créées. Les tables existantes ne sont pas affectées et conservent leurs paramètres de suivi des lignes actuels.

TABLE prise en charge des arguments pour les UDTF Python dans Unity Catalog

Unity Catalog Python UDTFs prennent en charge TABLE les arguments, ce qui permet aux fonctions d’accepter des tables entières en tant que paramètres d’entrée, ce qui permet d’effectuer des transformations et des agrégations de données plus complexes sur des jeux de données structurés. Consultez les fonctions de table définies par l’utilisateur Python dans le catalogue Unity. (Rétroporté à partir de 17.3 LTS).

Mises à niveau de la bibliothèque

Bibliothèques Python mises à niveau :

Aucune bibliothèque Python n’a été mise à niveau dans cette version.

Bibliothèques R mises à niveau :

Aucune bibliothèque R n’a été mise à niveau dans cette version.

Bibliothèques Java mises à niveau :

  • io.delta.delta-sharing-client_2.13 de 1.3.3 à 1.3.5

Apache Spark

Databricks Runtime 17.2 inclut Apache Spark 4.0.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans la version 17.1, ainsi que les correctifs de bogues supplémentaires suivants et les améliorations apportées à Spark :

  • SPARK-53183 Utiliser Java Files.readString au lieu de o.a.s.sql.catalyst.util.fileToString
  • SPARK-51817 Réintroduisez les champs ansiConfig dans messageParameters de CAST_INVALID_INPUT et CAST_OVERFLOW
  • SPARK-53124 Supprimer des champs inutiles à partir de JsonTuple
  • SPARK-53106 Ajouter des tests d’évolution de schéma pour les suites de connexion Spark Scala TWS
  • SPARK-53201 Utiliser SparkFileUtils.contentEquals au lieu de Files.equal
  • SPARK-53308 Ne supprimez pas les alias dans RemoveRedundantAliases qui provoqueraient des doublons
  • SPARK-53241 Prise en charge createArray dans SparkCollectionUtils
  • SPARK-53239 Améliorer et MapSort améliorer SortArray les performances viaparallelSort
  • SPARK-53184 Correction de melt() lorsque les colonnes de valeur combinent des chaînes et des nombres
  • SPARK-53144 Libérer createViewCommand dans SparkConnectPlanner effet secondaire
  • SPARK-53303 Utilisez l’encodeur d’état vide lorsque l’état initial n’est pas fourni dans TWS
  • SPARK-52917 Prise en charge de lecture pour activer l’aller-retour pour le fichier binaire au format xml
  • SPARK-53110 Implémenter la fonction time_trunc dans PySpark
  • SPARK-53107 Implémenter la fonction time_trunc dans Scala
  • SPARK-52146 Détecter les références de fonction cycliques dans les fonctions définies par l’utilisateur SQL
  • SPARK-52469 Utiliser l’API JEP 223 pour traiter la version Java
  • SPARK-53094 Corriger CUBE avec un agrégat contenant des HAVING clauses
  • SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
  • SPARK-53287 Ajouter un guide de migration ANSI
  • SPARK-43100 Les métriques shuffle basées sur push doivent être désérialisées correctement
  • SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
  • SPARK-53114 Prise en charge join dans JavaUtils
  • SPARK-53297 Correction de la documentation de l’API Pipelines déclaratifs StreamingTable
  • SPARK-53181 Activer les tests de documentation sous ANSI
  • SPARK-52482 Améliorer la gestion des exceptions pour lire certains fichiers zstd endommagés
  • SPARK-52990 Soutien StringSubstitutor
  • SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
  • SPARK-53169 Supprimer les commentaires liés à «Set the logger level of File Appender to » de log4j2.properties
  • SPARK-53080 Prise en charge et prise en cleanDirectory charge SparkFileUtilsJavaUtils
  • SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
  • SPARK-53000 Renommer StringUtils.scala dans StringConcat.scala le sql/api module
  • SPARK-52952 Ajouter un script de développement de forçage de type UDF PySpark
  • SPARK-52998 Plusieurs variables à l’intérieur de déclarer
  • SPARK-51817 Réintroduisez les champs ansiConfig dans messageParameters de CAST_INVALID_INPUT et CAST_OVERFLOW
  • SPARK-52820 Capturer des plans complets dans des fichiers dorés
  • SPARK-53274 Prise en charge du pushdown de jointure gauche et droite dans JDBCScanBuilder
  • SPARK-52110 Implémenter la prise en charge de la syntaxe SQL pour les pipelines
  • SPARK-52950 Activer le mode ANSI dans DataSourceV2StrategySuite
  • SPARK-52947 Corriger le chemin d’accès à l’image dans le guide de programmation des pipelines déclaratifs
  • SPARK-52592 Prise en charge de la création d’un ps. Séries d’une ps. Série
  • SPARK-53301 Différencier les indicateurs de type de Pandas UDF et Flèche UDF
  • SPARK-53146 Rendre MergeIntoTable disponible dans l’effet secondaire SparkConnectPlanner
  • SPARK-53166 Utiliser SparkExitCode.EXIT_FAILURE dans l’objet SparkPipelines
  • SPARK-53288 Corriger l’erreur d’assertion avec la limite globale de diffusion en continu
  • SPARK-52394 Correction de l’erreur de division par zéro de la correction automatique en mode ANSI
  • SPARK-51555 Ajouter la fonction time_diff()
  • SPARK-52948 Activer test_np_spark_compat_frame sous ANSI
  • SPARK-53134 Nettoyer les importations ANSI inutilisées dans les tests
  • SPARK-52593 Éviter CAST_INVALID_INPUT de MultiIndex.to_series, Series.dot et DataFrame.dot en mode ANSI
  • SPARK-53291 Correction de la valeur nullabilité pour la colonne valeur
  • SPARK-53097 Rendre WriteOperationV2 libre dans SparkConnectPlanner effet secondaire
  • SPARK-53305 Prise en charge de TimeType dans createDataFrame
  • SPARK-52914 Prise en charge des On-Demand Log Loading journaux propagés dans History Server
  • SPARK-33538 Envoyer directement des prédicats IN/NOT au metastore Hive
  • SPARK-52849 Ajouter stringifyException à o.a.s.util.Utils
  • SPARK-52771 Correction de l’élargissement du type float32 dans truediv/floordiv
  • SPARK-52502 Vue d’ensemble du nombre de threads
  • SPARK-52788 Correction de l’erreur de conversion de la valeur binaire dans BinaryType en XML
  • SPARK-53123 Prise en charge getRootCause dans SparkErrorUtils
  • SPARK-53129 Améliorer SparkShell l’importation java.net._ par défaut
  • SPARK-53061 Prise en charge copyFileToDirectory dans SparkFileUtils
  • SPARK-52683 Prise en charge de ExternalCatalog alterTableSchema
  • SPARK-52871 Fusionner o.a.s.sql.catalyst.util.SparkStringUtils vers o.a.s.util.SparkStringUtils
  • SPARK-52817 Corriger les Like performances des expressions
  • SPARK-52545 Normaliser l’échappement de guillemets doubles pour suivre la spécification SQL
  • SPARK-52711 Correction de l’élargissement du type float32 sous mul/rmul ANSI
  • SPARK-52615 Remplacer File.mkdirs par Utils.createDirectory
  • SPARK-52381 JsonProtocol : Accepter uniquement les sous-classes de SparkListenerEvent
  • SPARK-52613 Restaurer l’impression complète stacktrace lorsque HBase/Hive DelegationTokenProvider a atteint l’exception
  • SPARK-52651 Gérer le type défini par l’utilisateur dans ColumnVector imbriqué
  • SPARK-52611 Correction de la version SQLConf pour excludeSubqueryRefsFromRemoveRedundantAliases...
  • SPARK-52552 Ignorer l’application de contrainte CHECK pour les suppressions de vecteurs de suppression
  • Paramètre de prise en charge -i-I spark-shell 2.13
  • SPARK-52492 Rendre InMemoryRelation.convertToColumnarIfPossible personnalisable
  • SPARK-52451 Rendre WriteOperation libre dans SparkConnectPlanner effet secondaire
  • SPARK-53272 Refactoriser la logique pushdown SPJ hors de BatchScanExec
  • SPARK-53071 Prise en charge copyFile dans SparkFileUtils
  • SPARK-51415 Prendre en charge le type de temps par make_timestamp()
  • SPARK-51554 Ajouter la fonction time_trunc()
  • SPARK-52426 Prise en charge de la redirection stdout/stderr vers le système de journalisation
  • SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
  • SPARK-53063 Implémenter et appeler de nouvelles API dans FileCommitProtocol au lieu du déprécié
  • Spark-52546 vérifiez sparkContext si elle s’est arrêtée lors de l’exécution du bloc de code catch dans execute(), sinon, elle retourne un état incorrect.
  • SPARK-53023 Supprimer la commons-io dépendance du sql/api module
  • SPARK-52396 Le répertoire racine d’artefact doit utiliser tmpdir
  • SPARK-53131 Améliorer SparkShell l’importation java.nio.file._ par défaut
  • SPARK-42322 Attribuer un nom to_LEGACY_ERROR_TEMP_2235
  • SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
  • SPARK-52484 Ignorer l’assertion child.supportsColumnar côté pilote dans ColumnarToRowExec
  • SPARK-52384 Corriger la connexion à bogue ne doit pas tenir compte des options JDBC
  • SPARK-52034 Ajouter des méthodes courantes dans SparkOperation trait pour les opérations thriftserver
  • SPARK-53031 Prise en charge getFile dans SparkFileUtils
  • SPARK-52976 Correction de la fonction UDF Python qui n’accepte pas la chaîne compilée comme type d’entrée param/retour (17.x)
  • SPARK-52943 Activer arrow_cast pour tous les types d’évaluation UDF pandas
  • SPARK-53263 Prise en charge de TimeType dans df.toArrow
  • SPARK-53141 Ajouter des API pour obtenir la taille de mémoire de surcharge et la taille de mémoire offheap à partir du profil de ressource
  • SPARK-53259 Corrigez le message pour INVALID_UDF_EVAL_TYPE
  • SPARK-53167 Le lanceur Spark isRemote respecte également le fichier de propriétés
  • SPARK-53165 Ajouter SparkExitCode.CLASS_NOT_FOUND
  • SPARK-53171 Répétition UTF8String d’amélioration
  • SPARK-53170 Améliorer SparkUserAppException pour avoir cause un paramètre
  • SPARK-52989 Ajouter des itérateurs close() explicites au magasin d’états
  • SPARK-53074 Éviter un clustering partiel dans SPJ pour répondre à la distribution requise d’un enfant
  • SPARK-52252 Les encodeurs ScalaUDF dans la sous-requête doivent être résolus
  • SPARK-53244 Ne stockez pas les confs activés à double exécution et en mode provisoire activé lors de la création de l’affichage
  • SPARK-53192 Toujours mettre en cache une source de données dans le cache du plan Spark Connect
  • SPARK-51813 Ajouter un DefaultCachedBatchKryoSerializer nonullable pour éviter la propagation null dans DefaultCachedBatch serde
  • SPARK-52904 Réapply "[SC-202233][python] Enable convertToArrowArrayS...
  • SPARK-53253 Correction de l’inscription de la fonction UDF de type SQL_SCALAR_ARROW_ITER_UDF
  • SPARK-53243 Répertorier les types d’évaluation pris en charge dans les nœuds de direction
  • SPARK-53130 Corriger le toJson comportement des types de chaînes compilés
  • SPARK-53003 Prise en charge strip dans SparkStringUtils
  • SPARK-51902 Synchroniser OSS : Appliquer la contrainte de vérification lors de l’insertion de table
  • SPARK-52047 Déclencher PySparkValueError pour les types de tracés non pris en charge
  • SPARK-53004 Prise en charge abbreviate dans SparkStringUtils
  • SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
  • SPARK-30848 Supprimer productHash de TreeNode
  • SPARK-53046 Utiliser Java readAllBytes au lieu de IOUtils.toByteArray
  • SPARK-53206 Utiliser SparkFileUtils.move au lieu de com.google.common.io.Files.move
  • SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
  • SPARK-53069 Corriger les métriques de magasin d’état incorrectes avec les familles de colonnes virtuelles
  • SPARK-52904 Activer convertToArrowArraySafely par défaut [17.x]
  • Spark-52821 ajouter int-DecimalType> pyspark udf type de contrainte de type de retour
  • SPARK-51562 Ajouter une time fonction
  • SPARK-52971 Limiter la taille de file d’attente de travail Python inactive
  • SPARK-53057 Prise en charge et prise en sizeOf charge SparkFileUtilsJavaUtils
  • SPARK-53040 Interdire les références auto à l’intérieur des CTEs les plus hauts dans les CTEs récursives
  • SPARK-53104 Introduire ansi_mode_context pour éviter plusieurs vérifications de configuration par appel d’API
  • SPARK-47547 Ajouter BloomFilter V2 et l’utiliser comme valeur par défaut
  • SPARK-53098DeduplicateRelations ne doit pas remapiser les expressions si l’ancienne ExprId existe toujours dans la sortie
  • SPARK-53049 Prise en charge toString dans SparkStreamUtils
  • SPARK-53062 Prise en charge et prise en deleteQuietly charge SparkFileUtilsJavaUtils
  • SPARK-53070 Prise en charge is(Not)?Empty dans SparkCollectionUtils
  • SPARK-53020 Les arguments JPMS doivent également s’appliquer au processus non-SparkSubmit
  • SPARK-52968 Émettre des métriques de magasin d’état supplémentaires
  • SPARK-52975 Simplifier les noms de champs dans la jointure pushdown sql
  • SPARK-52926 Ajout de SQLMetric pour la durée de récupération de schéma à distance.
  • SPARK-53059 Flèche UDF pas besoin de dépendre des pandas
  • SPARK-52646 Éviter CAST_INVALID_INPUT en __eq__ mode ANSI
  • SPARK-52622 Éviter CAST_INVALID_INPUT en DataFrame.melt mode ANSI
  • SPARK-52985 Déclencher TypeError pour l’opérande numpy pandas dans les opérateurs de comparaison
  • SPARK-52580 Éviter CAST_INVALID_INPUT en replace mode ANSI
  • SPARK-52549 Désactiver les références auto-références CTE récursives à partir des fonctions de fenêtre et à l’intérieur des tris
  • SPARK-52895 N’ajoutez pas d’éléments en double dans resolveExprsWithAggregate
  • SPARK-50748 Résolution d’un problème de condition de concurrence qui se produit lorsque les opérations sont interrompues
  • SPARK-52737 Prédicat pushdown et nombre d’applications sur FsHistoryProvider lors de la liste des applications
  • SPARK-53018 ArrowStreamArrowUDFSerializer doit respecter l’argument arrow_cast
  • SPARK-53013 Correction de l’UDTF Python optimisé pour les flèches retournant aucune ligne sur la jointure latérale
  • SPARK-51834 Synchroniser OSS : prise en charge de la contrainte de table de bout en bout alter add/drop
  • SPARK-52921 Spécifier outputPartitioning pour UnionExec pour le même partitoning de sortie que les opérateurs enfants
  • SPARK-52908 Empêcher que le nom de la variable itérateur soit en conflit avec les noms d’étiquettes dans le chemin d’accès à la racine d’AST
  • SPARK-52954 La fonction UDF de direction prend en charge le forçage du type de retour
  • SPARK-52925 Renvoyer un message d’erreur correct pour les références d’auto-ancrage dans les RCTEs
  • SPARK-52889 Implémenter la fonction current_time dans PySpark
  • SPARK-52675 Interrompre les gestionnaires ML suspendus dans les tests
  • SPARK-52959 Prise en charge de l’UDT dans Python UDTF optimisé par flèche
  • SPARK-52962 BroadcastExchangeExec ne doit pas réinitialiser les métriques
  • SPARK-52956 Conserver les métadonnées d’alias lors de la réduction des projets
  • SPARK-52890 Implémenter les fonctions to_time et try_to_time dans PySpark
  • SPARK-52888 Implémenter la fonction make_time dans PySpark
  • SPARK-52892 Prendre en charge time dans les fonctions heure, minute et seconde dans PySpark
  • SPARK-52837 Prise en charge de TimeType dans pyspark
  • SPARK-52023 Corriger l’altération des données/segfault retournant Option[Produit] à partir d’udaf
  • SPARK-52955 Modifier les types de retour de WindowResolution.resolveOrder et WindowResolution.resolveFrame en WindowExpression
  • SPARK-52166 Ajouter la prise en charge de PipelineEvents
  • SPARK-51834 Correctif : supprimer valide de toDDL
  • SPARK-52735 Corriger les conditions d’erreur manquantes pour les fonctions définies par l’utilisateur SQL
  • SPARK-51834 Synchroniser la table de création/remplacement de bout en bout du support OSS par contrainte
  • SPARK-51834 Synchroniser les appels nonapply de la mise à jour d’OSS ResolvedIdentifier
  • SPARK-52929 Prise en charge du connecteur MySQL et SQLServer pour le pushdown de jointure DSv2
  • SPARK-52448 Ajouter une expression.littérale struct simplifiée
  • SPARK-52882 Implémenter la fonction current_time dans Scala
  • SPARK-52905 Flèche UDF pour la fenêtre
  • SPARK-52876 Correction d’une faute de frappe buffer dans bodyChunkFetchSuccess.toString
  • SPARK-52883 Implémenter les fonctions to_time et try_to_time dans Scala
  • SPARK-52751 Ne validez pas avec impatience le nom de colonne dans dataframe['col_name']
  • SPARK-52791 Corriger l’erreur lors de l’inférence d’un UDT avec un premier élément Null
  • SPARK-52686Union ne doit être résolu que s’il n’y a pas de doublons
  • SPARK-52881 Implémenter la fonction make_time dans Scala
  • SPARK-52919 Correction du pushdown de jointure DSv2 pour utiliser la colonne précédemment aliasée
  • SPARK-52866 Ajouter une prise en charge pour try_to_date
  • SPARK-52846 Ajoutez une métrique dans JDBCRDD pendant combien de temps il faut pour extraire le jeu de résultats
  • SPARK-52859 Ajouter la caractéristique SparkSystemUtils
  • SPARK-52823 Prise en charge du pushdown de jointure DSv2 pour le connecteur Oracle
  • SPARK-52165 Configurer la génération de modèles de génération pour le projet pipelines
  • SPARK-52869 Ajouter la validation FrameLessOffsetWindowFunction à validateResolvedWindowExpression pour la réutilisation dans l’analyseur à passe unique
  • SPARK-52885 Implémenter les fonctions d’heure, de minute et de seconde dans Scala pour le type TIME
  • SPARK-52903 Découper les alias de niveau supérieur avant la résolution LCA
  • SPARK-52832 Correction du guillemet d’identificateur de dialecte JDBC
  • SPARK-52870 Guillemets corrects noms de variables dans l’instruction FOR
  • SPARK-52859 Ajouter une SparkSystemUtils caractéristique
  • SPARK-52900 Utiliser SparkStringUtils.stringToSeq dans FsHistoryProvider
  • SPARK-52809 Ne pas contenir de références de lecteur et d’itérateur pour toutes les partitions des écouteurs d’achèvement des tâches pour la mise à jour des métriques
  • SPARK-52815 Améliorer SparkClassUtils la prise en charge getAllInterfaces
  • SPARK-52795 Inclure runId dans les journaux du magasin d’états
  • SPARK-52779 Prise en charge du littéral TimeType dans Connect
  • SPARK-52899 Correction du test QueryExecutionErrorsSuite pour inscrire H2Dialect
  • SPARK-52862 Correction de la vérification de la nullabilité de Decimal('NaN')
  • SPARK-52214 Flèche UDF pour l’agrégation
  • SPARK-52787 Réorganiser l’exécution de streaming dir autour des zones d’exécution et de point de contrôle
  • SPARK-51564 Analyse TIME au format horloge de 12 heures
  • SPARK-52859 Ajouter une SparkSystemUtils caractéristique
  • SPARK-51562 Ajouter une time fonction
  • SPARK-52850 Ignorer les conversions d’appels si la fonction d’identité
  • SPARK-52863 Nettoyer les chemins de code pour les anciennes versions de pandas
  • SPARK-52516 Ne conservez pas la référence d’itérateur précédente après l’avancement vers le fichier suivant dans ParquetPartitionReaderFactory
  • SPARK-52848 Évitez d’effectuer un Double cast dans la conversion de TIME/TIMESTAMP en DECIMAL
  • SPARK-52770 Type de prise en charge TIME dans le proto de connexion
  • SPARK-52842 Nouvelles fonctionnalités et correctifs de bogues pour l’analyseur à passe unique
  • SPARK-52620 Prise en charge du cast de TIME sur DECIMAL
  • SPARK-52783 Refactoriser la logique de validation windowFunction à partir de checkAnalysis pour la réutilisation dans l’analyseur à passe unique
  • SPARK-51695 Synchroniser la table de création/remplacement/modification du système d’exploitation pour une contrainte unique via DSv2
  • SPARK-51695 Synchroniser la contrainte de suppression OSS via DSv2
  • SPARK-52824 Classification des erreurs CheckpointFileManager
  • SPARK-52829 Correction de LocalDataToArrowConversion.convert pour gérer correctement les lignes vides
  • SPARK-52811 Optimiser ArrowTableToRowsConversion.convert pour améliorer ses performances
  • SPARK-52796 Optimiser LocalDataToArrowConversion.convert pour améliorer ses performances
  • SPARK-51695 Synchroniser les modifications apportées à l’analyseur de contraintes ALTER Table OSS
  • SPARK-52619 Cast TimeType en IntegralType
  • SPARK-52187 Présentation du pushdown de jointure pour DSv2
  • SPARK-52782 Retourner NULL à partir de +/- à datetime avec NULL
  • SPARK-51695 Introduire les modifications de l’analyseur pour les contraintes de table (CHECK, PK, FK)
  • SPARK-52808spark.history.retainedApplications doit être positif
  • SPARK-52776 Ne fractionnez pas le champ comm dans ProcfsMetricsGetter
  • SPARK-52793 Support isUnix à l’adresse o.a.s.util.Utils
  • SPARK-52792 Supprimer la commons-lang3 dépendance de network-common
  • SPARK-52797 Utiliser Utils.isWindows au lieu de réévaluer dans PythonWorkerFactory
  • SPARK-52784 Ajouter un cast TimeZoneAware dans WindowFrameTypeCoercion.createBoundaryCast
  • SPARK-52725 Retarder l’initialisation du gestionnaire de profils de ressources jusqu’à ce que le plug-in soit chargé
  • SPARK-52565 Appliquer la résolution ordinale avant d’autres expressions d’ordre de tri
  • SPARK-52740 Correction de NPE dans HDFSBackedStateStoreProvider accédant à StateStoreConf.sqlConf lorsque la version du format de point de contrôle est >=2
  • SPARK-52673 Ajouter la gestion grpc RetryInfo aux stratégies de nouvelle tentative Spark Connect
  • SPARK-52724 Améliorer la gestion des erreurs de jointure de diffusion OOM avec SHUFFLE_MERGE prise en charge des indicateurs
  • SPARK-52781 Correction de la faute de frappe dtyeps dans internal.py
  • SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
  • SPARK-52727 Refactoriser la résolution de fenêtre afin de la réutiliser dans l’analyseur à passe unique
  • SPARK-52695 Prise en charge de l’écriture de type défini par l’utilisateur pour le format de fichier xml
  • SPARK-52722 Déprécier la classe JdbcRDD
  • SPARK-51695 Introduire les modifications de l’analyseur pour les contraintes de table (CHECK, PK, FK)
  • SPARK-52763 Prise en charge de la soustraction TIME
  • SPARK-52768 Correction de la faute de frappe « déplacement » dans pandas/series.py
  • SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
  • SPARK-52694 Ajouter une o.a.s.sql.Encoders#udtAPI
  • SPARK-52720 Correction de l’élargissement du type float32 sous add/radd ANSI
  • SPARK-52723 Validation du nom de colonne côté serveur
  • SPARK-52760 Correction de l’élargissement du type float32 sous sub/rsub ANSI
  • SPARK-52738 Prise en charge de l’agrégation du type TIME avec un UDAF lorsque la mémoire tampon sous-jacente est une UnsafeRow
  • SPARK-52704 Simplifier les interopérations entre les options SQLConf et de format de fichier dans TextBasedFileFormats
  • SPARK-52706 Corriger les incohérences et les types primitifs refactorisables dans l’analyseur
  • SPARK-52718 Correction de l’élargissement du type float32 sous rmod/mod ANSI
  • SPARK-52736 Correction des fautes de frappe « déplacement » dans pyspark/pandas/generic.py

Prise en charge du pilote ODBC/JDBC d'Azure Databricks

Azure Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).

Environnement du système

  • Système d’exploitation : Ubuntu 24.04.3 LTS
  • Java : Zulu17.58+21-CA
  • Scala : 2.13.16
  • Python : 3.12.3
  • R : 4.4.2
  • Delta Lake : 4.0.0

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 flèche 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 attributs 24.3.0
commande automatique 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob (service de stockage de blobs Azure) 12.23.0 Azure Storage File Data Lake 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 bellesoupe4 4.12.3 black 24.10.0
bleach 6.2.0 clignotant 1.7.0 boto3 1.36.2
botocore 1.36.3 cachetools 5.5.1 certifi 2025.1.31
cffi 1.17.1 chardet 4.0.0 charset-normalizer 3.3.2
cliquez 8.1.7 cloudpickle 3.0.0 comm 0.2.1
contourpy 1.3.1 cryptographie 43.0.3 cycliste 0.11.0
Cython 3.0.12 Kit de développement logiciel Databricks (SDK) 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 décorateur 5.1.1 defusedxml 0.7.1
Deprecated 1.2.13 distlib 0.3.9 Conversion de docstring en markdown 0.11
executing 0.8.3 aperçu des facettes 1.1.1 fastapi 0.115.12
validation rapide des schémas JSON (fastjsonschema) 2.21.1 verrou de fichier 3.18.0 outils de police 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
google-cloud-core 2.4.3 google-cloud-storage (Stockage dans le cloud de Google) 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 IDNA 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
spécifications du schéma JSON 2023.7.1 événements Jupyter 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 serveur Jupyter 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets (widgets pour JupyterLab) 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny (version légère de mlflow) 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-extensions 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
notebook 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions 0.53b1 remplace 7.4.0 empaquetage 24,2
Pandas 2.2.3 pandocfilters 1.5.0 parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
pillow 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 pluggy 1.5.0 prometheus_client 0.21.0
prompt-toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser 2.21
pydantic 2.10.6 pydantic_core 2.27.2 pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.12.0
pytoolconfig 1.2.6 pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 référencement 0.30.2 requests 2.32.3
RFC3339 validateur 0.1.4 rfc3986-validator 0.1.1 rich 13.9.4
corde 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy (bibliothèque Python pour le calcul scientifique) 1.15.1
seaborn 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
six 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortedcontainers 2.4.0 soupsieve 2.5 sqlparse 0.5.3
ssh-import-id 5.11 données en pile 0.2.0 starlette 0.46.2
statsmodels, une bibliothèque Python pour la modélisation statistique 0.14.4 strictyaml 1.7.3 ténacité 9.0.0
terminé 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornade 6.4.2
Traitlets 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unattended-upgrades 0.1 uri-template 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolores 24.11.1 webencodings 0.5.1
websocket-client 1.8.0 c’est quoi le patch 1.0.2 roue 0.45.1
widgetsnbextension 3.6.6 wrapt 1.17.0 yapf 0.40.2
zipp 3.21.0

Bibliothèques R installées

Les bibliothèques R sont installées à partir de l'instantané CRAN du gestionnaire de packages en date du 20-03-2025.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
flèche 19.0.1 Askpass 1.2.1 assertthat 0.2.1
backports 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 objet BLOB 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 balai 1.0.7
bslib 0.9.0 cachemire 1.1.0 callr 3.7.6
caret 7.0-1 cellranger 1.1.0 chron 2.3-62
classe 7.3-22 cli 3.6.5 clipr 0.8.0
horloge 0.7.2 cluster 2.1.6 codetools 0,2-20
espace colorimétrique 2.1-1 commonmark 1.9.5 compilateur 4.4.2
config 0.3.2 conflicted 1.2.0 cpp11 0.5.2
crayon 1.5.3 credentials 2.0.2 friser 6.4.0
data.table 1.17.0 ensembles de données 4.4.2 DBI 1.2.3
dbplyr 2.5.0 desc 1.4.3 devtools 2.4.5
diagramme 1.6.5 diffobj 0.3.5 digérer 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 ellipse 0.3.2 évaluer 1.0.3
fans 1.0.6 couleurs 2.1.2 carte rapide 1.2.0
fontawesome 0.5.3 condamnés 1.0.0 foreach 1.5.2
foreign 0.8-86 forge 0.2.0 fs 1.6.5
futur 1.34.0 future.apply 1.11.3 gargle 1.5.2
produits génériques 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 colle 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
graphisme 4.4.2 grDevices 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0.7 gt 0.11.1
gtable 0.3.6 hardhat 1.4.1 haven 2.5.4
highr 0.11 hms 1.1.3 outils HTML 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 itérateurs 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1,50 étiquetage 0.4.3
plus tard 1.4.1 lattice 0.22-5 lave 1.8.1
cycle de vie 1.0.4 listenv 0.9.1 lubridate 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 méthodes 4.4.2
mgcv 1.9-1 mime 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 modèleur 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.3.3 parallèle 4.4.2
parallèlement 1.42.0 pilier 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr (un package logiciel pour le traitement de données) 1.8.9 éloge 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 progrès 1.2.3
progressr 0.15.1 promesses 1.3.2 proto 1.0.0
mandataire 0,4-27 p.s. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest (algorithme d'apprentissage automatique) 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 réactif 0.4.4
reactR 0.6.1 readr 2.1.5 readxl 1.4.5
recettes 1.2.0 match retour 2.0.0 revanche2 2.1.2
remotes 2.5.0 exemple reproductible 2.1.1 reshape2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
écailles 1.3.0 selectr 0,4-2 informations sur la session 1.2.3
forme 1.4.6.1 brillant 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statistiques 4.4.2 statistiques4 4.4.2
chaine 1.8.7 stringr 1.5.1 survie 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 mise en forme de texte 1.0.0
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 changement d'heure 0.3.0 date-heure 4041.110
tinytex 0.56 outils 4.4.2 tzdb 0.5.0
vérificateur d'URL 1.0.1 Utilise ça 3.1.0 utf8 1.2.6
utilitaires 4.4.2 Identifiant unique universel (UUID) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 Vroom 1.6.5
Waldo 0.6.1 vibrisse 0.4.1 flétrir 3.0.2
xfun 0,51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.1.0
zip 2.3.2

Bibliothèques Java et Scala installées (version du cluster Scala 2.13)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics ruisseau 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml Camarade de classe 1.5.1
com.fasterxml.jackson.core jackson-annotations 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine caféine 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 natifs
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib système_natif-java 1.1 natifs
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 natifs
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1 natifs
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone annotations_sujettes_aux_erreurs 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava goyave 33.4.0-jre
com.google.guava listenablefuture 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profileur 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (compression utilisant l'algorithme LZF) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-analyseurs 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections (bibliothèque de collections communes) commons-collections (bibliothèque de collections communes) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresseur d'air 2.0.2
io.delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics annotation des métriques 4.2.30
io.dropwizard.metrics métriques de base 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics métriques-vérifications de santé 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics Metrics-JMX 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics servlets de métriques 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty transport-netty-natif-commun-unix 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx collectionneur 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine conserve 1,5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk (module d'ingestion de Snowflake) 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant fourmi 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow vecteur-flèche 18.2.0
org.apache.avro Avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons texte commun 1.13.0
org.apache.curator curator-client 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator curator-recipes 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory (mémoire de croquis de données) 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop environnement d'exécution du client Hadoop 3.4.1
org.apache.hive hive-beeline (outil de ligne de commande d'Apache Hive) 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims Composant commun de hive-shims 2.3.10
org.apache.hive.shims programmeur de cales de hive 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy lierre 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc orc-format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper gardien de zoo 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino compilateur commun 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty jetty-http 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty jetty-plus 9.4.53.v20231009
org.eclipse.jetty jetty-proxy 9.4.53.v20231009
org.eclipse.jetty jetty-security (sécurité de quai) 9.4.53.v20231009
org.eclipse.jetty serveur jetty 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty jetty-webapp 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-client 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket serveur websocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de conteneur jersey 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenèse 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatible avec scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1,10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly.openssl 1.1.3.Finale
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
stax stax-api 1.0.1

Conseil / Astuce

Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.