Partager via


Databricks Runtime 15.3 (EoS)

Remarque

La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l'historique de fin de support . Pour voir toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 15.3, basé sur Apache Spark 3.5.0.

Databricks a publié cette version en juin 2024.

Nouvelles fonctionnalités et améliorations

PySpark DataSources prend désormais en charge la lecture et l’écriture de flux

PySpark DataSources, qui permettent la lecture à partir de sources de données personnalisées et l’écriture dans des récepteurs de données personnalisés, prennent désormais en charge la lecture et l’écriture de flux. Consultez Sources de données personnalisées de PySpark.

Désactiver le mappage de colonnes avec la fonctionnalité d’annulation

Vous pouvez désormais utiliser DROP FEATURE pour désactiver le mappage de colonnes sur les tables Delta et rétrograder le protocole de table. Consultez Désactiver le mappage de colonnes.

Syntaxe et fonctions de type variant dans l'aperçu public

La prise en charge native d’Apache Spark pour l’utilisation de données semi-structurées en tant que type VARIANT est désormais disponible dans les DataFrames Spark et SQL. Consulte Données de variante de requête.

Prise en charge des types de variantes pour Delta Lake en préversion publique

Vous pouvez maintenant utiliser VARIANT pour stocker des données semi-structurées dans des tables soutenues par Delta Lake. Consultez Prise en charge des variantes dans Delta Lake.

Prise en charge des différents modes d’évolution du schéma dans les vues

CREATE VIEW et ALTER VIEW vous permet désormais de définir un mode de liaison de schéma, ce qui améliore la façon dont les vues gèrent les modifications de schéma dans les objets sous-jacents. Cette fonctionnalité permet aux vues de tolérer ou d’adapter les modifications de schéma dans les objets sous-jacents. Il traite les modifications apportées au schéma de requête résultant des modifications apportées aux définitions d’objets.

Prise en charge des méthodes observe() ajoutées au client Scala Spark Connect

Le client Spark Connect Scala prend désormais en charge les méthodes Dataset.observe(). La prise en charge de ces méthodes vous permet de définir des métriques à observer sur un objet Dataset à l’aide des méthodes ds.observe("name", metrics...) ou ds.observe(observationObject, metrics...).

Latence de redémarrage de flux améliorée pour le chargeur automatique

Cette version inclut une modification qui améliore la latence de redémarrage du flux pour le chargeur automatique. Cette amélioration est implémentée en rendant asynchrone le chargement de l’état par le stockage d’état RocksDB. Avec cette modification, vous devriez constater une amélioration des temps de démarrage pour les flux avec des états importants, par exemple, des flux avec un grand nombre de fichiers déjà ingérés.

Retourner un DataFrame en tant que pyarrow.Table

Pour prendre en charge l’écriture d’un DataFrame directement dans un objet Apache Arrow pyarrow.Table, cette version inclut la fonction DataFrame.toArrow(). Pour en savoir plus sur l’utilisation de Arrow dans PySpark, consultez Apache Arrow dans PySpark.

Amélioration des performances pour certaines fonctions de fenêtre

Cette version inclut une modification qui améliore les performances de certaines fonctions de fenêtre Spark, en particulier les fonctions qui n’incluent pas une clause ORDER BY ou un paramètre window_frame. Dans ces cas, le système peut réécrire la requête pour l’exécuter à l’aide d’une fonction d’agrégation. Cette modification permet à la requête de s’exécuter plus rapidement à l’aide de l’agrégation partielle et d’éviter la surcharge liée à l’exécution des fonctions de fenêtre. Le paramètre de configuration Spark spark.databricks.optimizer.replaceWindowsWithAggregates.enabled contrôle cette optimisation et est défini sur true par défaut. Pour désactiver cette optimisation, définissez spark.databricks.optimizer.replaceWindowsWithAggregates.enabled sur false.

Ajout de la prise en charge de la fonction try_mod

Cette version ajoute la prise en charge de la fonction PySpark try_mod(). Cette fonction prend en charge le calcul compatible ANSI SQL du reste entier à partir de la division de deux valeurs numériques. Si l’argument diviseur est 0, la fonction try_mod() retourne null au lieu de lever une exception. Vous pouvez utiliser la fonction try_mod() au lieu de mod ou de %, qui lève une exception si l’argument de division est 0 et QUE SQL ANSI est activé.

Prise en charge d’un paramètre facultatif d’étendue dans le list_secrets()

Cette version vous permet de limiter les résultats de la fonction list_secrets() table à une étendue spécifique.

Résolution des bogues

Les métriques WriteIntoDeltaCommand s’affichent maintenant correctement dans l’interface utilisateur Spark.

Cette version inclut un correctif des métriques affichées sous l’onglet SQL de l’interface utilisateur Spark pour le nœud Execute WriteIntoDeltaCommand. Auparavant, les métriques indiquées pour ce nœud étaient toutes nulles.

La fonction groupby() dans l’API Pandas a ignoré l’argument as_index=False

Cette version inclut un correctif pour un problème lié à la fonction groupby() dans l’API Pandas sur Spark. Avant ce correctif, un groupby() avec ré-étiquetage des colonnes d’agrégation et l’argument as_index=False n’incluait pas de clés de groupe dans le DataFrame obtenu.

Erreur d’analyse avec plusieurs fonctions de fenêtre qui font référence à la sortie des autres fonctions

Cette version résout un problème qui peut se produire lorsqu’une requête Spark a plusieurs fonctions de fenêtre consécutives, où les fonctions de fenêtre font référence à la sortie des autres fonctions de fenêtre. Dans de rares cas, le système peut supprimer l’une des références, ce qui entraîne des erreurs lors de l’évaluation de la requête. Ce correctif projette ces références pour garantir l’évaluation des requêtes. Cette modification est contrôlée par le paramètre de configuration Spark spark.databricks.optimizer.collapseWindows.projectReferences, qui est défini sur true par défaut. Pour désactiver cette modification, définissez spark.databricks.optimizer.collapseWindows.projectReferences sur false.

Mises à niveau de bibliothèque

  • Bibliothèques Python mises à niveau :
    • filelock de 3.13.1 vers 3.13.4
  • Bibliothèques R mises à niveau :
  • Bibliothèques Java mises à niveau :
    • org.rocksdb.rocksdbjni de 8.3.2 vers 8.11.4

Apache Spark

Databricks Runtime 15.3 inclut Apache Spark 3.5.0. Cette version inclut tous les correctifs et améliorations Spark présents dans Databricks Runtime 15.2 (EoS), ainsi que les correctifs supplémentaires suivants et les améliorations apportées à Spark :

  • [SPARK-48211] [DBRRM-1041][15.x][15.3] Rétablir "[SC-165552][sql] DB2 : Lire SMALLINT comme Sho..."
  • [SPARK-47904] [DBRRM-1040][behave-33][SC-163409] Annuler SPARK-47904 : Préserver la casse dans le schéma Avro lorsqu'on utilise enableStableIdentifiersForUnionType
  • [SPARK-48288] [SC-166141] Ajouter un type de données source pour une expression connector cast
  • [SPARK-48175] [SC-166341][sql][PYTHON] Stocker les informations de classement dans les métadonnées et non dans le type pour SER/DE
  • [SPARK-48172] [SC-166078][sql] Correction des problèmes d’échappement dans JDBCDialects
  • [SPARK-48186] [SC-165544][sql] Ajouter la prise en charge de AbstractMapType
  • [SPARK-48031] [SC-166523] Exclure des vues héritées de SCHEMA BINDING
  • [SPARK-48369] [SC-166566][sql][PYTHON][connect] Ajouter la fonction timestamp_add
  • [SPARK-48330] [SC-166458][ss][PYTHON] Correction du problème de délai d’expiration de la source de données de streaming Python pour un intervalle de déclenchement important
  • [SPARK-48369] Rétablir " [SC-166494][sql][PYTHON][connect] Add function timestamp_add»
  • [SPARK-48336] [SC-166495][ps][CONNECT] Implémenter ps.sql dans Spark Connect
  • [SPARK-48369] [SC-166494][sql][PYTHON][connect] Ajouter fonction timestamp_add
  • [SPARK-47354] [SC-165546][sql] Ajouter la prise en charge du classement pour les expressions variant
  • [SPARK-48161] [SC-165325][sql] Correction de la demande de tirage restaurée - Ajout du support du classement pour les expressions JSON
  • [SPARK-48031] [SC-166391] Décomposer la configuration viewSchemaMode, ajouter la prise en charge de SHOW CREATE TABLE
  • [SPARK-48268] [SC-166217][core] Ajouter une configuration pour SparkContext.setCheckpointDir
  • [SPARK-48312] [ES-1076198][sql] Améliorer les performances de Alias.removeNonInheritableMetadata
  • [SPARK-48294] [SC-166205][sql] Gérer les minuscules dans nestedTypeMissingElementTypeError
  • [SPARK-47254] [SC-158847][sql] Affecter des noms aux classes d’erreur _LEGACY_ERROR_TEMP_325[1-9]
  • [SPARK-47255] [SC-158749][sql] Affecter des noms aux classes d’erreur _LEGACY_ERROR_TEMP_323[6-7] et _LEGACY_ERROR_TEMP_324[7-9]
  • [SPARK-48310] [SC-166239][python][CONNECT] Les propriétés mises en cache doivent retourner des copies
  • [SPARK-48308] [SC-166152][core] Unifier l'obtention du schéma de données sans colonnes de partition dans FileSourceStrategy
  • [SPARK-48301] [SC-166143][sql] Renommer CREATE_FUNC_WITH_IF_NOT_EXISTS_AND_REPLACE en CREATE_ROUTINE_WITH_IF_NOT_EXISTS_AND_REPLACE
  • [SPARK-48287] [SC-166139][ps][CONNECT] Appliquer la méthode intégrée timestamp_diff
  • [SPARK-47607] [SC-166129] Ajouter une documentation pour l’infrastructure de journalisation structurée
  • [SPARK-48297] [SC-166136][sql] Correction d’une clause TRANSFORM de régression avec char/varchar
  • [SPARK-47045] [SC-156808][sql] Remplacer IllegalArgumentException par SparkIllegalArgumentException in sql/api
  • [SPARK-46991] [SC-156399][sql] Remplacer IllegalArgumentException par SparkIllegalArgumentException in catalyst
  • [SPARK-48031] [SC-165805][sql] Prise en charge de l’évolution du schéma de la vue
  • [SPARK-48276] [SC-166116][python][CONNECT] Ajouter la méthode manquante __repr__ pour SQLExpression
  • [SPARK-48278] [SC-166071][python][CONNECT] Affiner la représentation sous forme de chaîne de Cast
  • [SPARK-48272] [SC-166069][sql][PYTHON][connect] Ajouter la fonction timestamp_diff
  • [SPARK-47798] [SC-162492][sql] Enrichir le message d’erreur pour les échecs de lecture des valeurs décimales
  • [SPARK-47158] [SC-158078][sql] Attribuer un nom approprié et sqlState à _LEGACY_ERROR_TEMP_(2134|2231)
  • [SPARK-48218] [SC-166082][core] TransportClientFactory.createClient peut provoquer une NPE, causant FetchFailedException
  • [SPARK-48277] [SC-166066] Améliorer le message d’erreur pour ErrorClassesJsonReader.getErrorMessage
  • [SPARK-47545] [SC-165444][connect] Prise en charge du jeu de données observe pour le client Scala
  • [SPARK-48954] [SC-171672][sql] Ajouter fonction try_mod
  • [SPARK-43258] [SC-158151][sql] Assigner des noms à l'erreur _LEGACY_ERROR_TEMP_202[3,5]
  • [SPARK-48267] [SC-165903][ss] Test de régression e2e avec SPARK-47305
  • [SPARK-48263] [SC-165925] Prendre en charge la fonction collate pour les chaînes non UTF8_BINARY
  • [SPARK-48260] [SC-165883][sql] Désactiver la coordination du commiteur de sortie dans un test de ParquetIOSuite
  • [SPARK-47834] [SC-165645][sql][CONNECT] Marquer les fonctions déconseillées dans @deprecatedSQLImplicits
  • [SPARK-48011] [SC-164061][core] Stocker le nom de LogKey en tant que valeur pour éviter de générer de nouvelles instances de chaînes
  • [SPARK-48074] [SC-164647][core] Améliorer la lisibilité des logs JSON
  • [SPARK-44953] [SC-165866][core] Journaliser un avertissement lorsque le suivi aléatoire est activé le long d’un autre mécanisme pris en charge par DA
  • [SPARK-48266] [SC-165897][connect] Déplacer l’objet org.apache.spark.sql.connect.dsl de package vers le répertoire de test
  • [SPARK-47847] [SC-165651][core] Déprécier spark.network.remoteReadNioBufferConversion
  • [SPARK-48171] [SC-165178][core] Nettoyer l’utilisation des constructeurs déconseillés de o.rocksdb.Logger
  • [SPARK-48235] [SC-165669][sql] Passez directement la jointure au lieu de tous les arguments pour getBroadcastBuildSide et getShuffleHashJoinBuildSide
  • [SPARK-48224] [SC-165648][sql] Interdire les clés de mappage d’être de type variant
  • [SPARK-48248] [SC-165791][python] Correction du tableau imbriqué pour respecter la conf héritée d’inferArrayTypeFromFirstElement
  • [SPARK-47409] [SC-165568][sql] Ajouter la prise en charge du classement pour le type stringTrim de fonctions/expressions (pour UTF8_BINARY &LCASE)
  • [SPARK-48143] [ES-1095638][sql] Utiliser des exceptions légères pour le flux de contrôle entre UnivocityParser et FailureSafeParser
  • [SPARK-48146] [SC-165668][sql] Correction de la fonction d’agrégation dans With expression child assertion
  • [SPARK-48161] Rétablir « [SC-165325][sql] Ajouter la prise en charge du classement pour les expressions JSON »
  • [SPARK-47963] [CORE] Rendre l’écosystème Spark externe capable d’utiliser des mécanismes de journalisation structurés
  • [SPARK-48180] [SC-165632][sql] Améliorer le message d'erreur lorsqu'un appel UDTF avec un argument TABLE oublie les parenthèses autour de plusieurs expressions PARTITION/ORDER BY
  • [SPARK-48002] [SC-164132][python][SS] Ajouter un test pour les métriques observées dans PySpark StreamingQueryListener
  • [SPARK-47421] [SC-165548][sql] Ajouter la prise en charge du classement pour les expressions d’URL
  • [SPARK-48161] [SC-165325][sql] Ajouter la prise en charge du classement pour les expressions JSON
  • [SPARK-47359] [SC-164328][sql] Prise en charge de la fonction TRANSLATE pour travailler avec des chaînes triées
  • [SPARK-47365] [SC-165643][python] Add toArrow() DataFrame à PySpark
  • [SPARK-48228] [SC-165649][python][CONNECT] Implémenter la validation de fonction manquante dans ApplyInXXX
  • [SPARK-47986] [SC-165549][connect][PYTHON] Impossible de créer une session lorsque la session par défaut est fermée par le serveur
  • [SPARK-47963] Rétablir « [CORE] Rendre l’écosystème Spark externe capable d’utiliser des mécanismes de journalisation structurés »
  • [SPARK-47963] [CORE] Rendre l’écosystème Spark externe capable d’utiliser des mécanismes de journalisation structurés
  • [SPARK-48208] [SC-165547][ss] Ignorer la fourniture de métriques d’utilisation de la mémoire à partir de RocksDB si l’utilisation de la mémoire limitée est activée
  • [SPARK-47566] [SC-164314][sql] Prise en charge de la fonction SubstringIndex pour utiliser des chaînes collationnées
  • [SPARK-47589] [SC-162127][sql]Hive-Thriftserver : Migrer logError avec des variables vers une infrastructure de journalisation structurée
  • [SPARK-48205] [SC-165501][python] Supprimer le modificateur privé[sql] pour les sources de données Python
  • [SPARK-48173] [SC-165181][sql] CheckAnalysis doit voir l’intégralité du plan de requête
  • [SPARK-48197] [SC-165520][sql] Éviter l’erreur d’assertion pour la fonction lambda non valide
  • [SPARK-47318] [SC-162573][core] Ajoute l'étape HKDF à la dérivation de clé AuthEngine pour suivre les pratiques standard de Key Exchange (KEX).
  • [SPARK-48184] [SC-165335][python][CONNECT] Toujours définir la graine côté clientDataframe.sample
  • [SPARK-48128] [SC-165004][sql] Pour l'expression BitwiseCount / bit_count, correction de l’erreur de syntaxe générée par le code pour les entrées de type booléen
  • [SPARK-48147] [SC-165144][ss][CONNECT] Supprimer les écouteurs côté client lorsque la session Spark locale est supprimée
  • [SPARK-48045] [SC-165299][python] API Pandas groupby avec multi-aggrégations et renommage ignore as_index=False
  • [SPARK-48191] [SC-165323][sql] Prise en charge de UTF-32 pour l’encodage et le décodage de chaînes
  • [SPARK-45352] [SC-137627][sql] Éliminer les partitions de fenêtre pliables
  • [SPARK-47297] [SC-165179][sql] Ajouter la prise en charge du classement pour les expressions de format
  • [SPARK-47267] [SC-165170][sql] Ajouter la prise en charge du classement pour les expressions de hachage
  • [SPARK-47965] [SC-163822][core] Éviter orNull dans TypedConfigBuilder et OptionalConfigEntry
  • [SPARK-48166] [SQL] Éviter d’utiliser BadRecordException comme erreur orientée utilisateur dans VariantExpressionEvalUtils
  • [SPARK-48105] [SC-165132][ss] Correction de la condition de course de concurrence entre le déchargement et la capture instantanée du stockage d'état
  • [SPARK-47922] [SC-163997][sql] Implémenter l’expression try_parse_json
  • [SPARK-47719] [SC-161909][sql] Change spark.sql.legacy.timeParse...
  • [SPARK-48035] [SC-165136][sql] Correction de try_add/try_multiply étant sémantiquement équivalent à add/multiply
  • [SPARK-48107] [SC-164878][python] Exclure les tests de la distribution Python
  • [SPARK-46894] [SC-164447][python] Déplacer les conditions d’erreur PySpark dans un fichier JSON autonome
  • [SPARK-47583] [SC-163825][core] SQL Core : Migrer logError avec des variables vers une infrastructure de journalisation structurée
  • [SPARK-48064] Revenir à « [SC-164697][sql] Mettre à jour les messages d’erreur pour les classes d’erreurs liées aux routines »
  • [SPARK-48048] [SC-164846][connect][SS] Ajout de la prise en charge de l’écouteur côté client pour Scala
  • [SPARK-48064] [SC-164697][sql] Mettre à jour les messages d’erreur pour les classes d’erreur liées à la routine
  • [SPARK-48056] [SC-164715][connect][PYTHON] Réexécutez le plan si une erreur SESSION_NOT_FOUND est déclenchée et qu’aucune réponse partielle n’a été reçue
  • [SPARK-48124] [SC-165009][core] Désactiver la journalisation structurée pour Connect-Repl par défaut
  • [SPARK-47922] Rétablir « [SC-163997][sql] Implémenter l’expression try_parse_json »
  • [SPARK-48065] [SC-164817][sql] SPJ : allowJoinKeysSubsetOfPartitionKeys est trop strict
  • [SPARK-48114] [SC-164956][core] Précompiler l'expression régulière de modèle pour éviter tout travail inutile
  • [SPARK-48067] [SC-164773][sql] Corriger les colonnes par défaut de variantes
  • [SPARK-47922] [SC-163997][sql] Implémenter l’expression try_parse_json
  • [SPARK-48075] [SC-164709] [SS] Ajouter la vérification de type pour les fonctions PySpark avro
  • [SPARK-47793] [SC-164324][ss][PYTHON] Implémenter SimpleDataSourceStreamReader pour la source de données de streaming Python
  • [SPARK-48081] [SC-164719] Fix ClassCastException in NTile.checkInputDataTypes() lorsque l’argument n’est pas pliable ou de type incorrect
  • [SPARK-48102] [SC-164853][ss] Suivi de la durée pour l’acquisition de métriques source/puits lors du rapportage de la progression de la requête de streaming
  • [SPARK-47671] [SC-164854][core] Activer la journalisation structurée dans log4j2.properties.template et mettre à jour les documents
  • [SPARK-47904] [SC-163409][sql] Conserver le cas dans le schéma Avro lors de l’utilisation d’enableStableIdentifiersForUnionType
  • [SPARK-48058] [SC-164695][spark-43727][PYTHON][connect] UserDefinedFunction.returnType analyse la chaîne DDL
  • [SPARK-46922] [SC-156102][core][SQL] Ne pas encapsuler les erreurs utilisateur en temps d'exécution
  • [SPARK-48047] [SC-164576][sql] Réduire la pression mémoire des balises TreeNode vides
  • [SPARK-47934] [SC-164648][CORE] Vérifier les barres obliques de fin dans les redirections d’URL HistoryServer
  • [SPARK-47921] [SC-163826][connect] Correction de la création d’ExecuteJobTag dans ExecuteHolder
  • [SPARK-48014] [SC-164150][sql] Modifier l’erreur makeFromJava dans EvaluatePython en une erreur orientée utilisateur
  • [SPARK-47903] [SC-163424][python] Ajouter la prise en charge des types scalaires restants dans la bibliothèque Variant PySpark
  • [SPARK-48068] [SC-164579][python] mypy doit avoir --python-executable un paramètre
  • [SPARK-47846] [SC-163074][sql] Ajouter la prise en charge du type Variant dans from_json expression
  • [SPARK-48050] [SC-164322][ss] Enregistrer le plan logique au début de la requête
  • [SPARK-47810] [SC-163076][sql] Remplacer l’expression équivalente à <=> dans la condition de jointure
  • [SPARK-47741] [SC-164290] Ajout de la gestion du dépassement de capacité de pile dans l’analyseur
  • [SPARK-48053] [SC-164309][python][CONNECT] SparkSession.createDataFrame doit avertir les options non prises en charge
  • [SPARK-47939] [SC-164171][sql] Implémenter une nouvelle règle Analyzer pour déplacer ParameterizedQuery dans ExplainCommand et DescribeQueryCommand
  • [SPARK-48063] [SC-164432][core] Activer spark.stage.ignoreDecommissionFetchFailure par défaut
  • [SPARK-48016] [SC-164280][sql] Correction d’un bogue dans try_divide fonction lorsqu’il s’agit de décimales
  • [SPARK-48033] [SC-164291][sql] Correction RuntimeReplaceable des expressions utilisées dans les colonnes par défaut
  • [SPARK-48010] [SC-164051][sql][ES-1109148] Éviter les appels répétés à conf.resolver dans resolveExpression
  • [SPARK-48003] [SC-164323][sql] Ajouter la prise en charge du classement pour l’agrégation de croquis hll
  • [SPARK-47994] [SC-164175][sql] Correction d’un bogue avec le filtre de colonne CASE WHEN push down dans SQLServer
  • [SPARK-47984] [SC-163837][ml][SQL] Changer MetricsAggregate/V2Aggregator#serialize/deserialize pour appeler SparkSerDeUtils#serialize/deserialize
  • [SPARK-48042] [SC-164202][sql] Utiliser un formateur timestamp avec un fuseau horaire au niveau de la classe au lieu d’effectuer des copies au niveau de la méthode
  • [SPARK-47596] [SPARK-47600][spark-47604][SPARK-47804] Migrations de journaux structurés
  • [SPARK-47594] [SPARK-47590][spark-47588][SPARK-47584] Migrations de journaux structurés
  • [SPARK-47567] [SC-164172][sql] Prise en charge de la fonction LOCATE pour travailler avec des chaînes triées.
  • [SPARK-47764] [SC-163820][core][SQL] Nettoyage des dépendances shuffle en fonction de ShuffleCleanupMode
  • [SPARK-48039] [SC-164174][python][CONNECT] Mettre à jour la classe d’erreur pour group.apply
  • [SPARK-47414] [SC-163831][sql] Prise en charge du classement minuscule pour les expressions regexp
  • [SPARK-47418] [SC-163818][sql] Ajouter des implémentations conçues manuellement pour les fonctionnalités unicode minuscules contient, startsWith et endsWith et optimiser UTF8_BINARY_LCASE
  • [SPARK-47580] [SC-163834][sql] SQL Catalyst : éliminer les variables non nommées dans les journaux d’erreurs
  • [SPARK-47351] [SC-164008][sql] Ajouter la prise en charge du classement pour les expressions de chaîne StringToMap &Mask
  • [SPARK-47292] [SC-164151][ss] safeMapToJValue doit prendre en compte les valeurs typées Null
  • [SPARK-47476] [SC-164014][sql] Prise en charge de la fonction REPLACE pour travailler avec des chaînes triées
  • [SPARK-47408] [SC-164104][sql] Correction des mathExpressions qui utilisent StringType
  • [SPARK-47350] [SC-164006][sql] Ajouter la prise en charge de la collation pour l’expression de chaîne SplitPart
  • [SPARK-47692] [SC-163819][sql] Correction de la signification StringType par défaut dans le cast implicite
  • [SPARK-47094] [SC-161957][sql] SPJ : rééquilibrer dynamiquement le nombre de compartiments lorsqu’ils ne sont pas égaux
  • [SPARK-48001] [SC-164000][core] Supprimer non utilisé private implicit def arrayToArrayWritable de SparkContext
  • [SPARK-47986] [SC-163999][connect][PYTHON] Impossible de créer une session lorsque la session par défaut est fermée par le serveur
  • [SPARK-48019] [SC-164121] Corriger un comportement incorrect dans ColumnVector/ColumnarArray avec dictionnaire et null
  • [SPARK-47743] [SPARK-47592][spark-47589][SPARK-47581][spark-47586][SPARK-47593][spark-47595][SPARK-47587][spark-47603] Migrations de journal structuré
  • [SPARK-47999] [SC-163998][ss] Améliorer la journalisation concernant la création d’instantanés et l’ajout et suppression d’entrées dans le mappage de cache d’état dans le fournisseur de magasin d’états pris en charge par HDFS
  • [SPARK-47417] [SC-162872][sql] Support de la collation : Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences
  • [SPARK-47712] [SC-161871][connect] Autoriser les plug-ins de connexion à créer et traiter des jeux de données
  • [SPARK-47411] [SC-163351][sql] Prise en charge des fonctions StringInstr & FindInSet pour utiliser des chaînes triées
  • [SPARK-47360] [SC-163014][sql] Support de collation : Overlay, FormatString, Length, BitLength, OctetLength, SoundEx, Luhncheck
  • [SPARK-47413] [SC-163323][sql] - ajouter la prise en charge de substr/left/right pour les collations
  • [SPARK-47983] [SC-163835][sql] Déclasser spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled en interne
  • [SPARK-47964] [SC-163816][python][CONNECT] Masquer SQLContext et HiveContext dans pyspark-connect
  • [SPARK-47985] [SC-163841][python] Simplifier les fonctions avec lit
  • [SPARK-47633] [SC-163453][sql] Inclure la sortie du plan de droite dans LateralJoin#allAttributes pour une canonicalisation plus cohérente.
  • [SPARK-47909] Rétablir « [PYTHON][connect] Classe DataFrame parent pour…
  • [SPARK-47767] [SC-163096][sql] Afficher la valeur de décalage dans TakeOrderedAndProjectExec
  • [SPARK-47822] [SC-162968][sql] Interdire les expressions de hachage du type de données Variant
  • [SPARK-47490] [SC-160494][ss] Corriger l'utilisation du constructeur de RocksDB Logger pour éviter l'avertissement de dépréciation
  • [SPARK-47417] Revenir sur « [SC-162872][sql] Collation support: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences »
  • [SPARK-47352] [SC-163460][sql] Correction de la sensibilité au classement pour Upper, Lower et InitCap
  • [SPARK-47909] [PYTHON][connect] Classe DataFrame parent pour Spark Connect et Spark Classic
  • [SPARK-47417] [SC-162872][sql] Support de la collation : Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences

Prise en charge du pilote ODBC/JDBC Databricks

Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).

Consultez Mises à jour de maintenance de Databricks Runtime 15.3.

Environnement système

  • système d’exploitation: Ubuntu 22.04.4 LTS
  • Java : Zulu 8.78.0.19-CA-linux64
  • Scala : 2.12.18
  • Python : 3.11.0
  • R : 4.3.2
  • Delta Lake : 3.2.0

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
asttokens 2.0.5 astunparse 1.6.3 azure-core 1.30.1
azure-storage-blob (service de stockage de blobs Azure) 12.19.1 Azure Storage File Data Lake 12.14.0 retour d'appel 0.2.0
noir 23.3.0 clignotant 1.4 boto3 1.34.39
botocore 1.34.39 cachetools 5.3.3 certifi 2023.7.22
cffi 1.15.1 chardet 4.0.0 charset-normalizer 2.0.4
cliquez 8.0.4 cloudpickle 2.2.1 Comm. 0.1.2
contourpy 1.0.5 cryptographie 41.0.3 cycliste 0.11.0
Cython 0.29.32 Kit de développement logiciel Databricks (SDK) 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 décorateur 5.1.1 distlib 0.3.8
points d’entrée 0,4 Exécution 0.8.3 aperçu des facettes 1.1.1
verrou de fichier 3.13.4 outils de police 4.25.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth 2.29.0
google-cloud-core 2.4.1 google-cloud-storage (Stockage dans le cloud de Google) 2.16.0 google-crc32c 1.5.0
google-reprise-media 2.7.0 googleapis-common-protos 1.63.0 grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets (un outil de widgets interactifs pour Python) 7.7.2
isodate 0.6.1 Jedi 0.18.1 Jeepney (véhicule de transport public philippin) 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 porte-clés 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-skinny (version légère de mlflow) 2.11.3
more-itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 emballage 23.2
Pandas 1.5.3 parso 0.8.3 spécification de chemin 0.10.3
dupe 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Oreiller 9.4.0 pépin 23.2.1 platformdirs 3.10.0
tracé 5.9.0 prompt-toolkit 3.0.36 proto-plus 1.23.0
protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.38
pyparsing 3.0.9 python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
pytz 2022.7 PyYAML 6,0 pyzmq 23.2.0
Requêtes 2.31.0 Rsa 4,9 s3transfer 0.10.1
scikit-learn 1.3.0 scipy (bibliothèque Python pour le calcul scientifique) 1.11.1 seaborn 0.12.2
SecretStorage 3.3.1 setuptools 68.0.0 Six 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id 5.11
données en pile 0.2.0 statsmodels, une bibliothèque Python pour la modélisation statistique 0.14.0 ténacité 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tornade 6.3.2
Traitlets 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
ujson 5.4.0 mises à jour automatiques 0.1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 wcwidth 0.2.5
roue 0.38.4 zipp 3.11.0

Bibliothèques R installées

Les bibliothèques R sont installées à partir de l’instantané CRAN du gestionnaire de package Posit.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
flèche 14.0.0.2 Askpass 1.2.0 assertthat 0.2.1
rétroportage 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 morceau 4.0.5 bit 64 4.0.5
bitops 1.0-7 objet BLOB 1.2.4 botte 1.3-28
brasser 1.0-10 brio 1.1.4 balai 1.0.5
bslib 0.6.1 cachemire 1.0.8 appelant 3.7.3
caret 6.0-94 cellranger 1.1.0 Chron 2.3-61
classe 7.3-22 Interface en ligne de commande (CLI) 3.6.2 Presse-papiers 0.8.0
horloge 0.7.0 Grappe 2.1.4 codetools 0.2-19
espace colorimétrique 2.1-0 commonmark 1.9.1 compilateur 4.3.2
config 0.3.2 Conflit 1.2.0 cpp11 0.4.7
pastel 1.5.2 Pouvoirs 2.0.1 friser 5.2.0
data.table 1.15.0 ensembles de données 4.3.2 DBI 1.2.1
dbplyr 2.4.0 Desc 1.4.3 devtools 2.4.5
diagramme 1.6.5 diffobj 0.3.5 digérer 0.6.34
éclairage dirigé vers le bas 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 ellipse 0.3.2 évaluer 0.23
fans 1.0.6 couleurs 2.1.1 carte rapide 1.1.1
fontawesome 0.5.2 condamnés 1.0.0 foreach 1.5.2
étranger 0.8-85 forger 0.2.0 Fs 1.6.3
futur 1.33.1 future.apply 1.11.1 se gargariser 1.5.2
produits génériques 0.1.3 Gert 2.0.1 ggplot2 3.4.4
Gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globaux 0.16.2 colle 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
graphisme 4.3.2 grDevices 4.3.2 grille 4.3.2
gridExtra 2.3 gsubfn 0,7 Gt 0.10.1
gt ;pouvant être 0.3.4 casque de chantier 1.3.1 havre 2.5.4
plus élevé 0.10 h-m-s 1.1.3 outils HTML 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 Id 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 itérateurs 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 knitr 1,45 étiquetage 0.4.3
plus tard 1.3.2 treillis 0.21-8 lave 1.7.3
cycle de vie 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Markdown 1.12 MASSE 7.3-60
Matrice 1.5-4.1 mémorisation 2.0.1 méthode 4.3.2
mgcv 1.8-42 mime 0.12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 modeleur 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 parallèle 4.3.2
parallèlement 1.36.0 pilier 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr (un package logiciel pour le traitement de données) 1.8.9 louange 1.0.0
joliesunits 1.2.0 Proc 1.18.5 processx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 progrès 1.2.3
indicateur de progression 0.14.0 Promesses 1.2.1 prototype 1.0.0
mandataire 0,4-27 p.s. 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest (algorithme d'apprentissage automatique) 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 réactif 0.4.4
reactR 0.5.0 readr 2.1.5 readxl 1.4.3
recettes 1.0.9 match retour 2.0.0 revanche2 2.1.2
Télécommandes 2.4.2.1 exemple reproductible 2.1.0 remodeler2 1.4.4
rlang 1.1.3 rmarkdown 2.25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1,8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 rvest 1.0.3 Sass 0.4.8
écailles 1.3.0 Selectr 0,4-2 informations sur la session 1.2.2
forme 1.4.6 brillant 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 spatial 7.3-15 Cannelures 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 Statistiques 4.3.2
statistiques4 4.3.2 chaine 1.8.3 stringr 1.5.1
survie 3.5-5 charme 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
mise en forme de texte 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 changement d'heure 0.3.0
date-heure 4032.109 tinytex 0.49 outils 4.3.2
tzdb 0.4.0 vérificateur d'URL 1.0.1 utilisez ceci 2.2.2
utf8 1.2.4 utilitaires 4.3.2 Identifiant unique universel (UUID) 1.2-0
V8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
Vroom 1.6.5 Waldo 0.5.2 vibrisse 0.4.1
flétrir 3.0.0 xfun 0.41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
zeallot 0.1.0 fermeture éclair 2.3.1

Bibliothèques Java et Scala installées (version du cluster Scala 2.12)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) 1.12.610
com.amazonaws aws-java-sdk-millisecondes 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-support (nom du package logiciel) 1.12.610
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics ruisseau 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.17.1
com.databricks jets3t 0.7.1-0
com.databricks.scalapb plugin de compilation_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-ombragé 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Camarade de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caféine caféine 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 natifs
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib système_natif-java 1.1 natifs
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 natifs
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1 natifs
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone annotations sujettes à erreur 2.10.0
com.google.flatbuffers flatbuffers-java 26/05/2023
com.google.guava goyave 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger profileur 1.1.1
com.ibm.icu icu4j 72.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentilles_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections (bibliothèque de collections communes) commons-collections (bibliothèque de collections communes) 3.2.2
commons-dbcp commons-dbcp 1.4
Téléchargement de fichiers communs Téléchargement de fichiers communs 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresseur d'air 0.25
io.delta delta-sharing-client_2.12 1.0.5
io.dropwizard.metrics annotation des métriques 4.2.19
io.dropwizard.metrics métriques de base 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics métriques-vérifications de santé 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics Metrics-JMX 4.2.19
io.dropwizard.metrics métriques-json 4.2.19
io.dropwizard.metrics métriques-JVM 4.2.19
io.dropwizard.metrics servlets de métriques 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collectionneur 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine cornichon 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant fourmi 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow format de flèche 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow vecteur-flèche 15.0.0
org.apache.avro Avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator conservateur-client 2.13.0
org.apache.curator curateur-framework 2.13.0
org.apache.curator recettes sélectionnées 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory (mémoire de croquis de données) 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop environnement d'exécution du client Hadoop 3.3.6
org.apache.hive hive-beeline (outil de ligne de commande d'Apache Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims programmeur de cales de hive 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy lierre 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus annotations-du-public 0.13.0
org.apache.zookeeper gardien de zoo 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilateur commun 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security (sécurité de quai) 9.4.52.v20230823
org.eclipse.jetty serveur jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket serveur de websockets 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de conteneur jersey 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validateator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Annotations 17.0.0
org.joda joda-convert 1.7
org.joddd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenèse 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Cales 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest Compatible avec ScalaTest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel chats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly.openssl 1.1.3.Finale
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1