Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Note
La prise en charge de cette version databricks Runtime a pris fin. Pour consulter la date de fin de support, voyez l'historique de fin de support . Pour voir toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 15.2, alimentées par Apache Spark 3.5.0.
Databricks a publié cette version en mai 2024.
Changements comportementaux
Nettoyer les fichiers de métadonnées COPY INTO
L’exécution de VACUUM sur une table écrite avec COPY INTO nettoie désormais les métadonnées non référencées associées au suivi des fichiers ingérés. Il n’y a aucun impact sur la sémantique opérationnelle de COPY INTO.
La Lakehouse Federation est généralement disponible (GA)
Dans Databricks Runtime 15.2 et ultérieur, les connecteurs Lakehouse Federation pour les types de base de données suivants sont en disponibilité générale :
- MySQL
- PostgreSQL
- Amazon Redshift
- Snowflake
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Databricks
Cette version présente également les améliorations suivantes :
- Prise en charge de l'authentification unique (SSO) dans les connecteurs Snowflake et Microsoft SQL Server .
- Prise en charge d’Azure Private Link dans le connecteur SQL Server depuis des environnements de calcul serverless. Consultez Étape 3 : Créer des règles de point de terminaison privé.
- Prise en charge de pushdowns supplémentaires (chaîne, mathématiques et fonctions diverses).
- Amélioration du taux de réussite des pushdowns sur différentes formes de requête.
- Fonctionnalités de débogage des pushdowns supplémentaires :
- La sortie
EXPLAIN FORMATTEDaffiche le texte de la requête poussée vers le bas (pushed-down). - L'interface utilisateur du profil de requête affiche le texte de requête poussé vers le bas, les identificateurs de nœud fédérés et les temps d'exécution des requêtes JDBC (en mode verbeux). Consultez Afficher les requêtes fédérées générées par le système.
- La sortie
BY POSITION pour le mappage de colonnes à l’aide de COPY INTO avec des fichiers CSV sans en-tête
Dans Databricks Runtime 15.2 et versions ultérieures, vous pouvez utiliser les mots clés BY POSITION (ou une syntaxe alternative ( col_name [ , <col_name> ... ] )) avec COPY INTO pour les fichiers CSV sans en-têtes afin de simplifier le mappage des colonnes de la source vers celles de la table cible. Voir Paramètres.
Réduire la consommation de mémoire lorsque les tâches Spark échouent avec une erreur de Resubmitted
Dans Databricks Runtime 15.2 et versions ultérieures, la valeur de retour de la méthode spark TaskInfo.accumulables() est vide lorsque les tâches échouent avec une erreur Resubmitted. Auparavant, la méthode renvoyait les valeurs d'une tentative de tâche réussie précédente. Ce changement de comportement affecte les consommateurs suivants :
- Tâches Spark qui utilisent la classe
EventLoggingListener. - Écouteurs Spark personnalisés.
Pour restaurer le comportement précédent, définissez spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled sur false.
L’affichage des versions du plan d’exécution de requête adaptative est désactivé
Pour réduire la consommation de mémoire, les versions de plan DQE (Adaptive Query Execution) sont désormais désactivées par défaut dans l’interface utilisateur Spark. Pour activer l’affichage des versions du plan AQE dans l’interface utilisateur Spark, définissez la spark.databricks.sql.aqe.showPlanChangesInUI.enabled sur true.
La limite des requêtes conservées est réduite pour réduire l’utilisation de la mémoire de l’interface utilisateur Spark
Dans Databricks Runtime 15.2 et versions ultérieures, pour réduire la mémoire consommée par l’interface utilisateur Spark dans le calcul Azure Databricks, la limite du nombre de requêtes visibles dans l’interface utilisateur est réduite de 1000 à 1000. Pour modifier la limite, définissez une nouvelle valeur à l’aide de la configuration spark.sql.ui.retainedExecutions Spark.
DESCRIBE HISTORY affiche désormais des colonnes de clustering pour les tables qui utilisent le clustering liquide
Lorsque vous exécutez une requête DESCRIBE HISTORY, la colonne operationParameters affiche un champ clusterBy par défaut pour les opérations de CREATE OR REPLACE et de OPTIMIZE. Pour une table Delta qui utilise le clustering liquide, le clusterBy champ est rempli avec les colonnes de clustering de la table. Si la table n’utilise pas le clustering liquide, le champ est vide.
La syntaxe du widget notebook est obsolète
À compter de Databricks Runtime 15.2, la ${param} syntaxe d’accès aux valeurs du widget notebook dans les cellules SQL est déconseillée. Utilisez la syntaxe de marqueur de paramètre (:param) à la place. La syntaxe des marqueurs de paramètres offre une meilleure protection contre l’injection SQL et améliore les performances des requêtes.
Pour obtenir des conseils et des exemples de migration, consultez les anciens widgets de notebook. Pour plus d’informations sur l’approche recommandée actuelle, consultez les widgets Databricks.
Nouvelles fonctionnalités et améliorations
La prise en charge des clés primaires et étrangères est en GA
La prise en charge des clés primaires et étrangères dans Databricks Runtime est disponible de manière générale. La version en disponibilité générale inclut les modifications suivantes apportées aux privilèges requis pour utiliser des clés primaires et étrangères :
- Pour définir une clé étrangère, vous devez disposer du privilège
SELECTsur la table avec la clé primaire à laquelle la clé étrangère fait référence. Vous n’avez pas besoin d’être propriétaire de la table avec la clé primaire, ce qui était obligatoire auparavant. - La suppression d’une clé primaire à l’aide de la clause
CASCADEne nécessite pas de privilèges sur les tables qui définissent des clés étrangères qui référencent la clé primaire. Auparavant, vous deviez posséder les tables de référencement. - La suppression d’une table qui inclut des contraintes nécessite désormais les mêmes privilèges que la suppression de tables qui n’incluent pas de contraintes.
Pour savoir comment utiliser des clés primaires et étrangères avec des tables ou des vues, consultez CONSTRAINT clause, ADD CONSTRAINT clauseet DROP CONSTRAINT clause.
Le clustering liquide est disponible pour tout le monde
Le support du clustering liquide est désormais disponible de manière générale avec Databricks Runtime 15,2 et versions ultérieures. Voir Utilisation du clustering liquide pour les tables.
L’élargissement du type est disponible en préversion publique
Vous pouvez désormais activer l’élargissement du type sur les tables soutenues par Delta Lake. Les tables avec extension de type activée permettent de modifier le type de colonnes en un type de données plus large sans réécrire les fichiers de données sous-jacents. Consultez Élargissement du type.
Clause d’évolution du schéma ajoutée à la syntaxe de fusion SQL
Vous pouvez maintenant ajouter la clause WITH SCHEMA EVOLUTION à une instruction de fusion SQL pour activer l’évolution du schéma pour l’opération. Consultez la syntaxe d'évolution du schéma pour la fusion.
Les sources de données personnalisées PySpark sont disponibles en préversion publique
Une source de données PySpark peut être créée à l’aide de l’API DataSource Python (PySpark), qui permet de lire à partir de sources de données personnalisées et d’écrire dans des récepteurs de données personnalisés dans Apache Spark à l’aide de Python. Consultez Sources de données personnalisées de PySpark
applyInPandas et mapInPandas désormais disponibles sur le calcul de Unity Catalog avec le mode d’accès partagé
Dans le cadre d’une version de maintenance Databricks Runtime 14.3 LTS, les types UDF applyInPandas et mapInPandas sont désormais pris en charge sur le calcul en mode d'accès partagé exécutant Databricks Runtime 14.3 et versions ultérieures.
Utiliser dbutils.widgets.getAll() pour obtenir tous les widgets d’un notebook
Utilisez dbutils.widgets.getAll() pour obtenir toutes les valeurs de widget dans un notebook. Cela est particulièrement utile lors de la transmission de plusieurs valeurs de widgets à une requête Spark SQL.
Prise en charge de l’inventaire du nettoyage
Vous pouvez maintenant spécifier un inventaire des fichiers à prendre en compte lors de l’exécution de la commande VACUUM sur une table Delta. Consultez la documentation OSS Delta.
Prise en charge des fonctions de compression Zstandard
Vous pouvez désormais utiliser les fonctions zst_compress, zstd_decompresset try_zstd_decompress pour compresser et décompresser les données BINARY.
Corrections de bugs
Les plans de requête dans l’interface utilisateur SQL affichent maintenant correctement PhotonWriteStage
Lorsqu'elles sont affichées dans l'interface utilisateur SQL, les commandes write dans les plans de requête affichent incorrectement PhotonWriteStage comme opérateur. Avec cette version, l’interface utilisateur est mise à jour pour afficher PhotonWriteStage en tant qu’étape. Il s’agit d’une modification de l’interface utilisateur uniquement et n’affecte pas la façon dont les requêtes sont exécutées.
Ray est mis à jour pour résoudre les problèmes liés au démarrage des clusters Ray
Cette version inclut une version corrigée de Ray qui résout une modification majeure empêchant les clusters Ray de démarrer lorsqu'ils utilisent Databricks Runtime pour Machine Learning. Cette modification garantit que la fonctionnalité Ray est identique aux versions de Databricks Runtime antérieures à la version 15.2.
Correction de la classe d’erreur pour les fonctions DataFrame.sort() et DataFrame.sortWithinPartitions()
Cette version inclut une mise à jour des fonctions DataFrame.sort() PySpark et DataFrame.sortWithinPartitions() pour vous assurer que la classe d’erreur ZERO_INDEX est levée lorsque 0 est passé en tant qu’argument d’index. Avant, la classe d’erreur INDEX_NOT_POSITIVE était levée.
ipywidgets est rétrogradé de 8.0.4 à 7.7.2
Pour corriger les erreurs introduites par une mise à niveau d’ipywidgets vers la version 8.0.4 dans Databricks Runtime 15.0, ipywidgets est rétrogradée à 7.7.2 dans Databricks Runtime 15.2. Il s’agit de la même version incluse dans les versions précédentes de Databricks Runtime.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- GitPython de 3.1.42 à 3.1.43
- google-api-core de 2.17.1 à 2.18.0
- Mise à jour de google-auth de la version 2.28.1 à 2.29.0
- google-cloud-storage de 2.15.0 à 2.16.0
- googleapis-common-protos de 1.62.0 à 1.63.0
- ipywidgets de 8.0.4 à 7.7.2
- mlflow-skinny de 2.11.1 à 2.11.3
- s3transfer de 0.10.0 à 0.10.1
- sqlparse de 0.4.4 à 0.5.0
- typing_extensions de 4.7.1 à 4.10.0
- Bibliothèques R mises à niveau :
- Bibliothèques Java mises à niveau :
- com.amazonaws.aws-java-sdk-autoscaling de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-config de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-core de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-directconnect de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-directory de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-ec2 de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-ecs de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-efs de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-elasticache de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-emr de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-glacier de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-glue de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-iam de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-importexport de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-kinesis de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-kms de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-lambda de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-logs de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-opsworks de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-rds de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-redshift de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-route53 de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-s3 de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-ses de la version 1.12.390 à la version 1.12.610
- com.amazonaws.aws-java-sdk-simpledb de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-sns de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-sqs de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-ssm de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-sts de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-support de 1.12.390 à 1.12.610
- com.amazonaws.aws-java-sdk-workspaces de 1.12.390 à 1.12.610
- com.amazonaws.jmespath-java de 1.12.390 à 1.12.610
Apache Spark
Databricks Runtime 15.2 inclut Apache Spark 3.5.0. Cette version inclut tous les correctifs Spark et améliorations inclus dans Databricks Runtime 15.1 (EoS), ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-47941] [SC-163568] [SS] [Connect] Propagation des erreurs d’initialisation du Worker ForeachBatch aux utilisateurs pour PySpark
- [SPARK-47412] [SC-163455][sql] Ajouter la prise en charge de la collation pour LPad/RPad.
- [SPARK-47907] [SC-163408][sql] Mettre le bang sous un paramètre de configuration
-
[SPARK-46820] [SC-157093][python] Correction de la régression des messages d’erreur en restaurant
new_msg - [SPARK-47602] [SPARK-47577][spark-47598][SPARK-47577]Core/MLLib/Resource Managers : migration de journalisation structurée
- [SPARK-47890] [SC-163324][connect][PYTHON] Ajouter des fonctions variant à Scala et Python.
-
[SPARK-47894] [SC-163086][core][WEBUI] Ajouter
Environmentune page à l’interface utilisateur maître - [SPARK-47805] [SC-163459][ss] Implémentation de la durée de vie pour MapState
- [SPARK-47900] [SC-163326] Correction de la vérification du classement implicite (UTF8_BINARY)
- [SPARK-47902] [SC-163316][sql]Rendre les expressions Compute Current Time* simplifiables
- [SPARK-47845] [SC-163315][sql][PYTHON][connect] Prise en charge du type de colonne dans la fonction split pour Scala et Python
- [SPARK-47754] [SC-162144][sql] Postgres : prise en charge de la lecture de tableaux multidimensionnels
- [SPARK-47416] [SC-163001][sql] Ajouter de nouvelles fonctions à CollationBenchmark #90339
- [SPARK-47839] [SC-163075][sql] Correction du bogue d’agrégation dans RewriteWithExpression
- [SPARK-47821] [SC-162967][sql] Implémenter is_variant_null expression
-
[SPARK-47883] [SC-163184][sql] Rendre
CollectTailExec.doExecuteparesseux avec RowQueue - [SPARK-47390] [SC-163306][sql] PostgresDialect distingue TIMESTAMP de TIMESTAMP_TZ
-
[SPARK-47924] [SC-163282][core] Ajouter un journal DEBUG à
DiskStore.moveFileToBlock - [SPARK-47897] [SC-163183][sql][3.5] Correction de la régression des performances expressionSet dans scala 2.12
- [SPARK-47565] [SC-161786][python] Résilience en cas de panne du pool de travailleurs PySpark
- [SPARK-47885] [SC-162989][python][CONNECT] Rendre pyspark.resource compatible avec pyspark-connect
-
[SPARK-47887] [SC-163122][connect] Supprimer l’importation
spark/connect/common.protoinutilisée despark/connect/relations.proto - [SPARK-47751] [SC-161991][python][CONNECT] Rendre pyspark.worker_utils compatible avec pyspark-connect
- [SPARK-47691] [SC-161760][sql] Postgres : prise en charge d’un tableau multidimensionnel côté écriture
- [SPARK-47617] [SC-162513][sql] Ajouter l'infrastructure de test TPC-DS pour les collations
[SPARK-47356] [SC-162858][sql] Ajouter la prise en charge de ConcatWs & Elt (toutes les collations)-
[SPARK-47543] [SC-161234][connect][PYTHON] Inférence de
dictcommeMapTypeà partir d'un Pandas DataFrame pour autoriser la création d'un DataFrame - [SPARK-47863] [SC-162974][sql] Corriger l'implémentation de startsWith & endsWith en tenant compte du tri pour ICU
- [SPARK-47867] [SC-162966][sql] Soutien de la variante dans l'analyse JSON.
- [SPARK-47366] [SC-162475][sql][PYTHON] Ajouter VariantVal pour PySpark
- [SPARK-47803] [SC-162726][sql] Prise en charge de la conversion vers un type variant.
- [SPARK-47769] [SC-162841][sql] Ajouter l'expression schema_of_variant_agg.
- [SPARK-47420] [SC-162842][sql] Correction de la sortie du test
- [SPARK-47430] [SC-161178][sql] Prise en charge GROUP BY de MapType
- [SPARK-47357] [SC-162751][sql] Ajouter la prise en charge des fonctions majuscule, minuscule, InitCap (toutes les collations)
- [SPARK-47788] [SC-162729][ss] Vérifier le même partitionnement de hachage pour les opérations avec état de diffusion en continu
- [SPARK-47776] [SC-162291][ss] Interdire l'utilisation de la collation d'inégalité binaire dans le schéma de clé de l'opérateur avec état
- [SPARK-47673] [SC-162824][ss] Implémentation de la durée de vie (TTL) pour ListState
- [SPARK-47818] [SC-162845][connect] Introduire le cache de plan dans SparkConnectPlanner pour améliorer les performances des requêtes d’analyse
- [SPARK-47694] [SC-162783][connect] Rendre la taille maximale des messages configurable côté client
- [SPARK-47274] Rétablir « [SC-162479][python][SQL] Fournir plus d'utilisation...
- [SPARK-47616] [SC-161193][sql] Ajouter un document utilisateur pour le mappage des types de données Spark SQL à partir de MySQL
- [SPARK-47862] [SC-162837][python][CONNECT] Corriger la génération de fichiers proto
- [SPARK-47849] [SC-162724][python][CONNECT] Modifier le script de publication pour publier pyspark-connect
- [SPARK-47410] [SC-162518][sql] Refactorisation de UTF8String et de CollationFactory
- [SPARK-47807] [SC-162505][python][ML] Rendre pyspark.ml compatible avec pyspark-connect
- [SPARK-47707] [SC-161768][sql] Gestion spéciale du type JSON pour Le connecteur MySQL/J 5.x
- [SPARK-47765] Rétablir « [SC-162636][sql] Ajouter SET UN CLASSEMENT à l’analyse...
- [SPARK-47081] [SC-162151][connect][FOLLOW] Amélioration de l’utilisation du gestionnaire de progression
- [SPARK-47289] [SC-161877][sql] Autoriser les extensions à consigner les informations étendues dans le plan d’explication
- [SPARK-47274] [SC-162479][python][SQL] Fournir un contexte plus utile pour les erreurs d’API DataFrame PySpark
- [SPARK-47765] [SC-162636][sql] Ajouter SET COLLATION aux règles d’analyseur
-
[SPARK-47828] [SC-162722][connect][PYTHON]
DataFrameWriterV2.overwriteéchoue avec un plan non valide - [SPARK-47812] [SC-162696][connect] Prise en charge de la sérialisation de SparkSession pour forEachBatch Worker
- [SPARK-47253] [SC-162698][core] Autoriser LiveEventBus à s’arrêter sans vider complètement la file d’attente d’événements
- [SPARK-47827] [SC-162625][python] Avertissements manquants pour les fonctionnalités déconseillées
- [SPARK-47733] [SC-162628][ss] Ajouter des métriques personnalisées pour l’opérateur transformWithState faisant partie de la progression de la requête
- [SPARK-47784] [SC-162623][ss] Fusionner TTLMode et TimeoutMode en un seul TimeMode.
- [SPARK-47775] [SC-162319][sql] Prise en charge des types scalaires restants dans la spécification de variante.
- [SPARK-47736] [SC-162503][sql] Ajouter la prise en charge de AbstractArrayType
- [SPARK-47081] [SC-161758][connect] Prise en charge de la progression de l’exécution des requêtes
- [SPARK-47682] [SC-162138][sql] Soutenir la conversion à partir de variant.
- [SPARK-47802] [SC-162478][sql] Revenir () de la signification struct() à la signification *
- [SPARK-47680] [SC-162318][sql] Ajouter variant_explode expression.
-
[SPARK-47809] [SC-162511][sql]
checkExceptionInExpressiondoit vérifier l’erreur pour chaque mode codegen -
[SPARK-41811] [SC-162470][python][CONNECT] Implémenter
SQLStringFormatteravecWithRelations - [SPARK-47693] [SC-162326][sql] Ajouter une optimisation pour la comparaison en minuscule d'UTF8String utilisée dans le tri UTF8_BINARY_LCASE
- [SPARK-47541] [SC-162006][sql] Chaînes collées dans des types complexes prenant en charge les opérations inverses, array_join, concat, map
- [SPARK-46812] [SC-161535][connect][PYTHON] Permettre à mapInPandas / mapInArrow de prendre en charge ResourceProfile
- [SPARK-47727] [SC-161982][python] Élever SparkConf au niveau racine pour SparkSession et SparkContext
- [SPARK-47406] [SC-159376][sql] Gérer TIMESTAMP et DATETIME dans MySQLDialect
- [SPARK-47081] Rétablir « [SC-161758][connect] Prise en charge de l'exécution de requêtes »
- [SPARK-47681] [SC-162043][sql] Ajouter schema_of_variant expression.
- [SPARK-47783] [SC-162222] Ajouter quelques SQLSTATEs manquants et réorganiser YY000 pour qu'il soit utilisé...
- [SPARK-47634] [SC-161558][sql] Ajouter un support hérité pour la désactivation de la normalisation des clés de carte
- [SPARK-47746] [SC-162022] Implémenter l’encodage de plage ordinale dans RocksDBStateEncoder
- [SPARK-47285] [SC-158340][sql] AdaptiveSparkPlanExec doit toujours utiliser le context.session
- [SPARK-47643] [SC-161534][ss][PYTHON] Ajouter un test pyspark pour la source de streaming Python
- [SPARK-47582] [SC-161943][sql] Migrer logInfo Catalyst avec des variables vers un cadre de journalisation structuré
- [SPARK-47558] [SC-162007][ss] Prise en charge de la TTL du statut pour ValueState
- [SPARK-47358] [SC-160912][sql][COLLATION] Améliorer la prise en charge des expressions répétées pour retourner un type de données correct
- [SPARK-47504] [SC-162044][sql] Résolution des chaînes simples d'AbstractDataType pour StringTypeCollated
- [SPARK-47719] Rétablir « [SC-161909][sql] Modifier spark.sql.legacy.t...
- [SPARK-47657] [SC-162010][sql] Implémenter la prise en charge push du filtre de classement par source de fichier
- [SPARK-47081] [SC-161758][connect] Prise en charge de la progression de l’exécution des requêtes
- [SPARK-47744] [SC-161999] Ajouter la prise en charge des octets à valeur négative dans l’encodeur de plage
- [SPARK-47713] [SC-162009][sql][CONNECT] Corriger un échec de jointure automatique
- [SPARK-47310] [SC-161930][ss] Ajouter un micro-benchmark pour les opérations de fusion pour plusieurs valeurs dans la partie contenant les valeurs du magasin d’état
- [SPARK-47700] [SC-161774][sql] Correction de la mise en forme des messages d’erreur avec treeNode
- [SPARK-47752] [SC-161993][ps][CONNECT] Rendre pyspark.pandas compatible avec pyspark-connect
- [SPARK-47575] [SC-161402][spark-47576][SPARK-47654] Implémenter logWarning/logInfo API dans l’infrastructure de journalisation structurée
- [SPARK-47107] [SC-161201][ss][PYTHON] Implémenter le lecteur de partition pour la source de données de streaming Python
- [SPARK-47553] [SC-1617772][ss] Ajouter la prise en charge de Java pour les API d’opérateur transformWithState
- [SPARK-47719] [SC-161909][sql] Modifier la valeur par défaut de spark.sql.legacy.timeParserPolicy en CORRECTED
- [SPARK-47655] [SC-161761][ss] Intégrer le minuteur à la gestion de l’état initial pour state-v2
- [SPARK-47665] [SC-161550][sql] Utiliser SMALLINT pour écrire ShortType dans MYSQL
- [SPARK-47210] [SC-161777][sql] Ajout d'un casting implicite sans support pour indéterminé
- [SPARK-47653] [SC-161767][ss] Ajouter la prise en charge des types numériques négatifs et de l’encodeur de clé d’analyse de plage
- [SPARK-46743] [SC-160777][sql] Nombre de bogues après le pliage constant
- [SPARK-47525] [SC-154568][sql] Prise en charge de la jointure de corrélation de sous-requête sur les attributs de carte
- [SPARK-46366] [SC-151277][sql] Utiliser l’expression WITH dans BETWEEN pour éviter les expressions dupliquées
- [SPARK-47563] [SC-161183][sql] Ajouter la normalisation de la carte lors de la création
- [SPARK-42040] [SC-161171][sql] SPJ : Introduction d’une nouvelle API pour la partition d’entrée V2 pour signaler les statistiques de partition
-
[SPARK-47679] [SC-161549][sql] Utiliser
HiveConf.getConfVarsou les noms de configuration Hive directement -
[SPARK-47685] [SC-161566][sql] Restaurer la prise en charge du type
StreamdansDataset#groupBy - [SPARK-47646] [SC-161352][sql] Faire en sorte que try_to_number renvoie NULL pour des valeurs incorrectes.
- [SPARK-47366] [SC-161324][python] Ajouter des alias pyspark et dataframe parse_json
-
[SPARK-47491] [SC-161176][core] Ajouter
slf4j-apiun fichier jar au chemin de classe avant les autres répertoiresjars - [SPARK-47270] [SC-158741][sql] Dataset.isEmpty projette CommandResults localement
-
[SPARK-47364] [SC-158927][core] Avertir lorsque les plug-ins répondent
PluginEndpointpour un message unidirectionnel - [SPARK-47280] [SC-158350][sql] Supprimer la limitation du fuseau horaire pour ORACLE TIMESTAMP WITH TIMEZONE
- [SPARK-47551] [SC-161542][sql] Ajouter variant_get expression.
-
[SPARK-47559] [SC-161255][sql] Support de la génération de code pour variant
parse_json - [SPARK-47572] [SC-161351][sql] Assurer que la spécification de partition de fenêtre est ordonnable.
- [SPARK-47546] [SC-161241][sql] Améliorer la validation lors de la lecture d'un Variant à partir de Parquet
-
[SPARK-47543] [SC-161234][connect][PYTHON] Inférence de
dictcommeMapTypeà partir d'un Pandas DataFrame pour autoriser la création d'un DataFrame - [SPARK-47485] [SC-161194][sql][PYTHON][connect] Créer une colonne avec des classements dans l’API dataframe
-
[SPARK-47641] [SC-161376][sql] Améliorer les performances pour
UnaryMinusetAbs -
[SPARK-47631] [SC-161325][sql] Supprimer la méthode inutilisée
SQLConf.parquetOutputCommitterClass -
[SPARK-47674] [SC-161504][core] Activer
spark.metrics.appStatusSource.enabledpar défaut - [SPARK-47273] [SC-161162][ss][PYTHON] implémentez l’interface d’enregistreur de flux de données Python.
- [SPARK-47637] [SC-161408][sql] Utiliser errorCapturingIdentifier dans d’autres emplacements
- [SPARK-47497] Rétablir « Rétablir « [SC-160724][sql] Permettre à to_csv de prendre en charge la sortie du tableau/struct/map/binary en tant que chaînes lisibles »
- [SPARK-47492] [SC-161316][sql] Élargir les règles d'espacement dans le lexer
- [SPARK-47664] [SC-161475][python][CONNECT] Valider le nom de colonne avec le schéma mis en cache
- [SPARK-47638] [SC-161339][ps][CONNECT] Ignorer la validation du nom de colonne dans PS
- [SPARK-47363] [SC-161247][ss] État initial sans implémentation de lecteur d’état pour l’API State v2.
- [SPARK-47447] [SC-160448][sql] Autoriser la lecture de Parquet TimestampLTZ en tant que TimestampNTZ
-
[SPARK-47497] Rétablir “[SC-160724][sql] Assurer la prise en charge de
to_csvpour une sortie dearray/struct/map/binarysous forme de chaînes élégantes” -
[SPARK-47434] [SC-160122][webui] Corriger le lien
statisticsdansStreamingQueryPage - [SPARK-46761] [SC-159045][sql] Chaînes entre guillemets dans un chemin JSON doit prendre en charge ? characters
-
[SPARK-46915] [SC-155729][sql] Simplifiez
UnaryMinusAbset alignez la classe d’erreur - [SPARK-47431] [SC-160919][sql] Ajouter un classement par défaut au niveau de session
- [SPARK-47620] [SC-161242][python][CONNECT] Ajouter une fonction d’assistance pour trier les colonnes
- [SPARK-47570] [SC-161165][ss] Intégrer les modifications de l’encodeur d’analyse de plage avec l’implémentation du minuteur
-
[SPARK-47497] [SC-160724][sql] Permettre à
to_csvde supporter la sortie dearray/struct/map/binaryen jolis formats de chaînes -
[SPARK-47562] [SC-161166][connect] Extraire le traitement des littéraux de
plan.py - [SPARK-47509] [SC-160902][sql] Bloquer les expressions de sous-requête dans les fonctions lambda et d’ordre supérieur
-
[SPARK-47539] [SC-160750][sql] Rendre la valeur de retour de la méthode
castToStringAny => UTF8String - [SPARK-47372] [SC-160905][ss] Ajouter la prise en charge de l’encodeur d’état de clé utilisant un balayage de plage à utiliser avec le fournisseur de stockage d’état
- [SPARK-47517] [SC-160642][core][SQL] Privilégier Utils.bytesToString pour l'affichage de la taille
-
[SPARK-47243] [SC-158059][ss] Corriger le nom du package de
StateMetadataSource.scala - [SPARK-47367] [SC-160913][python][CONNECT] Prise en charge des sources de données Python avec Spark Connect
-
[SPARK-47521] [SC-160666][core] Utiliser
Utils.tryWithResourcelors de la lecture de données de répartition à partir d’un stockage externe - [SPARK-47474] [SC-160522][core] Rétablir SPARK-47461 et ajouter des commentaires
- [SPARK-47560] [SC-160914][python][CONNECT] Éviter RPC de valider le nom de colonne avec le schéma mis en cache
- [SPARK-47451] [SC-160749][sql] Implémentation de to_json(variant).
- [SPARK-47528] [SC-160727][sql] Ajouter la prise en charge de UserDefinedType à DataTypeUtils.canWrite
- [SPARK-44708] Rétablir « [SC-160734][python] Migrer test_reset_index assert_eq pour utiliser assertDataFrameEqual »
- [SPARK-47506] [SC-160740][sql] Ajouter la prise en charge à tous les formats de source de fichier pour les types de données compilés
- [SPARK-47256] [SC-160784][sql] Attribuer des noms aux classes d'erreurs _LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720][core] Correction du fichier jar de ressource primaire ajouté à spark.jars deux fois en mode cluster k8s
- [SPARK-47398] [SC-160572][sql] Extraire une caractéristique pour InMemoryTableScanExec afin d’autoriser l’extension des fonctionnalités
- [SPARK-47479] [SC-160623][sql] Optimiser ne peut pas écrire de données dans les relations avec plusieurs chemins de journal d'erreurs
- [SPARK-47483] [SC-160629][sql] Ajouter la prise en charge des opérations d’agrégation et de jointure sur des tableaux de chaînes compilées
- [SPARK-47458] [SC-160237][core] Correction du problème lié au calcul des tâches simultanées maximales pour l’étape de barrière
-
[SPARK-47534] [SC-160737][sql] Déplacer
o.a.s.variantverso.a.s.types.variant - [SPARK-47396] [SC-159312][sql] Ajouter un mappage général pour TIME WITHOUT TIME ZONE vers TimestampNTZType
- [SPARK-44708] [SC-160734][python] Migrer test_reset_index assert_eq pour utiliser assertDataFrameEqual
- [SPARK-47309] [SC-157733][sc-160398][SQL] XML : Ajouter des tests d’inférence de schéma pour les balises de valeur
-
[SPARK-47007] [SC-160630][sql] Ajouter l’expression
MapSort -
[SPARK-47523] [SC-160645][sql] Remplacer l'élément obsolète
JsonParser#getCurrentNameparJsonParser#currentName - [SPARK-47440] [SC-160635][sql] Correction de la transmission de la syntaxe non prise en charge à MsSqlServer
- [SPARK-47512] [SC-160617][ss] Type d'opération de balisage utilisé avec l’acquisition/libération du verrou d’instance de magasin d’état RocksDB
- [SPARK-47346] [SC-159425][python] Rendre le mode démon configurable lors de la création de workers du planificateur Python
-
[SPARK-47446] [SC-160163][core] Avertir
BlockManageravantremoveBlockInternal - [SPARK-46526] [SC-156099][sql] Prise en charge LIMIT des sous-requêtes corrélées où les prédicats référencent uniquement la table externe
-
[SPARK-47461] [SC-160297][core] Supprimer la fonction
totalRunningTasksPerResourceProfileprivée deExecutorAllocationManager - [SPARK-47422] [SC-160219][sql] Prise en charge des chaînes ordonnées dans les opérations de tableau
-
[SPARK-47500] [SC-160627][python][CONNECT] Gestion des noms des colonnes de facteur hors de
plan.py -
[SPARK-47383] [SC-160144][core] Configuration de support
spark.shutdown.timeout - [SPARK-47342] [SC-159049]Annuler “[SQL] Prise en charge de TimestampNTZ pour DB2 TIMESTAMP WITH TIME ZONE”
-
[SPARK-47486] [SC-160491][connect] Supprimer la méthode privée
ArrowDeserializers.getStringinutilisée [SPARK-47233] [SC-154486][connect][SS][2/2] Logique client & serveur pour l'écouteur de requêtes de streaming côté client- [SPARK-47487] [SC-160534][sql] Simplifier le code dans AnsiTypeCoercion
- [SPARK-47443] [SC-160459][sql] Prise en charge de l’agrégation de fenêtres pour les classements
- [SPARK-47296] [SC-160457][sql][COLLATION] Faites échouer les fonctions non prises en charge pour les collations non binaires
- [SPARK-47380] [SC-160164][connect] S'assurer que du côté du serveur, la SparkSession reste identique
- [SPARK-47327] [SC-160069][sql] Déplacer le test de concurrence des clés de tri vers CollationFactorySuite
- [SPARK-47494] [SC-160495][doc] Ajouter un document de migration pour le changement de comportement de l’inférence d’horodatage Parquet depuis Spark 3.3
- [SPARK-47449] [SC-160372][ss] Refactoriser et séparer les tests unitaires de liste/chronomètre
-
[SPARK-46473] [SC-155663][sql] Réutiliser la méthode
getPartitionedFile - [SPARK-47423] [SC-160068][sql] Classements - Définir la prise en charge des opérations pour les chaînes avec des classements
- [SPARK-47439] [SC-160115][python] Documenter l'API de source de données en Python sur la page de référence de l’API
-
[SPARK-47457] [SC-160234][sql] Correctif
IsolatedClientLoader.supportsHadoopShadedClientpour gérer Hadoop 3.4+ - [SPARK-47366] [SC-159348][sql] Implémenter parse_json.
- [SPARK-46331] [SC-152982][sql] Suppression de CodegenFallback du sous-ensemble d’expressions DateTime et de version()
- [SPARK-47395] [SC-159404] Ajouter la collation et le tri à d'autres API
-
[SPARK-47437] [SC-160117][python][CONNECT] Corriger la classe d’erreur pour
DataFrame.sort* - [SPARK-47174] [SC-154483][connect][SS][1/2] Côté serveur, écouteur du bus SparkConnectListener pour le côté client de l'écouteur de requête de streaming.
- [SPARK-47324] [SC-158720][sql] Ajouter une conversion d’horodatage manquante pour les types imbriqués JDBC
- [SPARK-46962] [SC-158834][ss][PYTHON] Ajouter une interface pour l’API de source de données de streaming Python et implémenter python Worker pour exécuter la source de données de streaming Python
- [SPARK-45827] [SC-158498][sql] Déplacer les vérifications de type de données vers CreatableRelationProvider
- [SPARK-47342] [SC-158874][sql] Prise en charge de TimestampNTZ pour le TIMESTAMP WITH TIME ZONE de DB2
- [SPARK-47399] [SC-159378][sql] Désactiver les colonnes générées pour les expressions avec des collations
- [SPARK-47146] [SC-158247][core] Fuite de thread possible lors du tri de jointure de fusion
- [SPARK-46913] [SC-159149][ss] Ajoutez la prise en charge des minuteurs basés sur le temps de traitement/de l'événement avec l'opérateur transformWithState
-
[SPARK-47375] [SC-159063][sql] Ajouter des instructions pour le mappage d’horodatage dans
JdbcDialect#getCatalystType - [SPARK-47394] [SC-159282][sql] Prise en charge de TIMESTAMP AVEC FUSEAU HORAIRE pour H2Dialect
- [SPARK-45827] Revenir à « [SC-158498][sql] Déplacer les vérifications de type de données vers ... »
- [SPARK-47208] [SC-159279][core] Autoriser le remplacement de la mémoire tampon de base
- [SPARK-42627] [SC-158021][spark-26494][SQL] Prise en charge d’Oracle TIMESTAMP WITH LOCAL TIME ZONE
- [SPARK-47055] [SC-156916][python] Mettre à niveau MyPy 1.8.0
- [SPARK-46906] [SC-157205][ss] Ajouter une vérification de modification d’opérateur avec état pour la diffusion en continu
- [SPARK-47391] [SC-159283][sql] Supprimer la solution de contournement de cas de test pour JDK 8
- [SPARK-47272] [SC-158960][ss] Ajouter une implémentation MapState pour l’API d’état v2.
- [SPARK-47375] [SC-159278][doc][FollowUp] Correction d’une erreur dans la documentation de l’option preferTimestampNTZ de JDBC
- [SPARK-42328] [SC-157363][sql] Supprimer _LEGACY_ERROR_TEMP_1175 des classes d’erreur
- [SPARK-47375] [SC-159261][doc][FollowUp] Corriger la description de l’option preferTimestampNTZ dans la documentation JDBC
- [SPARK-47344] [SC-159146] Étendre INVALID_IDENTIFIER erreur au-delà de l’interception de '-' dans un identificateur non cité et corriger "IS ! NULL » et autres.
- [SPARK-47340] [SC-159039][sql] Changer « collate » dans le typename StringType en minuscules
- [SPARK-47087] [SC-157077][sql] Déclencher l’exception de Spark avec une classe d’erreur dans la vérification des valeurs de configuration
- [SPARK-47327] [SC-158824][sql] Correction du problème de sécurité des threads dans le collateur d’ICU
- [SPARK-47082] [SC-157058][sql] Corriger la condition d’erreur hors limites
- [SPARK-47331] [SC-158719][ss] Sérialisation à l’aide de classes de cas/primitives/POJO basées sur l’encodeur SQL pour l’API d’état arbitraire v2.
- [SPARK-47250] [SC-158840][ss] Ajouter des validations supplémentaires et des modifications NERF pour le fournisseur d’état RocksDB et l’utilisation de familles de colonnes
- [SPARK-47328] [SC-158745][sql] Renommer UCS_BASIC collation en UTF8_BINARY
-
[SPARK-47207] [SC-157845][core] Support
spark.driver.timeoutetDriverTimeoutPlugin - [SPARK-47370] [SC-158956][doc] Ajouter une documentation de migration : Inférence de type TimestampNTZ sur les fichiers Parquet
- [SPARK-47309] [SC-158827][sql][XML] Ajouter des tests unitaires d’inférence de schéma
-
[SPARK-47295] [SC-158850][sql] Ajout d’ICU StringSearch pour les fonctions
startsWithetendsWith - [SPARK-47343] [SC-158851][sql] Correction du NPE lorsque la valeur de la variable est une chaîne nulle dans l'exécution immédiate
-
[SPARK-46293] [SC-150117][connect][PYTHON] Utiliser une
protobufdépendance transitive -
[SPARK-46795] [SC-154143][sql] Remplacer
UnsupportedOperationExceptionparSparkUnsupportedOperationExceptioninsql/core - [SPARK-46087] [SC-149023][python] Synchroniser les dépendances PySpark dans les documents et les exigences de développement
- [SPARK-47169] [SC-158848][sql] Désactiver le compartimentage sur les colonnes compilées
- [SPARK-42332] [SC-153996][sql] Modification de la demande en sparkException dans ComplexTypeMergingExpression
- [SPARK-45827] [SC-158498][sql] Déplacer les vérifications de type de données vers CreatableRelationProvider
- [SPARK-47341] [SC-158825][connect] Remplacer les commandes par des relations dans quelques tests dans SparkConnectClientSuite
- [SPARK-43255] [SC-158026][sql] Remplacer la classe d’erreur _LEGACY_ERROR_TEMP_2020 par une erreur interne
- [SPARK-47248] [SC-158494][sql][COLLATION] Prise en charge améliorée de la fonction de chaîne : contient
-
[SPARK-47334] [SC-158716][sql] Faire en sorte que
withColumnRenamedréutilise l’implémentation dewithColumnsRenamed - [SPARK-46442] [SC-153168][sql] DS V2 supporte la descente de PERCENTILE_CONT et de PERCENTILE_DISC.
- [SPARK-47313] [SC-158747][sql] Ajout de la gestion de l'erreur scala.MatchError à l'intérieur de QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][sql] Ajouter un type singleton variant pour Java
- [SPARK-47337] [SC-158743][sql][DOCKER] Mettre à niveau la version de l’image Docker DB2 vers la version 11.5.8.0
- [SPARK-47302] [SC-158609][sql] Mot-clé Collate utilisé comme identificateur
-
[SPARK-46817] [SC-154196][core] Correction
spark-daemon.shde l’utilisation en ajoutant unedecommissioncommande -
[SPARK-46739] [SC-153553][sql] Ajouter la classe d’erreur
UNSUPPORTED_CALL -
[SPARK-47102] [SC-158253][sql] Ajouter l’indicateur
COLLATION_ENABLEDde configuration - [SPARK-46774] [SC-153925][sql][AVRO] Utiliser mapreduce.output.fileoutputformat.compress au lieu de mapred.output.compress déprécié dans les tâches d'écriture Avro
- [SPARK-45245] [SC-146961][python][CONNECT] PythonWorkerFactory : Délai d'expiration lorsque le travailleur ne se connecte pas.
- [SPARK-46835] [SC-158355][sql][Classements] Prise en charge des jointures pour les classements non binaires
- [SPARK-47131] [SC-158154][sql][COLLATION] Prise en charge de la fonction string : contient, commence par, se termine par
- [SPARK-46077] [SC-157839][sql] Considérez le type généré par TimestampNTZConverter dans JdbcDialect.compileValue.
- [SPARK-47311] [SC-158465][sql][PYTHON] Supprimer les exceptions Python où PySpark n’est pas dans le chemin Python
- [SPARK-47319] [SC-158599][sql] Améliorer le calcul des entrées manquantes
- [SPARK-47316] [SC-158606][sql] Fix TimestampNTZ in Postgres Array
- [SPARK-47268] [SC-158158][sql][Collations] Prise en charge du partitionnement avec des collations
- [SPARK-47191] [SC-157831][sql] Éviter une recherche de relation inutile lors de la suppression du cache de la table/vue
- [SPARK-47168] [SC-158257][sql] Désactiver le pushdown du filtre Parquet lors de l’utilisation de chaînes non compilées par défaut
-
[SPARK-47236] [SC-158015][core] Correctif
deleteRecursivelyUsingJavaIOpour ignorer l’entrée de fichier non existante - [SPARK-47238] [SC-158466][sql] Réduire l’utilisation de la mémoire de l’exécuteur en rendant le code généré dans WSCG une variable de diffusion
- [SPARK-47249] [SC-158133][connect] Correction du bogue dans lequel toutes les exécutions de connexion sont considérées comme abandonnées, quel que soit leur état réel
- [SPARK-47202] [SC-157828][python] Correction d'une faute de frappe affectant les dates et heures avec tzinfo
- [SPARK-46834] [SC-158139][sql][Collations] Prise en charge des agrégations
- [SPARK-47277] [SC-158351][3.5] La fonction util PySpark assertDataFrameEqual ne doit pas prendre en charge la diffusion en continu DF
- [SPARK-47155] [SC-158473][python] Correction du problème de classe d’erreur
- [SPARK-47245] [SC-158163][sql] Améliorer le code d’erreur pour INVALID_PARTITION_COLUMN_DATA_TYPE
-
[SPARK-39771] [SC-158425][core] Ajoutez un message d’avertissement dans
Dependencylorsqu’un trop grand nombre de blocs de shuffle doit être créé. - [SPARK-47277] [SC-158329] La fonction util PySpark assertDataFrameEqual ne doit pas prendre en charge la diffusion en continu DF
- [SPARK-47293] [SC-158356][core] Générer batchSchema avec sparkSchema au lieu d’ajouter un par un
- [SPARK-46732] [SC-153517][connect] Faire fonctionner le fil de sous-requête/diffusion avec la gestion des artefacts de Connect.
- [SPARK-44746] [SC-158332][python] Ajouter d’autres documentations Python UDTF pour les fonctions qui acceptent les tables d’entrée
- [SPARK-47120] [SC-157517][sql] La poussée vers le bas du filtre de données de comparaison de valeurs nulles à partir d'une sous-requête produit une NPE dans le filtre Parquet.
-
[SPARK-47251] [SC-158291][python] Bloquer les types non valides de l’argument
argspour la commandesql -
[SPARK-47251] Annuler “[SC-158121][python] Empêcher les types non valides dans l’argument
argspour la commandesql” - [SPARK-47015] [SC-157900][sql] Désactiver le partitionnement sur les colonnes compilées
-
[SPARK-46846] [SC-154308][core] Faire en sorte que
WorkerResourceInfoétende explicitementSerializable - [SPARK-46641] [SC-156314][ss] Ajouter un seuil maxBytesPerTrigger
-
[SPARK-47244] [SC-158122][connect]
SparkConnectPlannerrendre les fonctions internes privées -
[SPARK-47266] [SC-158146][connect] Rendre
ProtoUtils.abbreviatele même type que l’entrée - [SPARK-46961] [SC-158183][ss] Utilisation de ProcessorContext pour stocker et récupérer le handle
- [SPARK-46862] [SC-154548][sql] Désactiver l'élagage des colonnes CSV en mode multiligne
- [c0][SPARK-46950][/c0] [SC-155803][core][SQL] Aligner la classe d'erreur
-
[SPARK-46368] [SC-153236][core] Assistance
readyzdans l’API de soumission REST - [SPARK-46806] [SC-154108][python] Améliorer le message d’erreur pour spark.table lorsque le type d’argument est incorrect
- [SPARK-47211] [SC-158008][connect][PYTHON] Correction de la collation de chaîne PySpark Connect ignorée
-
[SPARK-46552] [SC-151366][sql] Remplacer
UnsupportedOperationExceptionparSparkUnsupportedOperationExceptionincatalyst - [SPARK-47147] [SC-157842][python][SQL] Correction de l’erreur de conversion de chaîne ordonnée PySpark
- [SPARK-47144] [SC-157826][connect][SQL][python] Corriger l’erreur de classement Spark Connect en ajoutant le champ protobuf collateId
- [SPARK-46575] [SC-153200][sql][HIVE] Rendre l'API de développement HiveThriftServer2.startWithContext réessayable et corriger l'inconstance de ThriftServerWithSparkContextInHttpSuite
- [SPARK-46696] [SC-153832][core] Dans ResourceProfileManager, les appels de fonction doivent se produire après les déclarations de variables
- [SPARK-47214] [SC-157862][python] Créer une API UDTF pour la méthode « analyser » pour différencier les arguments NULL constants et d’autres types d’arguments
- [SPARK-46766] [SC-153909][sql][AVRO] Prise en charge du pool de mémoires tampons ZSTD pour la source de données AVRO
- [SPARK-47192] [SC-157819] Conversion de certaines erreurs _LEGACY_ERROR_TEMP_0035
- [SPARK-46928] [SC-157341][ss] Ajouter la prise en charge de ListState dans l’API d’état arbitraire v2.
-
[SPARK-46881] [SC-154612][core] Support
spark.deploy.workerSelectionPolicy -
[SPARK-46800] [SC-154107][core] Soutien
spark.deploy.spreadOutDrivers - [SPARK-45484] [SC-146014][sql] Correction du bogue qui utilise un codec de compression parquet incorrect lz4raw
- [SPARK-46791] [SC-154018][sql] Prendre en charge l'ensemble Java dans JavaTypeInference
-
[SPARK-46332] [SC-150224][sql] Migrer
CatalogNotFoundExceptionvers la classe d’erreurCATALOG_NOT_FOUND - [SPARK-47164] [SC-157616][sql] Faire en sorte que la valeur par défaut provenant d'un type plus large se comporte de la même manière pour les littéraux étroits en v2 qu'en v1
-
[SPARK-46664] [SC-153181][core] Améliorer
Masterpour assurer une récupération rapide en cas d'absence de workers et d'applications - [SPARK-46759] [SC-153839][sql][AVRO] Codec xz et zstandard prennent en charge le niveau de compression pour les fichiers avro
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).
Consultez Mises à jour de maintenance de Databricks Runtime 15.2.
Environnement du système
- système d’exploitation: Ubuntu 22.04.4 LTS
- Java : Zulu 8.74.0.17-CA-linux64
- Scala : 2.12.15
- Python : 3.11.0
- R : 4.3.2
- Delta Lake : 3.2.0
Bibliothèques Python installées
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
| azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
| black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
| cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| click | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
| contourpy | 1.0.5 | cryptography | 41.0.3 | cycler | 0.11.0 |
| Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | decorator | 5.1.1 | distlib | 0.3.8 |
| entrypoints | 0.4 | executing | 0.8.3 | facets-overview | 1.1.1 |
| filelock | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
| google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
| google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | packaging | 23.2 |
| pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
| plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
| pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
| pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
| pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
| requests | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.1 |
| scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
| traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
| ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| wheel | 0.38.4 | zipp | 3.11.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du gestionnaire de package Posit.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| arrow | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-7 | blob | 1.2.4 | boot | 1.3-28 |
| brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
| bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
| caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
| clock | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
| colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
| data.table | 1.15.0 | datasets | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
| downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | ellipsis | 0.3.2 | evaluate | 0.23 |
| fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
| future | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
| generics | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
| gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| graphics | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
| gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
| highr | 0.10 | hms | 1.1.3 | htmltools | 0.5.7 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-21 | knitr | 1.45 | labeling | 0.4.3 |
| later | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
| lifecycle | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
| Matrix | 1.5-4.1 | memoise | 2.0.1 | methods | 4.3.2 |
| mgcv | 1.8-42 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
| parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | progress | 1.2.3 |
| progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
| proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
| reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recipes | 1.0.9 | rematch | 2.0.0 | rematch2 | 2.1.2 |
| remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
| scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| shape | 1.4.6 | shiny | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
| stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
| survival | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
| timeDate | 4032.109 | tinytex | 0.49 | tools | 4.3.2 |
| tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
| utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
| V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
| vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
| withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
| zeallot | 0.1.0 | zip | 2.3.1 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
| com.amazonaws | aws-java-sdk-config | 1.12.610 |
| com.amazonaws | aws-java-sdk-core | 1.12.610 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
| com.amazonaws | aws-java-sdk-directory | 1.12.610 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
| com.amazonaws | aws-java-sdk-efs | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
| com.amazonaws | aws-java-sdk-emr | 1.12.610 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
| com.amazonaws | aws-java-sdk-glue | 1.12.610 |
| com.amazonaws | aws-java-sdk-iam | 1.12.610 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
| com.amazonaws | aws-java-sdk-kms | 1.12.610 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
| com.amazonaws | aws-java-sdk-logs | 1.12.610 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
| com.amazonaws | aws-java-sdk-rds | 1.12.610 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ses | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
| com.amazonaws | aws-java-sdk-sns | 1.12.610 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
| com.amazonaws | aws-java-sdk-sts | 1.12.610 |
| com.amazonaws | aws-java-sdk-support | 1.12.610 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
| com.amazonaws | jmespath-java | 1.12.610 |
| com.clearspring.analytics | stream | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.17.1 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | classmate | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caffeine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 72.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.25 |
| io.delta | delta-sharing-client_2.12 | 1.0.5 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collector | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest-compatible | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |