Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 16.0, propulsé par Apache Spark 3.5.0.
Databricks a publié cette version en novembre 2024.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Changements comportementaux
- Changement cassant : JDK 17 est désormais la valeur par défaut
- Changement cassant : Hosted RStudio est en fin de vie
-
Changement cassant : suppression de la prise en charge de la modification des types
byte,short,intetlongvers des types plus larges - Analyse correcte des modèles regex avec négation dans le regroupement de caractères imbriqués
-
Améliorer la détection des correspondances en double dans Delta Lake
MERGE - La méthode d’installation de la bibliothèque de cluster ne peut plus être remplacée
- Délai d’expiration par défaut de deux heures pour les installations de bibliothèques à l'échelle du cluster
-
L’installation des bibliothèques à partir de DBFS et la définition de spark conf
spark.databricks.driver.dbfsLibraryInstallationAllowedsont désactivées -
La
addArtifact()fonctionnalité est désormais cohérente entre les types de calcul - Règle backticks correctement appliquée pour les identificateurs principaux avec des caractères spéciaux
Changement cassant : JDK 17 est désormais la valeur par défaut
Dans Databricks Runtime 16.0 et versions ultérieures, la version JDK par défaut est passée de JDK 8 à JDK 17. Cette modification est apportée en raison de la dépréciation planifiée et de la fin de la prise en charge pour JDK 8. Cela affecte les éléments suivants :
- Le code Java s’exécutant sur le calcul Azure Databricks doit être compatible avec Java 17.
- Le code Scala s’exécutant dans les notebooks ou le calcul Azure Databricks doit être compatible avec Java 17.
- Les bibliothèques Java et Scala installées sur le calcul doivent être compatibles avec Java 17.
- Versions du client de metastore Apache Hive inférieures à 2.x. La définition de la configuration
spark.sql.hive.metastore.versionSpark sur une version inférieure à 2.x entraîne des problèmes de compatibilité avec java 17 et des échecs de connexion au metastore Hive. Databricks recommande de mettre à niveau Hive vers une version supérieure à la version 2.0.0.
Si vous devez revenir à Java 8, ajoutez les éléments suivants aux variables d’environnement Spark lorsque vous configurez votre calcul Azure Databricks :
JNAME=zulu8-ca-amd64
Si vous utilisez des instances ARM, utilisez les éléments suivants :
JNAME=zulu8-ca-arm64
Pour en savoir plus sur la spécification des versions JDK avec le calcul Azure Databricks, consultez Créer un cluster avec une version JDK spécifique.
Pour obtenir de l’aide sur la migration de votre code à partir de Java 8, consultez les guides suivants :
Changement cassant : Hosted RStudio est en fin de vie
Avec cette version, RStudio Server hébergé par Databricks est en fin de vie et indisponible sur n’importe quel espace de travail Azure Databricks exécutant Databricks Runtime 16.0 et versions ultérieures. Pour en savoir plus et voir la liste des alternatives à RStudio, consultez Se connecter à un serveur RStudio hébergé par Databricks.
Changement cassant : suppression de la prise en charge de la modification des types byte, short, int et long vers des types plus larges
Dans Databricks Runtime 15.4.3 et versions ultérieures, les modifications de type de données suivantes ne peuvent plus être appliquées aux tables avec la fonctionnalité d’élargissement du type activée :
-
byte,short,intetlongàdecimal. -
byte,shortetintàdouble.
Cette modification est apportée pour garantir un comportement cohérent entre les tables Delta et Apache Iceberg. Pour en savoir plus sur l’élargissement de type, consultez Type widening.
Analyse correcte des modèles regex avec négation dans le regroupement de caractères imbriqués
Cette publication inclut une modification pour prendre en charge l’analyse correcte des modèles regex avec négation dans le regroupement de caractères imbriqués. Par exemple, [^[abc]] sera analysé en tant que « tout caractère qui n’est PAS l’un des « abc ».
En outre, le comportement Photon était incohérent avec Spark pour les classes de caractères imbriquées. Les modèles regex contenant des classes de caractères imbriquées n’utilisent plus Photon et utilisent à la place Spark. Une classe de caractères imbriquée est n’importe quel modèle contenant des crochets entre crochets, tels que [[a-c][1-3]].
Améliorer la détection des doublons dans Delta Lake MERGE
Dans Databricks Runtime 15.4 LTS et ci-dessous, MERGE les opérations échouent si plusieurs lignes de la table source correspondent à la même ligne dans la table cible en fonction de la MERGE condition spécifiée dans la ON clause. Dans Databricks Runtime 16.0 et versions ultérieures, MERGE considère également les conditions spécifiées dans la WHEN MATCHED clause. Consultez Faire un upsert dans une table Delta Lake en utilisant la fusion.
La méthode d’installation de la bibliothèque de cluster ne peut plus être remplacée
Les configurations Spark spark.databricks.libraries.enableSparkPyPI, spark.databricks.libraries.enableMavenResolution et spark.databricks.libraries.enableCRANResolutionnow sont désormais par défaut true et ne peuvent pas être remplacées.
Délai d’expiration par défaut de deux heures pour les installations de bibliothèques au niveau du cluster
Dans Databricks Runtime 16.0 et versions ultérieures, l’installation de la bibliothèque au niveau du cluster a un délai d’expiration par défaut de deux heures. Les installations de bibliothèque qui prennent plus de temps que ce délai d’attente échouent et l’installation est terminée. Lors de la configuration d’un cluster, vous pouvez modifier la période d’expiration à l’aide de la configuration spark.databricks.driver.clusterLibraryInstallationTimeoutSecSpark.
L’installation des bibliothèques à partir de DBFS et la définition de spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed sont désactivées
Dans Databricks Runtime 16.0 et versions ultérieures, l’installation des bibliothèques à partir de DBFS est entièrement désactivée. Cette modification est apportée pour améliorer la sécurité des bibliothèques dans un espace de travail Databricks. En outre, dans Databricks Runtime 16.0 et versions ultérieures, vous ne pouvez plus utiliser la configuration spark.databricks.driver.dbfsLibraryInstallationAllowedSpark.
La addArtifact() fonctionnalité est désormais cohérente entre les types de calcul
Avec cette version, l’archive est automatiquement décompressée lorsque vous utilisez addArtifact(archive = True) pour ajouter une dépendance au calcul partagé ou sans serveur Azure Databricks. Cette modification rend le comportement addArtifact(archive = True) sur ces types de calcul cohérents avec le calcul dédié (anciennement le calcul mono-utilisateur), qui prend déjà en charge la décompression automatique des archives.
Règle des guillemets inversés appliquée de manière adéquate pour les identificateurs principaux contenant des caractères spéciaux.
Avec cette version, les identificateurs principaux avec des caractères spéciaux dans GRANT, DENYet REVOKE les instructions lèvent maintenant une erreur s’ils ne sont pas placés dans des backticks.
Nouvelles fonctionnalités et améliorations
-
Renforcement de la fiabilité du rechargement des modules Python modifiés grâce à des améliorations de
autoreload - Prise en charge par Avro de la récursivité des schémas
- fonctions to_avro et from_avro
- Prise en charge étendue du registre de schémas Confluent pour Avro
- Forcer le reclustering sur les tables avec le clustering liquide
- Les API Delta pour Python et Scala prennent désormais en charge les colonnes d’identité
- Le contrôle d’accès précis sur un calcul dédié (anciennement « calcul à utilisateur unique ») est en disponibilité générale.
- Créer des tables en cluster liquides pendant les écritures de diffusion en continu
- Prise en charge de la OPTIMIZEclause FULL
- Prise en charge de la spécification des options WITH dans les INSERT et les références de table
- Nouvelles fonctions SQL
- Activer l’évolution automatique du schéma lors de la fusion de données dans une table Delta
Rechargement plus fiable des modules Python modifiés avec des améliorations apportées à autoreload
Dans Databricks Runtime 16.0 et versions ultérieures, les mises à jour apportées à l’extension autoreload améliorent la sécurité et la fiabilité du rechargement des modules Python modifiés importés à partir de fichiers d’espace de travail. Avec ces modifications, autoreload, le cas échéant, recharge uniquement la partie d’un module qui a changé au lieu de l’ensemble du module. En outre, Azure Databricks suggère désormais automatiquement d’utiliser l’extension autoreload si le module a changé depuis sa dernière importation. Consultez Autoreload pour les modules Python.
Prise en charge des schémas récursifs par Avro
Vous pouvez maintenant utiliser l’option recursiveFieldMaxDepth avec la from_avro fonction et la source de avro données. Cette option définit la profondeur maximale pour la récursivité du schéma sur la source de données Avro. Consultez Lire et écrire des données Avro en streaming.
fonctions to_avro et from_avro
Les fonctions to_avro et from_avro permettent la conversion de types SQL en données binaires Avro et retour.
Prise en charge étendue du registre de schémas Confluent pour Avro
Azure Databricks prend désormais en charge la référence des schémas Avro avec le registre de schémas Confluent. Consultez S’authentifier auprès d’un registre de schémas Confluent externe.
Forcer le reclustering sur les tables avec le clustering liquide
Dans Databricks Runtime 16.0 et versions ultérieures, vous pouvez utiliser la syntaxe OPTIMIZE FULL pour forcer le reclustering de tous les enregistrements d’une table avec le clustering liquide activé. Consultez Force reclustering pour tous les enregistrements.
Les API Delta pour Python et Scala prennent désormais en charge les colonnes d’identité
Vous pouvez maintenant utiliser les API Delta pour Python et Scala pour créer des tables avec des colonnes d’identité. Consultez Utiliser des colonnes d’identité dans Delta Lake.
Le contrôle d’accès affiné sur le calcul dédié (anciennement calcul mono-utilisateur) est généralement disponible
Dans Databricks Runtime 16.0 et versions ultérieures, le contrôle d’accès affiné sur le calcul dédié est généralement disponible. Dans les espaces de travail activés pour le calcul sans serveur, si une requête est exécutée sur un calcul pris en charge tel que le calcul dédié et que la requête accède à l'un des objets suivants, la ressource de calcul transmet la requête au calcul sans serveur pour effectuer le filtrage des données :
- Vues définies sur des tables sur lesquelles l’utilisateur n’a pas le privilège
SELECT. - Vues dynamiques.
- Tableaux avec des filtres de lignes ou des masques de colonne appliqués.
- Vues matérialisées et tables de streaming
Créer des tables en cluster liquides pendant les écritures de diffusion en continu
Vous pouvez désormais utiliser clusterBy pour activer le "liquid clustering" lors de la création de nouvelles tables avec des opérations d'écriture en Structured Streaming. Consultez Activer le clustering liquide.
Prise en charge de la clause FULL OPTIMIZE
Databricks Runtime 16.0 prend en charge la clause OPTIMIZE FULL. Cette clause optimise tous les enregistrements d’une table qui utilise le clustering liquide, y compris les données qui ont pu être précédemment regroupées.
Prise en charge de la spécification des options WITH dans les INSERT et les références de table
Databricks Runtime 16.0 prend en charge une spécification d’options pour les références de table et les noms de tables d’une INSERT instruction qui peut être utilisée pour contrôler le comportement des sources de données.
Nouvelles fonctions SQL
Les fonctions SQL suivantes sont ajoutées dans Databricks Runtime 16.0 :
-
Cette fonction est une version tolérante aux erreurs de url_decode. Cette fonction retourne
NULLsi l’entrée n’est pas une chaîne encodée URL valide. -
Si l’expression d’entrée à la
zeroifnull()fonction estNULL, la fonction retourne 0. Sinon, la valeur de l’expression d’entrée est retournée. -
Renvoie
NULLsi l’entrée est 0 ou si son entrée n’est pas 0. Si l’expression d’entrée de lanullifzero()fonction est 0, la fonction retourneNULL. Si l’expression d’entrée n’est pas 0, la valeur de l’expression d’entrée est retournée
Activer l’évolution automatique du schéma lors de la fusion de données dans une table Delta
Cette version ajoute la prise en charge du membre withSchemaEvolution() de la classe DeltaMergeBuilder. Utilisez withSchemaEvolution() pour activer l'évolution automatique du schéma lors des opérations MERGE. Par exemple : mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.
Autres modifications
SparkR est désormais déconseillé
Dans Databricks Runtime 16.0 et versions ultérieures, SparkR dans Databricks est obsolète en préparation à son obsolescence dans la prochaine version de Spark 4. Consultez le thread de déprécation de SparkR d’Apache Spark.
Databricks recommande d’utiliser sparklyr à la place.
Databricks Runtime 16.0 n’est pas pris en charge avec un PVC
Databricks Runtime 16.0 n’est pas pris en charge par databricks Private Virtual Cloud (PVC). Vous devez utiliser Databricks Runtime 15.4 ou une version antérieure avec toutes les publications de PVC.
Corrections de bugs
Auto Loader (Chargeur automatique) récupère désormais les types d’enregistrements Avro avec des schémas vides
Lors du chargement d’un fichier Avro dans une table Delta à l’aide du chargeur automatique, record les types du fichier qui ont un schéma vide sont désormais ajoutés à la colonne de données sauvée. Étant donné que vous ne pouvez pas ingérer des types de données complexes vides dans une table Delta, cela résout un problème lié au chargement de certains fichiers Avro. Pour en savoir plus sur les données sauvées, consultez Quelle est la colonne de données sauvée ?.
Correction de l’erreur lors de l’écriture d’horodateurs avec des fuseaux horaires contenant un deuxième décalage.
Cette version corrige un bogue affectant certains horodatages avec des fuseaux horaires contenant un deuxième décalage. Ce bogue entraîne l’omission des secondes lors de l’écriture dans JSON, XML ou CSV, ce qui entraîne des valeurs d’horodatage incorrectes.
Pour revenir au comportement précédent, utilisez l’option suivante lors de l’écriture dans l’un des formats concernés : .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- azure-core — mise à jour de la version 1.30.2 à la version 1.31.0
- azure-storage-blob de la version 12.19.1 à la version 12.23.0
- azure-storage-file-datalake de la version 12.14.0 à la version 12.17.0
- noir de 23.3.0 à 24.4.2
- blinker de la version 1.4 à la version 1.7.0
- boto3 de 1.34.39 à 1.34.69
- botocore de 1.34.39 à 1.34.69
- certifi de la version 2023.7.22 à la version 2024.6.2
- cffi de 1.15.1 à 1.16.0
- cliquez entre 8.0.4 et 8.1.7
- comm de la version 0.1.2 à la version 0.2.1
- contourpy de 1.0.5 à 1.2.0
- chiffrement de 41.0.3 à 42.0.5
- Cython de 0.29.32 à 3.0.11
- databricks-sdk de 0.20.0 à 0.30.0
- dbus-python de 1.2.18 à 1.3.2
- filelock de la version 3.13.4 à la version 3.15.4
- fonttools de 4.25.0 à 4.51.0
- GitPython de 3.1.43 à 3.1.37
- google-api-core de 2.18.0 à 2.20.0
- google-auth de 2.31.0 à 2.35.0
- google-cloud-storage de 2.17.0 à 2.18.2
- google-crc32c de 1.5.0 à 1.6.0
- google-resumable-media de 2.7.1 à 2.7.2
- googleapis-common-protos de 1.63.2 à 1.65.0
- httplib2 de 0.20.2 à 0.20.4
- idna de la version 3.4 à la version 3.7
- ipykernel de 6.25.1 à 6.28.0
- ipython de 8.15.0 à 8.25.0
- jedi de la version 0.18.1 à la version 0.19.1
- jmespath de 0.10.0 à 1.0.1
- joblib de 1.2.0 à 1.4.2
- jupyter_client de 7.4.9 à 8.6.0
- jupyter_core de 5.3.0 à 5.7.2
- launchpadlib de 1.10.16 à 1.11.0
- lazr.restfulclient de 0.14.4 à 0.14.6
- matplotlib de 3.7.2 à 3.8.4
- mlflow-skinny de 2.11.4 à 2.15.1
- more-itertools de 8.10.0 à 10.3.0
- mypy_extensions de la version 0.4.3 à la version 1.0.0
- nest-asyncio de la version 1.5.6 à la version 1.6.0
- numpy de 1.23.5 à 1.26.4
- oauthlib de 3.2.0 à 3.2.2
- packaging de la version 23.2 à la version 24.1
- patsy de la version 0.5.3 à la version 0.5.6
- pip de la version 23.2.1 à la version 24.2
- plotly de la version 5.9.0 à la version 5.22.0
- prompt-toolkit de la version 3.0.36 à la version 3.0.43
- pyarrow de 14.0.1 à 15.0.2
- pydantic de la version 1.10.6 à la version 2.8.2
- PyGObject de 3.42.1 à 3.48.2
- PyJWT de 2.3.0 à 2.7.0
- pyodbc de la version 4.0.38 à la version 5.0.1
- python-dateutil de la version 2.8.2 à la version 2.9.0.post0
- python-lsp-jsonrpc de 1.1.1 à 1.1.2
- pytz de 2022.7 à 2024.1
- PyYAML de 6.0 à 6.0.1
- pyzmq de 23.2.0 à 25.1.2
- demandes de 2.31.0 à 2.32.2
- scikit-learn de la version 1.3.0 à la version 1.4.2
- scipy de la version 1.11.1 à la version 1.13.1
- seaborn de la version 0.12.2 à la version 0.13.2
- setuptools de la version 68.0.0 à la version 74.0.0
- smmap de 5.0.1 à 5.0.0
- sqlparse de 0.5.0 à 0.5.1
- statsmodels de la version 0.14.0 à la version 0.14.2
- tornado de 6.3.2 à 6.4.1
- traitlets de la version 5.7.1 à la version 5.14.3
- typing_extensions de la version 4.10.0 à la version 4.11.0
- ujson de la version 5.4.0 à la version 5.10.0
- virtualenv de 20.24.2 à 20.26.2
- wheel de la version 0.38.4 à la version 0.43.0
- zipp de la version 3.11.0 à la version 3.17.0
- Bibliothèques R mises à niveau :
- arrow de la version 14.0.0.2 à la version 16.1.0
- backports de la version 1.4.1 à la version 1.5.0
- base de la version 4.3.2 à la version 4.4.0
- bitops de la version 1.0-7 à la version 1.0-8
- boot de la version 1.3-28 à la version 1.3-30
- brio de la version 1.1.4 vers la version 1.1.5
- broom de la version 1.0.5 à la version 1.0.6
- bslib de 0.6.1 à 0.8.0
- cachem de 1.0.8 à 1.1.0
- callr de la version 3.7.3 à la version 3.7.6
- cli de 3.6.2 à 3.6.3
- horloge de la version 0.7.0 à la version 0.7.1
- cluster de la version 2.1.4 à la version 2.1.6
- codetools de 0.2-19 à 0.2-20
- colorspace de la version 2.1-0 à la version 2.1-1
- compilateur de 4.3.2 à 4.4.0
- crayon de la version 1.5.2 à la version 1.5.3
- curl de la version 5.2.0 à la version 5.2.1
- data.table de la version 1.15.0 à la version 1.15.4
- jeux de données de 4.3.2 à 4.4.0
- DBI de la version 1.2.1 à la version 1.2.3
- dbplyr de 2.4.0 à 2.5.0
- digest de la version 0.6.34 à la version 0.6.36
- downlit de la version 0.4.3 à la version 0.4.4
- evaluate de la version 0.23 à la version 0.24.0
- farver de la version 2.1.1 à la version 2.1.2
- fastmap de 1.1.1 à 1.2.0
- foreign de la version 0.8-85 à la version 0.8-86
- fs de la version 1.6.3 à la version 1.6.4
- future de la version 1.33.1 à la version 1.34.0
- future.apply de la version 1.11.1 à la version 1.11.2
- gert de la version 2.0.1 à la version 2.1.0
- ggplot2 de 3.4.4 à 3.5.1
- gh de 1.4.0 à 1.4.1
- globals de la version 0.16.2 à la version 0.16.3
- graphiques de 4.3.2 à 4.4.0
- grDevices de la version 4.3.2 à la version 4.4.0
- grille de 4.3.2 à 4.4.0
- gt de 0.10.1 à 0.11.0
- gtable de la version 0.3.4 à la version 0.3.5
- Mise à jour de hardhat de la version 1.3.1 à la version 1.4.0
- highr de la version 0.10 à la version 0.11
- htmltools de 0.5.7 à 0.5.8.1
- httpuv de 1.6.14 à 1.6.15
- httr2 de la version 1.0.0 à la version 1.0.2
- ipred de 0.9-14 à 0.9-15
- KernSmooth de 2.23-21 à 2.23-22
- knitr de la version 1.45 à la version 1.48
- lattice de la version 0.21-8 à la version 0.22-5
- lava de la version 1.7.3 à la version 1.8.0
- markdown de la version 1.12 à la version 1.13
- MASS de la version 7.3-60 à la version 7.3-60.0.1
- Matrice comprise entre 1.5-4.1 et 1.6-5
- méthodes comprises entre 4.3.2 et 4.4.0
- mgcv de 1,8-42 à 1,9-1
- mlflow de 2.10.0 à 2.14.1
- munsell de la version 0.5.0 à la version 0.5.1
- nlme de la version 3.1-163 à la version 3.1-165
- openssl de 2.1.1 à 2.2.0
- parallel de la version 4.3.2 à la version 4.4.0
- parallelly de la version 1.36.0 à la version 1.38.0
- pkgbuild de 1.4.3 à 1.4.4
- pkgdown de la version 2.0.7 à la version 2.1.0
- pkgload de la version 1.3.4 à la version 1.4.0
- processx de la version 3.8.3 à la version 3.8.4
- prodlim de 2023.08.28 à 2024.06.25
- promesses comprises entre 1.2.1 et 1.3.0
- ps de la version 1.7.6 1 à la version 1.7.7
- ragg de la version 1.2.7 à la version 1.3.2
- Rcpp de 1.0.12 à 1.0.13
- RcppEigen de 0.3.3.9.4 à 0.3.4.0.0
- reactR de la version 0.5.0 à la version 0.6.0
- recettes comprises entre 1.0.9 et 1.1.0
- remotes de la version 2.4.2.1 à la version 2.5.0
- reprex de la version 2.1.0 à la version 2.1.1
- rlang de 1.1.3 à 1.1.4
- rmarkdown de la version 2.25 à la version 2.27
- roxygen2 de 7.3.1 à 7.3.2
- rpart de la version 4.1.21 à la version 4.1.23
- RSQLite de 2.3.5 à 2.3.7
- rstudioapi de 0.15.0 à 0.16.0
- rvest de la version 1.0.3 à la version 1.0.4
- sass de la version 0.4.8 à la version 0.4.9
- shape de la version 1.4.6 à la version 1.4.6.1
- shiny de la version 1.8.0 à la version 1.9.1
- sparklyr de la version 1.8.4 à la version 1.8.6
- spatial de la version 7.3-15 à la version 7.3-17
- splines de 4.3.2 à 4.4.0
- statistiques comprises entre 4.3.2 et 4.4.0
- stats4 de la version 4.3.2 à la version 4.4.0
- stringi de la version 1.8.3 à la version 1.8.4
- survival de la version 3.5-5 à la version 3.6-4
- swagger de la version 3.33.1 à la version 5.17.14.1
- systemfonts de la version 1.0.5 à la version 1.1.0
- tcltk de 4.3.2 à 4.4.0
- testthat de 3.2.1 à 3.2.1.1
- textshaping de la version 0.3.7 à la version 0.4.0
- tidyselect de la version 1.2.0 à la version 1.2.1
- tinytex de 0,49 à 0,52
- tools de la version 4.3.2 à la version 4.4.0
- usethis de la version 2.2.2 à la version 3.0.0
- utils de la version 4.3.2 à la version 4.4.0
- uuid de la version 1.2-0 à la version 1.2-1
- V8 de 4.4.1 à 4.4.2
- withr de la version 3.0.0 à la version 3.0.1
- xfun de 0.41 à 0.46
- xopen de 1.0.0 à 1.0.1
- yaml de la version 2.3.8 à la version 2.3.10
- Bibliothèques Java mises à niveau :
- com.amazonaws.aws-java-sdk-autoscaling de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cloudformation de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cloudfront de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cloudhsm de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cloudsearch de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cloudtrail de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatch de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-codedeploy de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-cognitosync de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-config de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-core de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-datapipeline de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-directconnect de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-directory de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-dynamodb de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-ec2 de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-ecs de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-efs de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-elasticache de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-emr de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-glacier de la version 1.12.610 à la version 1.12.638
- com.amazonaws.aws-java-sdk-glue de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-iam de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-importexport de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-kinesis de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-kms de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-lambda de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-logs de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-machinelearning de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-opsworks de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-rds de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-redshift de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-route53 de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-s3 de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-ses de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-simpledb de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-simpleworkflow de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-sns de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-sqs de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-ssm de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-storagegateway de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-sts de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-support de 1.12.610 à 1.12.638
- com.amazonaws.aws-java-sdk-workspaces de 1.12.610 à 1.12.638
- com.amazonaws.jmespath-java de 1.12.610 à 1.12.638
- com.google.protobuf.protobuf-java de la version 2.6.1 à la version 3.25.1
- io.airlift.aircompressor de la version 0.25 à la version 0.27
- io.delta.delta-sharing-client_2.12 de 1.1.3 à 1.2.0
- io.netty.netty-all de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-buffer de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-codec de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-codec-http de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-codec-http2 de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-codec-socks de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-common de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-handler de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-handler-proxy de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-resolver de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-transport de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-transport-classes-epoll de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-transport-classes-kqueue de la version 4.1.96.Final à la version 4.1.108.Final
- io.netty.netty-transport-native-epoll de la version 4.1.96.Final-linux-x86_64 à la version 4.1.108.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de la version 4.1.96.Final-osx-x86_64 à la version 4.1.108.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de la version 4.1.96.Final à la version 4.1.108.Final
- org.apache.ivy.ivy de 2.5.1 à 2.5.2
- org.apache.zookeeper.zookeeper de la version 3.6.3 à la version 3.9.2
- org.apache.zookeeper.zookeeper-jute de la version 3.6.3 à la version 3.9.2
- org.rocksdb.rocksdbjni de 8.11.4 à 9.2.1
- org.scalactic.scalactic_2.12 de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest-compatible de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest-core_2.12 de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest-diagrams_2.12 de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest-featurespec_2.12 de 3.2.15 à 3.2.16
- org.scalatest.scalatest-flatspec_2.12 de 3.2.15 à 3.2.16
- org.scalatest.scalatest-freespec_2.12 de 3.2.15 à 3.2.16
- org.scalatest.scalatest-funspec_2.12 de 3.2.15 à 3.2.16
- org.scalatest.scalatest-funsuite_2.12 de 3.2.15 à 3.2.16
- org.scalatest.scalatest-matchers-core_2.12 de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest-mustmatchers_2.12 de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest-propspec_2.12 de 3.2.15 à 3.2.16
- org.scalatest.scalatest-refspec_2.12 de 3.2.15 à 3.2.16
- org.scalatest.scalatest-shouldmatchers_2.12 de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest-wordspec_2.12 de la version 3.2.15 à la version 3.2.16
- org.scalatest.scalatest_2.12 de la version 3.2.15 à la version 3.2.16
Apache Spark
Databricks Runtime 16.0 inclut Apache Spark 3.5.0. Cette version inclut tous les correctifs spark et améliorations inclus dans Databricks Runtime 15.4 LTS, ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-49093] [DBRRM-1371] Rétablir " [SC-172958][sql] GROUP BY avec MapType nes...
- [SPARK-49898] [DBRRM-1282][sc-178410] Correction de la documentation et de la valeur par défaut pour l’indicateur de journalisation d’accumulation des métriques de tâche du journal des événements de SPARK-42204
- [SPARK-49743] [ES-1260022][behave-157][SC-177475][sql] OptimizeCsvJsonExpr ne doit pas modifier les champs de schéma lors de l'élagage de GetArrayStructFields
- [SPARK-49816] [SC-177896][sql] Ne doit mettre à jour que le compte de références sortantes de la relation CTE externe référencée
- [SPARK-48939] [SC-177022][sc-172766][AVRO] Prise en charge de la lecture d’Avro avec référence de schéma récursif
- [SPARK-49688] [SC-177468][es-1242349][CONNECT] Corriger une course de données entre l’interruption et l’exécution du plan
- [SPARK-49771] [SC-177466][python] Améliorer l’erreur UDF Iter Scalar Pandas lorsque les lignes de sortie dépassent les lignes d’entrée
- [SPARK-48866] [SC-170772][sql] Correction des indicateurs de charset valides dans le message d’erreur de INVALID_PARAMETER_VALUE.CHARSET
- [SPARK-48195] [FIXFORWARD][sc-177267][CORE] Enregistrer et réutiliser RDD/Broadcast créé par SparkPlan
- [SPARK-49585] [CONNECT] Remplacer la carte des exécutions dans SessionHolder par l’ensemble operationID
- [SPARK-49211] [SC-174257][sql] V2 Catalog peut également prendre en charge les sources de données intégrées
- [SPARK-49684] Minimiser la durée de vie du verrou de restauration de session
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Framework de journal structuré côté Java
- [SPARK-48857] [SC-170661][sql] Restreindre les charsets dans CSVOptions
- [SPARK-49152] [SC-173690][sql] V2SessionCatalog doit utiliser V2Command
- [SPARK-42846] [SC-176588][sql] Supprimer la condition d’erreur _LEGACY_ERROR_TEMP_2011
- [SPARK-48195] [SC-177267][core] Enregistrer et réutiliser les RDD/Broadcast créés par SparkPlan
- [SPARK-49630] [SC-177379][ss] Ajouter une option d’aplatissement pour traiter les types de collection avec le lecteur de source de données d’état
- [SPARK-49699] [SC-177154][ss] Désactiver PruneFilters pour les charges de travail de streaming
- [SPARK-48781] [SC-175282][sql] Ajouter des API de catalogue pour le chargement des procédures stockées
- [SPARK-49667] [SC-177068][sql] Interdire l'utilisation des collateurs CS_AI avec des expressions qui utilisent StringSearch
- [SPARK-49737] [SC-177207][sql] Désactivation du compartimentage sur les colonnes compilées dans les types complexes
- [SPARK-48712] [SC-169794][sql] Amélioration des performances pour l'encodage avec des valeurs vides ou le jeu de caractères UTF-8
- [SPARK-49038] [SC-173933][sql] SQLMetric doit signaler la valeur brute dans l’événement de mise à jour de l’accumulateur
- [SPARK-48541] [SC-169066][core] Ajouter un nouveau code de sortie pour les exécuteurs tués par TaskReaper
- [SPARK-48774] [SC-170138][sql] Utiliser SparkSession dans SQLImplicits
-
[SPARK-49719] [SC-177139][sql] Faire en sorte que
UUIDetSHUFFLEacceptent un entierseed -
[SPARK-49713] [SC-177135][python][CONNECT] faire en sorte que la fonction
count_min_sketchaccepte des arguments numériques - [SPARK-47601] [SC-162499][graphx] Graphx : migration des journaux d’activité avec des variables vers une infrastructure de journalisation structurée
- [SPARK-49738] [SC-177219][sql] Correction de bug « Endswith »
- [SPARK-48623] [SC-170822][core] Migrations de journalisations structurées [Partie 3]
- [SPARK-49677] [SC-177148][ss] Assurez-vous que les fichiers de journal des modifications sont écrits au moment de la validation et que le drapeau forceSnapshot est également réinitialisé
- [SPARK-49684] [SC-177040][connect] Supprimer les verrous globaux des gestionnaires de session et d’exécution
- [SPARK-48302] [SC-168814][python] Conserver les valeurs Null dans les colonnes de mappage dans les tables PyArrow
- [SPARK-48601] [SC-169025][sql] Donnez un message d’erreur plus convivial lors de la définition d’une valeur Null pour l’option JDBC
- [SPARK-48635] [SC-169263][sql] Affecter des classes aux erreurs de type de jointure et aux erreurs de jointure as-of
- [SPARK-49673] [SC-177032][connect] Augmenter CONNECT_GRPC_ARROW_MAX_BATCH_SIZE à 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
-
[SPARK-49693] [SC-177071][python][CONNECT] Affiner la représentation sous forme de chaîne de
timedelta -
[SPARK-49687] [SC-176901][sql] Retarder le tri dans
validateAndMaybeEvolveStateSchema -
[SPARK-49718] [SC-177112][ps] Basculer le tracé
Scattervers des données échantillonnées - [SPARK-48472] [SC-169044][sql] Activer les expressions réflectives avec des chaînes ordonnées
- [SPARK-48484] [SC-167484][sql] Correctif : V2Write utiliser le même TaskAttemptId pour différentes tentatives de tâche
- [SPARK-48341] [SC-166560][connect] Autoriser les plug-ins à utiliser QueryTest dans leurs tests
-
[SPARK-42252] [SC-168723][core] Ajouter
spark.shuffle.localDisk.file.output.bufferet déprécierspark.shuffle.unsafe.file.output.buffer - [SPARK-48314] [SC-166565][ss] Ne doublez pas les fichiers de cache pour FileStreamSource à l’aide de Trigger.AvailableNow
-
[SPARK-49567] [SC-176241][python] Utiliser
classicau lieu devanillaà partir de la base de code PySpark - [SPARK-48374] [SC-167596][python] Prendre en charge d’autres types de colonnes de tables PyArrow
-
[SPARK-48300] [SC-166481][sql] Prise en charge de Codegen pour
from_xml - [SPARK-49412] [SC-177059][ps] Calculer toutes les métriques de tracé de zone dans un seul travail
- [SPARK-49692] [SC-177031][python][CONNECT] Affiner la représentation sous forme de chaîne de date et de datetime littérale
- [SPARK-49392] [ES-1130351][sc-176705][SQL] Intercepter les erreurs lors de l’échec de l’écriture dans une source de données externe
- [SPARK-48306] [SC-166241][sql] Améliorer l’UDT dans le message d’erreur
- [SPARK-44924] [SC-166379][ss] Ajouter une configuration pour les fichiers mis en cache FileStreamSource
- [SPARK-48176] [SC-165644][sql] Ajuster le nom de FIELD_ALREADY_EXISTS condition d’erreur
-
[SPARK-49691] [SC-176988][python][CONNECT] Function
substringdoit accepter les noms de colonnes - [SPARK-49502] [SC-176077][core] Éviter NPE dans SparkEnv.get.shuffleManager.unregisterShuffle
- [SPARK-49244] [SC-176703][sql] Améliorations supplémentaires de l’exception pour l’analyseur/interpréteur
- [SPARK-48355] [SC-176684][sql] Prise en charge de l’instruction CASE
-
[SPARK-49355] [SC-175121][sql]
levenshteindevez vérifier si les valeurscollationde tous les types de paramètres sont identiques -
[SPARK-49640] [SC-176953][ps] Appliquer l’échantillonnage des réservoirs dans
SampledPlotBase -
[SPARK-49678] [SC-176857][core] Prise en charge de
spark.test.masterdansSparkSubmitArguments -
[SPARK-49680] [SC-176856][python] Limiter par défaut le parallélisme de génération
Sphinxà 4 - [SPARK-49396] Rétablir « [SC-176030][sql] Modifier la vérification de la possibilité de valeur nulle pour l’expression CaseWhen »
- [SPARK-48419] [SC-167443][sql] La propagation pliable devrait remplacer la colonne pliable...
- [SPARK-49556] [SC-176757][sql] Ajouter une syntaxe de canal SQL pour l’opérateur SELECT
-
[SPARK-49438] [SC-175237][sql] Corriger le joli nom de l’expression
FromAvro&ToAvro - [SPARK-49659] [SC-1229924][sql] Ajouter une erreur utilisateur intéressante pour les sous-requêtes scalaires dans VALUES clause
- [SPARK-49646] [SC-176778][sql] corriger la décorrélation de sous-requêtes pour les opérations d’union/ensemble lorsque parentOuterReferences a des références non couvertes dans collectedChildOuterReferences
-
[SPARK-49354] [SC-175034][sql]
split_partdevez vérifier si les valeurscollationde tous les types de paramètres sont identiques - [SPARK-49478] [SC-175914][connect] Gérer les métriques Null dans ConnectProgressExecutionListener
- [SPARK-48358] [SC-176374][sql] Prise en charge de l’instruction REPEAT
- [SPARK-49183] [SC-173680][sql] V2SessionCatalog.createTable doit respecter PROP_IS_MANAGED_LOCATION
-
[SPARK-49611] [SC-176791][sql] Introduire TVF
collations()& supprimer la commandeSHOW COLLATIONS - [SPARK-49261] [SC-176589][sql] Ne remplacez pas les littéraux dans les expressions d’agrégation par des expressions de groupement
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace doit respecter le catalogue de sessions personnalisé
- [SPARK-49594] [SC-176569][ss] Ajout d’une vérification sur l’ajout ou la suppression de columnFamilies pour écrire le fichier StateSchemaV3
- [SPARK-49578] [SC-176385][sql] Supprimer la suggestion de configuration ANSI dans CAST_INVALID_INPUT et CAST_OVERFLOW
- [SPARK-48882] [SC-174256][ss] Affecter des noms aux classes d’erreur associées au mode de sortie de streaming
-
[SPARK-49155] [SC-176506][sql][SS] Utilisez un type de paramètre plus approprié pour construire
GenericArrayData - [SPARK-49519] [SC-176388][sql] Options de fusion de table et de relation lors de la construction de FileScanBuilder
- [SPARK-49591] [SC-176587][sql] Ajouter une colonne de type logique au fichier variant README
-
[SPARK-49596] [SC-176423][sql] Améliorer les performances de
FormatString - [SPARK-49525] [SC-176044][ss][CONNECT] Amélioration mineure des journaux de l’écouteur de requête de streaming côté serveur ListenerBus
-
[SPARK-49583] [SC-176272][sql] Définir la sous-condition d’erreur
SECONDS_FRACTIONpour un modèle de fraction de secondes non valide - [SPARK-49536] [SC-176242] Gérer l’erreur lors de la prérécupération de l’enregistrement de source de données en streaming en Python
- [SPARK-49443] [SC-176273][sql][PYTHON] Implémenter l’expression to_variant_object et faire imprimer les expressions schema_of_variant expressions OBJECT pour les objets Variant
- [SPARK-49544] [SASP-3990][sc-176557][CONNECT] Remplacer le verrouillage grossier dans SparkConnectExecutionManager par ConcurrentMap
- [SPARK-49548] [SASP-3990][sc-176556][CONNECT] Remplacer les verrouillages grossiers dans SparkConnectSessionManager par ConcurrentMap
- [SPARK-49551] [SC-176218][ss] Améliorer le journal RocksDB pour replayChangelog
-
[SPARK-49595] [SC-176396][connect][SQL] Correction de
DataFrame.unpivot/meltdans le client Spark Connect Scala - [SPARK-49006] [SC-176162] Implémenter le purge pour les fichiers OperatorStateMetadataV2 et StateSchemaV3
-
[SPARK-49600] [SC-176426][python] Supprimer la logique liée à
Python 3.6 and olderdetry_simplify_traceback - [SPARK-49303] [SC-176013][ss] Implémenter la fonctionnalité de durée de vie (TTL) pour ValueState dans l’API transformWithStateInPandas
- [SPARK-49191] [SC-176243][ss] Ajouter la prise en charge de la lecture des variables d’état de mappage transformWithState à l’aide d’un lecteur de source de données d’état
- [SPARK-49593] [SC-176371][ss] Lancer l'exception RocksDB à l'appelant lors de la fermeture de la base de données si une erreur est détectée
-
[SPARK-49334] [SC-174803][sql]
str_to_mapdevez vérifier si les valeurscollationde tous les types de paramètres sont identiques - [SPARK-42204] [SC-176126][core] Ajouter une option pour désactiver la journalisation redondante des accumulateurs internes TaskMetrics dans les journaux d’événements
- [SPARK-49575] [SC-176256][ss] Ajouter la journalisation pour la libération de verrou uniquement si acquiredThreadInfo n’est pas null
- [SPARK-49539] [SC-176250][ss] Mettre à jour l’identificateur de démarrage interne des familles de colonnes pour un autre
- [SPARK-49205] [SC-173853][sql] KeyGroupedPartitioning doit hériter de HashPartitioningLike
- [SPARK-49396] [SC-176030][sql] Modifier la vérification de la nullabilité pour l’expression CaseWhen
- [SPARK-49476] [SC-175700][sql] Correction de la nullabilité de la fonction base64
- [SPARK-47262] [SC-174829][sql] Attribuer des noms à des conditions d’erreur pour les conversions Parquet
- [SPARK-47247] [SC-158349][sql] Utiliser une taille cible plus petite lors de la fusion de partitions avec des jointures explosées
- [SPARK-49501] [SC-176166][sql] Corriger le double échappement de l’emplacement de la table
- [SPARK-49083] [SC-173214][connect] Autoriser from_xml et from_json à travailler en mode natif avec des schémas json
- [SPARK-49043] [SC-174673][sql] Corriger le groupe codepath interprété sur le mappage contenant des chaînes compilées
- [SPARK-48986] [SC-172265][connect][SQL] Ajouter une représentation intermédiaire ColumnNode
- [SPARK-49326] [SC-176016][ss] Classer une classe d’erreur pour l’erreur de fonction utilisateur du récepteur Foreach
-
[SPARK-48348] [SC-175950][spark-48376][SQL] Introduire les instructions
LEAVEetITERATE - [SPARK-49523] [SC-175949][connect] Augmenter le temps d’attente maximal pour que le serveur de connexion soit testé
- [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Correction de « select count(distinct 1) from t » où t est une table vide par l'expansion de RewriteDistinctAggregates - DBR version 16.x
- [SPARK-49311] [SC-175038][sql] Rendre possible la conversion de valeurs « intervalle seconde » volumineuses en décimales
- [SPARK-49200] [SC-173699][sql] Correction de l’exception de classement sans Codegen de type nul
- [SPARK-49467] [SC-176051][ss] Ajouter la prise en charge du lecteur de source des données d’état et de la liste d’état
- [SPARK-47307] [SC-170891][sql] Ajouter une configuration pour segmenter éventuellement des chaînes base64
- [SPARK-49391] [SC-176032][ps] Tracé de boîte sélectionne des valeurs hors norme à distance des clôtures
- [SPARK-49445] [SC-175845][ui] Prise en charge de l’affichage de l’info-bulle dans la barre de progression de l’interface utilisateur
- [SPARK-49451] [SC-175702] Autorisez les clés dupliquées dans parse_json.
- [SPARK-49275] [SC-175701][sql] Correction de la valeur null du type de retour de l’expression xpath
- [SPARK-49021] [SC-175578][ss] Ajouter la prise en charge de la lecture des variables d’état de valeur transformWithState à l’aide d’un lecteur de source de données d’état
- [SPARK-49474] [BEHAVE-143][sc-169253][SC-175933][ss] Classifier la classe Error pour l’erreur de fonction utilisateur FlatMapGroupsWithState
- [SPARK-49408] [SC-175932][sql] Utiliser IndexedSeq dans ProjectingInternalRow
-
[SPARK-49509] [SC-175853][core] Utiliser
Platform.allocateDirectBufferau lieu deByteBuffer.allocateDirect - [SPARK-49382] [SC-175013][ps] Rendre le diagramme en boîte afficher correctement les valeurs aberrantes/hors normes
- [SPARK-49002] [SC-172846][sql] Gérer de manière cohérente les emplacements non valides dans WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
-
[SPARK-49480] [SC-175699][core] Correction de NullPointerException à partir de
SparkThrowableHelper.isInternalError - [SPARK-49477] [SC-175828][python] Améliorer le message d’erreur de type de retour non valide Pandas UDF
- [SPARK-48693] [SC-169492][sql] Simplifier et unifier toString d’Invoke et StaticInvoke
-
[SPARK-49441] [SC-175716][ml] Tri par
StringIndexerdes tableaux dans les exécuteurs - [SPARK-49347] [SC-175004][r] Déprécier SparkR
- [SPARK-49357] [SC-175227][connect][PYTHON] Tronquer verticalement le message protobuf profondément imbriqué
- [SPARK-41982] [SC-120604][sql] Les partitions de type chaîne ne doivent pas être traitées comme des types numériques
- [SPARK-48776] [SC-170452][behave-72] Corriger la mise en forme d’horodeur pour json, xml et csv
- [SPARK-49223] [SC-174800][ml] Simplifiez stringIndexer.countByValue avec les fonctions intégrées
-
[SPARK-49016] Revenir à « [SC-174663][sql] Rétablir le comportement où les requêtes à partir de fichiers CSV bruts sont interdites lorsqu'on inclut seulement la colonne d'enregistrement endommagée et assigner le nom à
_LEGACY_ERROR_TEMP_1285» -
[SPARK-49041] [SC-172392][python][CONNECT] Déclencher une erreur appropriée pour
dropDuplicateslorsqu’unesubsetincorrecte est donnée - [SPARK-49050] [SC-175235] Activation de l’opérateur deleteIfExists dans TWS avec des familles de colonnes virtuelles
- [SPARK-49216] [SC-173919][core] Correction pour ne pas consigner le contexte de message lorsque LogEntry est explicitement construit et que la configuration de journalisation structurée est désactivée.
-
[SPARK-49252] [SC-175596][core] Rendre
TaskSetExcludeListetHeathTrackerindépendant - [SPARK-49352] [SC-174971][sql] Éviter la transformation de tableau redondante pour une expression identique
- [SPARK-42307] [SC-173863][sql] Attribuer un nom à l'erreur _LEGACY_ERROR_TEMP_2232
-
[SPARK-49197] [SC-173732][core] Rédiger la sortie
Spark Commanddans le modulelauncher - [SPARK-48913] [SC-173934][sql] Implémenter IndentingXMLStreamWriter
- [SPARK-49306] [SC-175363][python][SQL] Créer des alias de fonction SQL pour « zeroifnull » et « nullifzero »
- [SPARK-48344] [SQL] Exécution de scripts SQL (y compris Spark Connect)
- [SPARK-49402] [SC-175122][python] Correction de l’intégration de Binder dans la documentation PySpark
- [SPARK-49017] [SC-174664][sql] L’instruction Insert échoue lorsque plusieurs paramètres sont utilisés
- [SPARK-49318] [SC-174733][sql] Préemption des erreurs de faible priorité sur LCA jusqu’à la fin de l’analyse pour améliorer la gestion des erreurs
-
[SPARK-49016] [SC-174663][sql] Restaurer le comportement que les requêtes provenant de fichiers CSV bruts ne sont pas autorisées lorsqu’elles n’incluent que la colonne d’enregistrement endommagée et attribuez le nom à
_LEGACY_ERROR_TEMP_1285 -
[SPARK-49387] [SC-175124][python] Corriger l'annotation de type pour
accuracydanspercentile_approxetapprox_percentile - [SPARK-49131] [SC-174666][ss] TransformWithState doit définir correctement des clés de regroupement implicites même avec des itérateurs différés
- [SPARK-49301] [SC-174795][ss] Données de flèche de bloc transmises au Worker Python
- [SPARK-49039] [SC-174651][ui] Réinitialisation de la case à cocher lorsque les métriques de l’exécuteur sont chargées dans l’onglet Étapes
- [SPARK-48428] [SC-169806][sql] : Corriger l'IllegalStateException dans NestedColumnAliasing
-
[SPARK-49353] [SC-174830][sql] Mettre à jour les documents liés à l’encodage/décodage
UTF-32 - [SPARK-48613] [SC-170966][sql] SPJ : prise en charge de la lecture aléatoire automatique d’un côté + moins de clés de jointure que de clés de partition
- [SPARK-47473] [SC-160450][behave-127][SQL] Corriger le problème de conversion des horodatages postgres INFINITY
- [SPARK-49142] [SC-173658][connect][PYTHON] Suivi pour rétablir le proto au coût des performances de chaîne
- [SPARK-49300] [SC-175008][core] Correction de la fuite du token de délégation Hadoop lorsque tokenRenewalInterval n’est pas défini.
- [SPARK-49367] [SC-175012][ps] Parallélisez le calcul KDE pour plusieurs colonnes (back-end plotly)
- [SPARK-49365] [SC-175011][ps] Simplifier l’agrégation de compartiments dans le diagramme d’histogramme
- [SPARK-49372] [SC-175003][ss] Assurez-vous que latestSnapshot est défini sur aucun lors de la fermeture pour éviter l’utilisation ultérieure
-
[SPARK-49341] [SC-174785] Supprimer
connector/dockeren faveur deApache Spark Operator -
[SPARK-49344] [SC-174894][ps] Support
json_normalizepour l’API Pandas sur Spark - [SPARK-49306] [SC-174794][sql] Créer de nouvelles fonctions SQL « zeroifnull » et « nullifzero »
- [SPARK-48796] [SC-174668][ss] Chargez l’ID de famille de colonnes à partir de RocksDBCheckpointMetadata pour VCF lors du redémarrage
- [SPARK-49342] [SC-174899][sql] Make TO_AVRO SQL function 'jsonFormatSchema' argument facultatif
- [SPARK-48628] [SC-174695][core] Ajouter des métriques de mémoire maximale sur/hors du tas pour les tâches
- [SPARK-47407] [SC-159379][behave-126][SQL] Prise en charge du mappage java.sql.Types.NULL à NullType
- [SPARK-48628] [SC-173407][core] Ajouter des métriques de mémoire maximale sur/hors du tas pour les tâches
- [SPARK-49166] [SC-173987][sql] Prendre en charge OFFSET dans la sous-requête corrélée
- [SPARK-49269] [SC-174676][sql] Évaluer avec impatience VALUES() dans AstBuilder
- [SPARK-49281] [SC-174782][sql] Optimiser getBytes pour les binaires Parquet avec getBytesUnsafe pour éviter les coûts liés à la copie
- [SPARK-49113] [SC-174734] Ne pas affirmer sur les bogues de traduction - avaler silencieusement l’exception
- [SPARK-49098] [SC-173253][sql] Ajouter des options d’écriture pour INSERT
- [SPARK-48638] [SC-174694][follow][CONNECT] Correction de la documentation d’ExecutionInfo
- [SPARK-49250] [ES-1222826][sql] Améliorer le message d’erreur pour UnresolvedWindowExpression imbriqués dans CheckAnalysis
- [SPARK-48755] [SC-174258][ss][PYTHON] implémentation de base de transformWithState dans pyspark et prise en charge de ValueState
- [SPARK-48966] [SC-174329][sql] Améliorer le message d’erreur pour une référence de colonne invalide et non résolue dans l’appel UDTF
- [SPARK-46590] [SC-154115][sql] Correction de l’échec de la fusion avec des indeces de partition inattendues
- [SPARK-49235] [SC-174159][sql] Refactoriser la règle ResolveInlineTables afin qu’elle ne traverse pas l’arborescence entière
- [SPARK-49060] [SC-173107][connect] Nettoyer les règles Mima pour les vérifications de com binaires SQL-Connect
- [SPARK-48762] [SC-172525][sql] Introduire l’API clusterBy DataFrameWriter pour Python
- [SPARK-49207] [SC-173852][sql] Corriger le mappage de cas un-à-plusieurs dans SplitPart et StringSplitSQL
- [SPARK-49204] [SC-173850][sql] Corriger la gestion des paires de substitution dans StringInstr et StringLocate
- [SPARK-36680] [SC-170640][sql] prend en charge les options de table dynamique pour Spark SQL
- [SPARK-49204] [SC-173849][sql] Corriger la gestion des paires de substitution dans SubstringIndex
- [SPARK-49204] [SC-173848][sql] Correction de la gestion des paires de substitution dans StringTrim
- [SPARK-48967] [SC-173993]Corriger le test SparkConfigOwnershipSuite de transfert pour OPTIMIZE_INSERT_INTO_VALUES_PARSER
- [SPARK-49204] [SC-173851][sql] Corriger la gestion des paires de substitution dans StringReplace
- [SPARK-48967] [SC-173993][sql][16.x] Améliorer les performances et l’empreinte mémoire de « INSERT INTO ... VALUES« Déclarations »
- [SPARK-49099] Rétablir « [SC-173229][sql] CatalogManager.setCurrent…
- [SPARK-48347] [SC-173812][sql] Prise en charge de l’instruction WHILE
- [SPARK-49128] [SC-173344][core] Prise en charge de l’intitulé personnalisé de l’interface utilisateur du serveur d’historique
- [SPARK-49146] [SC-173825][ss] Déplacer les erreurs d'assertion liées au filigrane manquant dans les requêtes de streaming en mode Ajout vers l'infrastructure d'erreurs
- [SPARK-45787] [SC-172197][sql] Support Catalog.listColumns pour les colonnes de clustering
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace doit respecter le catalogue de sessions personnalisé
- [SPARK-49138] [SC-173483][sql] Correction des CollationTypeCasts de plusieurs expressions
- [SPARK-49163] [SC-173666][sql] La tentative de création d’une table à partir de données de partition Parquet défectueuses doit retourner une erreur visible par l’utilisateur
-
[SPARK-49201] [SC-173793][ps][PYTHON][connect] Réimplémenter la visualisation
histavec Spark SQL - [SPARK-49188] [SC-173682][sql] Erreur interne sur la fonction concat_ws appelée sur un tableau de tableaux de chaînes
-
[SPARK-49137] [SC-173677][sql] Lorsque la condition booléenne dans l'
if statementn’est pas valide, une exception doit être levée - [SPARK-49193] [SC-173672][sql] Améliorer les performances de RowSetUtils.toColumnBasedSet
- [SPARK-49078] [SC-173078][sql] Prise en charge de la syntaxe des colonnes dans les tables v2
- [SPARK-49141] [SC-173388][sql] Marquer la variante comme type de données incompatible avec Hive
-
[SPARK-49059] [Cherry-Pick][15.x][SC-172528][connect] Déplacer
SessionHolder.forTesting(...)vers le package de test - [SPARK-49111] [SC-173661][sql] Move withProjectAndFilter vers l’objet complémentaire de DataSourceV2Strategy
-
[SPARK-49185] [SC-173688][ps][PYTHON][connect] Réimplémenter la visualisation
kdeavec Spark SQL -
[SPARK-49178] [SC-173673][sql] Optimiser les performances de
Row#getSeqpour correspondre aux performances lors de l’utilisation de Spark 3.5 avec Scala 2.12 - [SPARK-49093] [SC-172958][sql] GROUP BY avec MapType imbriqué à l’intérieur d’un type complexe
- [SPARK-49142] [SC-173469][connect][PYTHON] Réduire le niveau de journalisation du client Spark Connect au débogage
- [SPARK-48761] [SC-172048][sql] Introduire l’API clusterBy DataFrameWriter pour Scala
- [SPARK-48346] [SC-173083][sql] Prise en charge des instructions IF ELSE dans les scripts SQL
- [SPARK-48338] [SC-173112][sql] Améliorer les exceptions levées par l’analyseur/interpréteur
- [SPARK-48658] [SC-169474][sql] Encoder/Décoder des fonctions signalent des erreurs de codage au lieu de mojibake pour les caractères non mappables
- [SPARK-49071] [SC-172954][sql] Supprimer le trait ArraySortLike
-
[SPARK-49107] Rétablir « Rétablir « [SC-173103][sql]
ROUTINE_ALREADY_EXISTSprend en charge RoutineType » - [SPARK-49070] [SC-172907][ss][SQL] TransformWithStateExec.initialState est réécrit de manière incorrecte pour produire un plan de requête non valide
- [SPARK-49114] [SC-173217] Les sous-catégories ne peuvent pas charger les erreurs de magasin d’état
-
[SPARK-49107] Rétablir « [SC-173103][sql]
ROUTINE_ALREADY_EXISTSprend en charge RoutineType » - [SPARK-49048] [SC-173223][ss] Ajouter la prise en charge de la lecture des métadonnées d’opérateur pertinentes à l’ID de lot donné
- [SPARK-49094] [SC-173049][sql] Corriger "ignoreCorruptFiles" non fonctionnel pour implémenter hive orc avec mergeSchema désactivé
-
[SPARK-49108] [SC-173102][exemple] Ajouter
submit_pi.shexemple d’API REST -
[SPARK-49107] [SC-173103][sql]
ROUTINE_ALREADY_EXISTSprend en charge RoutineType - [SPARK-48997] [SC-172484][ss] Implémenter des déchargements individuels pour les défaillances de threads du pool de maintenance
- [SPARK-49063] [SC-173094][sql] Correction entre ScalarSubqueries
- [SPARK-45891] [SC-172305][sql][PYTHON][variant] Ajouter la prise en charge des types d’intervalles dans la spécification variant
-
[SPARK-49074] [BEHAVE-110][sc-172815][SQL] Correction de la variante avec
df.cache() - [SPARK-49003] [SC-172613][sql] Corriger le hachage du chemin du code interprété pour être sensible au classement
- [SPARK-48740] [SC-172430][sql] Intercepter l’erreur de spécification de fenêtre manquante au plus tôt
- [SPARK-48999] [SC-172245][ss] Diviser PythonStreamingDataSourceSimpleSuite
- [SPARK-49031] [SC-172602] Implémenter la validation pour l’opérateur TransformWithStateExec à l’aide d’OperatorStateMetadataV2
- [SPARK-49053] [SC-172494][python][ML] Permettre aux fonctions d'aide de sauvegarde/chargement de modèles d'accepter la session spark
- [SPARK-49032] [Backport][15.x][SS] Ajouter le chemin du schéma dans l’entrée de table de métadonnées, vérifier la version attendue et ajouter un test lié aux métadonnées d’opérateur pour le format de métadonnées d’opérateur v2
-
[SPARK-49034] [SC-172306][core] Prise en charge du remplacement du
sparkPropertiescôté serveur dans l’API de soumission REST - [SPARK-48931] [SC-171895][ss] Réduire le coût de l’API de liste du stockage cloud pour la tâche de maintenance du magasin d’état
- [SPARK-48849] [SC-172068][ss]Create OperatorStateMetadataV2 pour l’opérateur TransformWithStateExec
- [SPARK-49013] [SC-172322] Modifier la clé dans collationsMap pour les types Map et Array en scala
-
[SPARK-48414] [SC-171884][python] Correction d’un changement cassant dans python
fromJson - [SPARK-48910] [SC-171001][sql] Utiliser HashSet/HashMap pour éviter les recherches linéaires dans PreprocessTableCreation
-
[SPARK-49007] [SC-172204][CORE] Améliorer
MasterPagepour prendre en charge les titres personnalisés - [SPARK-49009] [SC-172263][sql][PYTHON] Faire accepter les Enums par les API de colonne et les fonctions
-
[SPARK-49033] [SC-172303][core] Prise en charge du remplacement du
environmentVariablescôté serveur dans l’API de soumission REST -
[SPARK-48363] [SC-166470][sql] Nettoyer certains codes redondants dans
from_xml - [SPARK-46743] [SC-170867][sql][BEHAVE-84] Le bogue count après ScalarSubqery est plié s’il a une relation vide
-
[SPARK-49040] [SC-172351][sql] Correction de la documentation
sql-ref-syntax-aux-exec-imm.md - [SPARK-48998] [SC-172212][ml] Les méta-algorithmes sauvegardent/chargent le modèle avec SparkSession
-
[SPARK-48959] [SC-171708][sql] Faire
NoSuchNamespaceExceptionprolongerNoSuchDatabaseExceptionpour restaurer la gestion des exceptions - [SPARK-48996] [SC-172130][sql][PYTHON] Autoriser les littéraux nus pour and et or de colonne
- [SPARK-48990] [SC-171936] Suivi de #101759 - correctif de test
- [SPARK-48338] [SC-171912][sql] Vérifier les déclarations de variables
- [SPARK-48990] [SC-171936][sql] Mots clés de syntaxe SQL liés à la variable unifiée
-
[SPARK-48988] [SC-171915][ml] Rendre
DefaultParamsReader/Writergérer les métadonnées avec une session Spark -
[SPARK-48974] [SC-171978][sql][SS][ml][MLLIB] Utiliser
SparkSession.implicitsau lieu deSQLContext.implicits - [SPARK-48760] [SC-170870][sql] Correction de CatalogV2Util.applyClusterByChanges
- [SPARK-48928] [SC-171956] Avertissement de journal pour l’appel de .unpersist() sur des RDD faisant l’objet d’un point de contrôle local
- [SPARK-48760] [SC-170139][sql] Introduire ALTER TABLE ... CLUSTER BY syntaxe SQL pour modifier les colonnes de clustering
- [SPARK-48844] Rétablir « [SC-170669][sql] USE INVALID_EMPTY_LOCATION au lieu de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY lorsque le chemin d’accès est vide »
-
[SPARK-48833] [SC-171914][sql][VARIANT] Variante de support dans
InMemoryTableScan -
[SPARK-48975] [SC-171894][protobuf] Supprimer la définition
ScalaReflectionLockinutile deprotobuf - [SPARK-48970] [SC-171800][python][ML] Éviter d’utiliser SparkSession.getActiveSession dans le lecteur/écrivain Spark ML
- [SPARK-48844] [SC-170669][sql] USE INVALID_EMPTY_LOCATION au lieu de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY lorsque le chemin d’accès est vide
- [SPARK-48714] [SC-170136] Correction de l’échec des tests df.mergeInto dans PySpark et UC
- [SPARK-48957] [SC-171797][ss] Retourner une classe d’erreur sous-classifiée lors du chargement du magasin d’état pour le fournisseur HDFS et RocksDB
- [SPARK-48891] [Backport][15x][SC-171677][ss] Refactoriser StateSchemaCompatibilityChecker pour unifier tous les formats de schéma d’état
- [SPARK-48972] [SC-171795][python] Unifier la gestion des chaînes littérales dans les fonctions
- [SPARK-48388] [SC-171337][sql] Correction du comportement de l’instruction SET pour les scripts SQL
- [SPARK-48743] [SC-170552][sql][SS] FusionSessionIterator doit mieux gérer quand getStruct retourne null
- [SPARK-48623] [15.x][sc-171322][CORE] Migrer les journaux FileAppender vers la journalisation structurée
- [SPARK-36680] [DBRRM-1123] Rétablir « [SC-170640][sql] Prend en charge les options de table dynamique pour Spark SQL »
-
[SPARK-48841] [SC-170868][behave-83][SQL] Inclure
collationNameàsql()deCollate - [SPARK-48941] [SC-171703][python][ML] Remplacer l’appel de l’API de lecture/écriture RDD par l’API de lecture/écriture de trame de données
- [SPARK-48938] [SC-171577][python] Améliorer les messages d’erreur lors de l’enregistrement des UDTF Python
- [SPARK-48350] [SC-171040][sql] Introduction des exceptions personnalisées pour le script Sql
-
[SPARK-48907] [SC-171158][sql] Corriger la valeur
explicitTypesdansCOLLATION_MISMATCH.EXPLICIT -
[SPARK-48945] [SC-171658][python] Simplifier les fonctions regex avec
lit - [SPARK-48944] [SC-171576][connect] Unifier la gestion du schéma au format JSON dans Connect Server
- [SPARK-48836] [SC-171569] Intégrer le schéma SQL avec le schéma/les métadonnées d’état
- [SPARK-48946] [SC-171504][sql] NPE dans la méthode de rédaction lorsque la session a la valeur nulle
- [SPARK-48921] [SC-171412][sql] Les encodeurs ScalaUDF dans la sous-requête doivent être résolus pour MergeInto
- [SPARK-45155] [SC-171048][connect] Ajouter la documentation API pour le client Spark Connect JVM/Scala
-
[SPARK-48900] [SC-171319] Ajouter
reasonun champ pourcancelJobGroupetcancelJobsWithTag - [SPARK-48865] [SC-171154][sql] Ajouter try_url_decode fonction
-
[SPARK-48851] [SC-170767][sql] Remplacez la valeur de
SCHEMA_NOT_FOUNDdenamespaceparcatalog.namespace -
[SPARK-48510] [SC-170893][2/2] Prise en charge de l’API UDAF
toColumndans Spark Connect -
[SPARK-45190] [SC-171055][spark-48897][PYTHON][connect] Rendre
from_xmlcompatible avec le schéma StructType -
[SPARK-48930] [SC-171304][core] Rédiger
awsAccessKeyIden incluant le modèleaccesskey - [SPARK-48909] [SC-171080][ml][MLLIB] Utilise SparkSession sur SparkContext lors de l’écriture de métadonnées
- [SPARK-48883] [SC-171133][ml][R] Remplacer l’appel de l’API de lecture/écriture RDD par l’appel de l’API de lecture/écriture de trame de données
-
[SPARK-48924] [SC-171313][ps] Ajouter une fonction d’assistance
make_intervalPandas -
[SPARK-48884] [SC-171051][python] Supprimer la fonction d’assistance inutilisée
PythonSQLUtils.makeInterval - [SPARK-48817] [SC-170636][sql] Exécuter activement plusieurs commandes d’union ensemble
- [SPARK-48896] [SC-171079][ml][MLLIB] Éviter la répartition lors de l'écriture des métadonnées
-
[SPARK-48892] [SC-171127][ml] Éviter la lecture de paramètres par ligne dans
Tokenizer -
[SPARK-48927] [SC-171227][core] Afficher le nombre de RDD mis en cache dans
StoragePage - [SPARK-48886] [15.x][backport][SC-171039][ss] Ajouter des informations de version au journal des modifications v2 pour permettre une évolution plus facile
- [SPARK-48903] [SC-171136][ss] Définir correctement la dernière version de capture instantanée de RocksDB lors du chargement à distance
- [SPARK-48742] [SC-170538][ss] Famille de colonnes virtuelles pour RocksDB
- [SPARK-48726] [15.x][sc-170753][SS] Créer le format de fichier StateSchemaV3 et l’écrire pour l’opérateur TransformWithStateExec
- [SPARK-48794] [SC-170882][connect][15.x] prise en charge de df.mergeInto pour Spark Connect (Scala et Python)
-
[SPARK-48714] [SC-170136][python] Implémenter
DataFrame.mergeIntodans PySpark - [SPARK-48772] [SC-170642][ss][SQL] Mode de lecture du flux de modification de source de données d’État
- [SPARK-48666] [SC-170887][sql] Ne pas pousser le filtre s’il contient des fonctions PythonUDF
- [SPARK-48845] [SC-170889][sql] GenericUDF intercepte les exceptions des enfants
- [SPARK-48880] [SC-170974][core] Éviter de lever NullPointerException si le plug-in de pilote ne parvient pas à initialiser
- [SPARK-48888] [Backport][15x][SC-170973][ss] Supprimer la création de captures instantanées en fonction de la taille des opérations de changelog
- [SPARK-48871] [SC-170876] Correction de la validation INVALID_NON_DETERMINISTIC_EXPRESSIONS dans...
- [SPARK-48883] [SC-170894][ml][R] Remplacer l’appel de l’API de lecture/écriture RDD par l’appel d’API de lecture/écriture de trame de données
- [SPARK-36680] [SC-170640][sql] prend en charge les options de table dynamique pour Spark SQL
- [SPARK-48804] [SC-170558][sql] Ajouter classIsLoadable et vérification de OutputCommitter.isAssignableFrom pour les configurations de classe de la sortie de validateur
- [SPARK-46738] [SC-170791][python] Réactiver un groupe de doctests
-
[SPARK-48858] [SC-170756][python] Supprimer l'appel de méthode obsolète
setDaemondeThreaddanslog_communication.py - [SPARK-48639] [SC-169801][connect][PYTHON] Ajouter l’origine à RelationCommon
- [SPARK-48863] [SC-170770][es-1133940][SQL] Fix ClassCastException lors de l’analyse json avec «spark.sql.json.enablePartialResults » activé
- [SPARK-48343] [SC-170450][sql] Introduction de l’interpréteur de scripts SQL
- [SPARK-48529] [SC-170755][sql] Introduction des étiquettes dans le script SQL
- [SPARK-45292] Rétablir « [SC-151609][sql][HIVE] Suppression de Guava dans les classes partagées de IsolatedClientLoader »
- [SPARK-48037] [SC-165330][core][3.5] Corriger le manque de métriques liées à l'écriture shuffle dans SortShuffleWriter, ce qui entraîne des données potentiellement inexactes.
-
[SPARK-48720] [SC-170551][sql] Aligner la commande
ALTER TABLE ... UNSET TBLPROPERTIES ...dans v1 et v2 - [SPARK-48485] [SC-167825][connect][SS] Prise en charge de interruptTag et interruptAll dans les requêtes de streaming
- [SPARK-45292] [SC-151609][sql][HIVE] Supprimer guava des classes partagées de IsolatedClientLoader
- [SPARK-48668] [SC-169815][sql] Prise en charge de l’ALTER NAMESPACE ... PROPRIÉTÉS NON DÉFINIES dans v2
- [SPARK-47914] [SC-165313][sql] Ne pas afficher le paramètre des divisions dans Plage
- [SPARK-48807] [SC-170643][sql] Prise en charge binaire de la source de données CSV
- [SPARK-48220] [SC-167592][python][15.X] Autoriser la transmission d’une table PyArrow à createDataFrame()
- [SPARK-48545] [SC-169543][sql] Créer des fonctions to_avro et from_avro SQL pour faire correspondre les équivalents DataFrame
- [SPARK-47577] [SC-168875][spark-47579] Corriger l’utilisation trompeuse de la clé de journal TASK_ID
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).
Environnement du système
- Système d’exploitation : Ubuntu 24.04.1 LTS
- Java : Zulu17.50+19-CA
- Scala : 2.12.15
- Python : 3.12.3
- R : 4.4.0
- Delta Lake : 3.2.1
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| types annotés | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| commande automatique | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob (service de stockage de blobs Azure) | 12.23.0 |
| Azure Storage File Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | noir | 24.4.2 |
| clignotant | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | cliquez | 8.1.7 |
| cloudpickle | 2.2.1 | Comm | 0.2.1 | contourpy | 1.2.0 |
| cryptographie | 42.0.5 | cycliste | 0.11.0 | Cython | 3.0.11 |
| Kit de développement logiciel Databricks (SDK) | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| décorateur | 5.1.1 | Déconseillé | 1.2.14 | distlib | 0.3.8 |
| Conversion de docstring en markdown | 0.11 | points d’entrée | 0,4 | Exécution | 0.8.3 |
| aperçu des facettes | 1.1.1 | verrou de fichier | 3.15.4 | outils de police | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth | 2.35.0 | google-cloud-core | 2.4.1 | google-cloud-storage (Stockage dans le cloud de Google) | 2.18.2 |
| google-crc32c | 1.6.0 | google-reprise-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| infléchir | 7.3.1 | ipyflow-core | 0.0.198 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets (un outil de widgets interactifs pour Python) | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny (version légère de mlflow) | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0,48b0 |
| empaquetage | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
| spécification de chemin | 0.10.3 | dindon de la farce | 0.5.6 | pexpect | 4.8.0 |
| oreiller | 10.3.0 | pépin | 24,2 | platformdirs | 3.10.0 |
| tracé | 5.22.0 | enfiché | 1.0.0 | prompt-toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.52 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
| pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| Requêtes | 2.32.2 | corde | 1.12.0 | Rsa | 4,9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy (bibliothèque Python pour le calcul scientifique) | 1.13.1 |
| seaborn | 0.13.2 | setuptools | 74.0.0 | Six | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| données en pile | 0.2.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.14.2 | ténacité | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornade | 6.4.1 | Traitlets | 5.14.3 | typeguard | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | types de requêtes | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| type numéro six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | mises à jour automatiques | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| c’est quoi le patch | 1.0.2 | roue | 0.43.0 | enveloppé | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit le 04-08-2024https://packagemanager.posit.co/cran/2024-08-04/.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 16.1.0 | Askpass | 1.2.0 | assertthat | 0.2.1 |
| rétro-portage | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit 64 | 4.0.5 |
| bitops | 1,0-8 | objet BLOB | 1.2.4 | botte | 1.3-30 |
| brasser | 1.0-10 | brio | 1.1.5 | balai | 1.0.6 |
| bslib | 0.8.0 | cachemire | 1.1.0 | appelant | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
| classe | 7.3-22 | Cli | 3.6.3 | Presse-papiers | 0.8.0 |
| horloge | 0.7.1 | Grappe | 2.1.6 | codetools | 0,2-20 |
| espace colorimétrique | 2.1-1 | commonmark | 1.9.1 | compilateur | 4.4.0 |
| config | 0.3.2 | Conflit | 1.2.0 | cpp11 | 0.4.7 |
| crayon de cire | 1.5.3 | Pouvoirs | 2.0.1 | friser | 5.2.1 |
| table de données | 1.15.4 | ensembles de données | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagramme | 1.6.5 | diffobj | 0.3.5 | digérer | 0.6.36 |
| éclairage dirigé vers le bas | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | ellipse | 0.3.2 | évaluer | 0.24.0 |
| fans | 1.0.6 | couleurs | 2.1.2 | carte rapide | 1.2.0 |
| fontawesome | 0.5.2 | condamnés | 1.0.0 | foreach | 1.5.2 |
| étranger | 0.8-86 | forger | 0.2.0 | Fs | 1.6.4 |
| futur | 1.34.0 | future.apply | 1.11.2 | se gargariser | 1.5.2 |
| produits génériques | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | variables globales | 0.16.3 | colle | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| graphisme | 4.4.0 | grDevices | 4.4.0 | grille | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | GT | 0.11.0 |
| gt ;pouvant être | 0.3.5 | casque de chantier | 1.4.0 | havre | 2.5.4 |
| plus haut | 0.11 | hms | 1.1.3 | outils HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Id | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isobande | 0.2.7 | itérateurs | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,48 | étiquetage | 0.4.3 |
| plus tard | 1.3.2 | treillis | 0.22-5 | lave | 1.8.0 |
| cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | MASSE | 7.3-60.0.1 |
| Matrice | 1.6-5 | mémorisation | 2.0.1 | méthodes | 4.4.0 |
| mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallèle | 4.4.0 |
| parallèlement | 1.38.0 | pilier | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.9 | éloge | 1.0.0 |
| joliesunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progrès | 1.2.3 |
| progressr | 0.14.0 | promesses | 1.3.0 | proto | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | réactif | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recettes | 1.1.0 | match retour | 2.0.0 | revanche2 | 2.1.2 |
| Télécommandes | 2.5.0 | exemple reproductible | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2,27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| écailles | 1.3.0 | Selectr | 0,4-2 | informations sur la session | 1.2.2 |
| forme | 1.4.6.1 | brillant | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.0 | spatial | 7.3-17 |
| Cannelures | 4.4.0 | sqldf | 0.4-1 | SQUAREM | 2021.1 |
| Statistiques | 4.4.0 | statistiques4 | 4.4.0 | chaine | 1.8.4 |
| stringr | 1.5.1 | survie | 3.6-4 | démarche assurée | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | mise en forme de texte | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| changement d'heure | 0.3.0 | date-heure | 4032.109 | tinytex | 0.52 |
| outils | 4.4.0 | tzdb | 0.4.0 | vérificateur d'URL | 1.0.1 |
| Utilise ça | 3.0.0 | utf8 | 1.2.4 | utilitaires | 4.4.0 |
| Identifiant unique universel (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| vibrisse | 0.4.1 | flétrir | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | fermeture éclair | 2.3.1 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support (nom du package logiciel) | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | ruisseau | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | ombré-cryo | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profileur | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.0 |
| io.dropwizard.metrics | annotation des métriques | 4.2.19 |
| io.dropwizard.metrics | métriques de base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | servlets de métriques | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collectionneur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | cornichon | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | format de flèche | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | vecteur-flèche | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | conservateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur de recettes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | annotations d'audience | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.52.v20230823 |
| org.eclipse.jetty | serveur jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Cales | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| stax | stax-api | 1.0.1 |