Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 14.3 LTS avec Apache Spark 3.5.0.
Databricks a publié cette version en février 2024.
Remarque
LTS (Long Term Support) signifie que cette version bénéficie d’un support à long terme. Consultez Cycle de vie de la version de Databricks Runtime LTS.
Conseil
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin du support (EoS), consultez Fin de support des notes de publication des versions de Databricks Runtime. Les versions EoS de Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.
Améliorations et nouvelles fonctionnalités
- Prise en charge du système de fichiers d’espace de travail dans PySpark User-Defined Functions (UDF) sur les clusters en mode d’accès standard (anciennement mode d’accès partagé)
-
Prise en charge des optimisations
MERGEde vecteur de suppression sans Photon - API de catalogue Spark désormais entièrement prises en charge en mode d’accès standard
- Delta UniForm est désormais en disponibilité générale
- Nouvelle fonction SQL EXECUTE IMMEDIATE
- Recalculer les statistiques des sauts de données pour les tables Delta
- informations d’état de requête pour les requêtes de diffusion en continu avec état
- Utiliser l’ID Microsoft Entra pour l’authentification Kafka sur des clusters standard
- Ajout de la prise en charge du nettoyage des fichiers et des partitions pour améliorer les performances des requêtes
- Déclarer des variables temporaires dans une session SQL
- Mises à jour de Thriftserver pour supprimer des fonctionnalités inutilisées
- Utiliser les fichiers truststore et keystore (magasin de clés) dans les volumes Unity Catalog
- Prise en charge du format de fichier XML natif (préversion publique)
- Prise en charge du stockage Cloudflare R2 (Version préliminaire publique)
- L'accès de Spark et dbutils aux fichiers d’espace de travail est pris en charge sur les clusters du Unity Catalog à accès standard
- Prise en charge des scripts init et de la bibliothèque de cluster sur les clusters de catalogue Unity d’accès standard
Prise en charge du système de fichiers d’espace de travail dans PySpark User-Defined Functions (UDF) sur les clusters en mode d’accès standard (anciennement mode d’accès partagé)
Les fonctions définies par l’utilisateur PySpark sur des clusters standard peuvent désormais importer des modules Python à partir de dossiers Git, de fichiers d’espace de travail ou de volumes UC.
Pour plus d’informations sur l’utilisation des modules dans des dossiers Git Databricks ou des fichiers d’espace de travail, consultez Utiliser des modules Python et R.
Prise en charge des optimisations MERGE de vecteur de suppression sans Photon
Photon n’est plus nécessaire pour les opérations MERGE pour tirer parti des optimisations des vecteurs de suppression. Consultez Que sont les vecteurs de suppression ?.
API de catalogue Spark désormais entièrement prises en charge en mode d’accès standard
Vous pouvez maintenant utiliser toutes les fonctions de l’API spark.catalog dans Python et Scala sur le calcul configurés avec le mode d’accès standard.
Delta UniForm est désormais en disponibilité générale
UniForm est maintenant en disponibilité générale et utilise la fonctionnalité de table IcebergCompatV2. Vous pouvez désormais activer ou mettre à niveau UniForm sur des tables existantes. Voir Lire les tables Delta avec les clients Iceberg.
Nouvelle fonction SQL EXECUTE IMMEDIATE
Vous pouvez maintenant utiliser la EXECUTE IMMEDIATE syntaxe pour prendre en charge les requêtes paramétrables dans SQL. Voir EXECUTE IMMEDIATE.
Recalculer les statistiques des sauts de données pour les tables Delta
Vous pouvez maintenant recalculer les statistiques stockées dans le journal Delta après avoir modifié les colonnes utilisées pour les sauts de données. Consultez Spécifier des colonnes de statistiques Delta.
Informations d’état de requête pour les requêtes de diffusion en continu avec état
Vous pouvez désormais interroger des données et des métadonnées d’état de flux structuré. Consultez Lire les informations d’état Structured Streaming.
Utiliser l’ID Microsoft Entra pour l’authentification Kafka sur des clusters standard
Vous pouvez maintenant authentifier les services Event Hubs via OAuth avec Microsoft Entra ID sur le calcul configuré avec le mode d’accès standard. Consultez Authentification du principal de service avec Microsoft Entra ID et Azure Event Hubs.
Ajout de la prise en charge du nettoyage des fichiers et des partitions pour améliorer les performances des requêtes
Pour accélérer certaines requêtes qui s’appuient sur l’égalité tolérante aux valeurs nulles dans les JOIN conditions, nous prenons désormais en charge DynamicFilePruning et DynamicPartitionPruning pour l’opérateur EqualNullSafe dans les JOIN.
Déclarer des variables temporaires dans une session SQL
Cette version introduit la possibilité de déclarer des variables temporaires dans une session qui peuvent être définies puis référencées à partir des requêtes. Voir Variables.
Mises à jour de Thriftserver pour supprimer des fonctionnalités inutilisées
Le code de Thriftserver a été mis à jour pour supprimer le code de fonctionnalités obsolètes. En raison de ces modifications, les configurations suivantes ne sont plus prises en charge :
- Les fichiers JAR auxiliaires de Hive, configurés en utilisant la propriété
hive.aux.jars.path, ne sont plus pris en charge pour les connexionshive-thriftserver. - Le fichier init global de Hive (
.hiverc), dont l’emplacement est configuré en utilisant la propriétéhive.server2.global.init.file.locationou la variable d’environnementHIVE_CONF_DIR, n’est plus pris en charge pour les connexionshive-thriftserver.
Utiliser les fichiers truststore et keystore (magasin de clés) dans les volumes Unity Catalog
Vous pouvez utiliser des fichiers truststore et keystore dans les volumes Unity Catalog pour vous authentifier auprès de Confluent Schema Registry. Consultez la documentation pour avro ou tampons de protocole.
Prise en charge du format de fichier XML natif (préversion publique)
La prise en charge du format de fichier XML natif est désormais en avant-première publique. La prise en charge du format de fichier XML permet l’ingestion, l’interrogation et l’analyse des données XML pour le traitement par lots ou la diffusion en continu. Il peut déduire et faire évoluer automatiquement le schéma et les types de données, prend en charge des expressions SQL telles que from_xml, et peut générer des documents XML. Il ne nécessite pas de jars externes et fonctionne en toute transparence avec le chargeur automatique, read_files, COPY INTO et DLT. Consultez Lire et écrire des fichiers XML.
Prise en charge du stockage Cloudflare R2 (Version préliminaire publique)
Vous pouvez désormais utiliser Cloudflare R2 comme stockage cloud pour les données inscrites dans Unity Catalog. Cloudflare R2 est principalement destiné aux cas d’usage du Delta Sharing dans lesquels vous souhaitez éviter les frais de sortie des données facturés par les fournisseurs de cloud lorsque les données transitent d’une région à l’autre. Le stockage R2 prend en charge toutes les ressources Databricks et IA prises en charge dans AWS S3, Azure Data Lake Storage et Google Cloud Storage. Consultez Utiliser les réplicas de Cloudflare R2 ou migrer le stockage vers R2 et Créer des informations d’identification de stockage pour se connecter à Cloudflare R2.
Spark et dbutils ont accès aux fichiers de l’espace de travail sur les clusters Unity Catalog à accès standard.
L'accès Spark et dbutils en lecture et écriture aux fichiers de l'espace de travail est désormais pris en charge sur les clusters du catalogue Unity en mode d'accès standard. Consultez Utilisation des fichiers d’espace de travail.
Prise en charge des scripts init et de la bibliothèque de cluster sur les clusters du catalogue Unity à accès standard
L’installation de scripts init étendus au cluster et de bibliothèques Python et JAR sur des clusters catalogue Unity en mode d’accès standard, y compris l’installation à l’aide de stratégies de cluster, est désormais en disponibilité générale. Databricks recommande d’installer des scripts d’initialisation et des bibliothèques à partir de volumes de catalogue Unity.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- fastjsonschema, versions 2.19.0 à 2.19.1
- filelock de 3.12.4 à 3.13.1
- googleapis-common-protos de 1.61.0 à 1.62.0
- packaging de 22.0 à 23.2
- Bibliothèques R mises à niveau :
- foreign de 0.8-82 à 0.8-85
- nlme de 3.1-162 à 3.1-163
- rpart de 4.1.19 à 4.1.21
- Bibliothèques Java mises à niveau :
- com.databricks.databricks-sdk-java de 0.7.0 à 0.13.0
- org.apache.orc.orc-core de 1.9.1-shaded-protobuf à 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.1-shaded-protobuf à 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.1 à 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 de 2.9.0 à 2.11.0
Apache Spark
Databricks Runtime 14.3 comprend Apache Spark 3.5.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans Databricks Runtime 14.2 (EoS), ainsi que les correctifs de bogues supplémentaires suivants et les améliorations apportées à Spark :
- [SPARK-46541] [SC-153546][sql][CONNECT] Correction de la référence de colonne ambiguë dans la jointure automatique
- [SPARK-45433] Rétablir « [SC-145163][sql] Corriger l’inférence de schéma CSV/JSON...
- [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Rendre addArtifact réessayable
- [SPARK-46660] [SC-153391][connect] Les requêtes ReattachExecute mettent à jour la vivacité de SessionHolder.
- [SPARK-46670] [SC-153273][python][SQL] Rendre dataSourceManager auto-cloné en séparant les sources de données Python statiques et runtime
- [SPARK-46720] [SC-153410][sql][PYTHON] Refactoriser la source de données Python pour s’aligner sur d’autres sources de données intégrées DSv2
- [SPARK-46684] [SC-153275][python][CONNECT] Correction de CoGroup.applyInPandas/Arrow pour passer correctement des arguments
- [SPARK-46667] [SC-153271][sc-153263][SQL] XML : Lever une erreur sur plusieurs sources de données XML
- [SPARK-46382] [SC-151881][sql]XML : ignoreSurroundingSpaces par défaut sur true
-
[SPARK-46382] [SC-153178][sql] XML : Mettre à jour la documentation pour
ignoreSurroundingSpaces - [SPARK-45292] Rétablir « [SC-151609][sql][HIVE] Suppression de Guava dans les classes partagées de IsolatedClientLoader »
- [SPARK-45292] [SC-151609][sql][HIVE] Supprimer guava des classes partagées de IsolatedClientLoader
-
[SPARK-46311] [SC-150137][core] Journaliser l’état final des pilotes pendant
Master.removeDriver - [SPARK-46413] [SC-151052][python] Valider le type de retour des UDF Python Arrow
- [SPARK-46633] [WARMFIX][sc-153092][SQL] Corriger le lecteur Avro pour gérer les blocs de longueur nulle
- [SPARK-46537] [SC-151286][sql] Convertir NPE et assertions de commandes en erreurs internes
- [SPARK-46179] [SC-151678][sql] Ajouter CrossDbmsQueryTestSuites, qui exécute d'autres SGBD contre des fichiers de référence utilisant d'autres SGBD, en commençant par Postgres
- [SPARK-44001] [SC-151413][protobuf] Ajouter une option pour permettre le déballage des types de wrappers bien connus de protobuf
- [SPARK-40876] [SC-151786][sql] Promotion de type étendu pour les décimales avec une échelle plus importante dans les lecteurs Parquet
-
[SPARK-46605] [SC-151769][connect] Rendre la fonction dans le module de connexion compatible avec
lit/typedLit - [SPARK-46634] [SC-153005][sql] la validation littérale ne doit pas descendre dans les champs Null
-
[SPARK-37039] [SC-153094][ps] Correctif
Series.astypepour fonctionner correctement avec une valeur manquante -
[SPARK-46312] [SC-150163][core] Utilisation
lower_camel_casedansstore_types.proto - [SPARK-46630] [SC-153084][sql] XML : Valider le nom d’élément XML en écriture
- [SPARK-46627] [SC-152981][ss][UI] Corriger le contenu de l’info-bulle de chronologie sur l’interface utilisateur de streaming
- [SPARK-46248] [SC-151774][sql] XML : prise en charge des options ignoreCorruptFiles et ignoreMissingFiles
- [SPARK-46386] [SC-150766][python] Améliorer les assertions d’observation (pyspark.sql.observation)
- [SPARK-46581] [SC-151789][core] Commentaire de mise à jour sur isZero dans AccumulateorV2
- [SPARK-46601] [SC-151785] [CORE] Correction de l’erreur de journal dans handleStatusMessage
- [SPARK-46568] [SC-151685][python] Rendre les options de source de données Python un dictionnaire sensible à la casse
- [SPARK-46611] [SC-151783][core] Supprimer ThreadLocal en remplaçant SimpleDateFormat par DateTimeFormatter
-
[SPARK-46604] [SC-151768][sql] Prendre
Literal.applyen charges.c.immuable.ArraySeq - [SPARK-46324] [SC-150223][sql][PYTHON] Correction du nom de sortie de pyspark.sql.functions.user et session_user
- [SPARK-46621] [SC-151794][python] Traiter le problème de null dans Exception.getMessage dans l'exception capturée Py4J
- [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader doit respecter le mode mémoire lors de la création de vecteurs de colonne pour la colonne manquante
- [SPARK-46613] [SC-151778][sql][PYTHON] Enregistrer l'exception complète lorsqu'il est impossible d'identifier les sources de données Python
-
[SPARK-46559] [SC-151364][mllib] Entourez le
exportdans le nom du package avec des backticks - [SPARK-46522] [SC-151784][python] Empêcher l'enregistrement de la source de données Python en cas de conflits de noms
- [SPARK-45580] [SC-149956][sql] Gérer le cas où une sous-requête imbriquée devient une jointure d’existence
- [SPARK-46609] [SC-151714][sql] Éviter l’explosion exponentielle dans PartitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][sql] Corriger l'exception de pointeur nul (NPE) lors de la description étendue d'une colonne sans statistiques de colonne.
- [SPARK-46599] [SC-147661][sc-151770][SQL] XML : Utiliser TypeCoercion.findTightestCommonType pour la vérification de compatibilité
- [SPARK-40876] [SC-151129][sql] Élargissement des promotions de type dans les lecteurs Parquet
- [SPARK-46179] [SC-151069][sql] Extraire du code dans des fonctions réutilisables dans SQLQueryTestSuite
-
[SPARK-46586] [SC-151679][sql] Prise en charge
s.c.immutable.ArraySeqcommecustomCollectionClsdansMapObjects -
[SPARK-46585] [SC-151622][core] Construit
metricPeaksdirectement en tant queimmutable.ArraySeqau lieu d'utilisermutable.ArraySeq.toSeqdansExecutor - [SPARK-46488] [SC-151173][sql] Ignorer l’appel de la fonction trimAll lors de l’analyse d’horodatage
-
[SPARK-46231] [SC-149724][python] Migrer tout le reste
NotImplementedError&TypeErrordans l’infrastructure d’erreur PySpark -
[SPARK-46348] [SC-150281][core] Support
spark.deploy.recoveryTimeout -
[SPARK-46313] [SC-150164][core] Durée de récupération du log
Spark HA -
[SPARK-46358] [SC-150307][connect] Simplifier la vérification de la condition dans le
ResponseValidator#verifyResponse - [SPARK-46380] [SC-151078][sql]Remplacez l’heure/la date actuelle avant l’évaluation des expressions de table inline.
- [SPARK-46563] [SC-151441][sql] La vue simpleString ne respecte pas la configuration spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] Réduire la profondeur de la pile en remplaçant (string|array).size par (string|array).length
- [SPARK-46539] [SC-151469][sql] SELECT * EXCEPT(tous les champs d’un struct) entraîne un échec d’assertion
- [SPARK-46565] [SC-151414][python] Affiner les classes d’erreur et les messages d’erreur pour les sources de données Python
- [SPARK-46576] [SC-151614][sql] Améliorer les messages d’erreur pour le mode d’enregistrement de source de données non pris en charge
- [SPARK-46540] [SC-151355][python] Respecter les noms de colonnes lorsque la fonction de lecture de la source de données Python génère des sorties dénommées Objets Row
- [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite fuit la SessionState de Hive
-
[SPARK-44556] [SC-151562][sql] Réutilisation
OrcTaillors de l’activation de VectorizedReader - [SPARK-46587] [SC-151618][sql] XML : Correction de la conversion des grands entiers XSD
- [SPARK-46382] [SC-151297][sql] XML : Capturer des valeurs entre les éléments
- [SPARK-46567] [SC-151447][core] Supprimer ThreadLocal pour ReadAheadInputStream
- [SPARK-45917] [SC-151269][python][SQL] Inscription automatique de la source de données Python au démarrage
- [SPARK-28386] [SC-151014][sql] Impossible de résoudre les ORDER BY colonnes avec GROUP BY et HAVING
- [SPARK-46524] [SC-151446][sql] Améliorer les messages d’erreur pour le mode d’enregistrement non valide
- [SPARK-46294] [SC-150672][sql] Nettoyer la sémantique d’init et la valeur zéro
-
[SPARK-46301] [SC-150100][core] Support
spark.worker.(initial|max)RegistrationRetries -
[SPARK-46542] [SC-151324][sql] Supprimer la vérification pour
c>=0deExternalCatalogUtils#needsEscapingcar elle est toujours vraie -
[SPARK-46553] [SC-151360][ps]
FutureWarningpourinterpolatele type d’objet - [SPARK-45914] [SC-151312][python] Prise en charge de la validation et de l’abandon de l’API pour l’écriture de source de données Python
- [SPARK-46543] [SC-151350][python][CONNECT] Générer PySparkValueError pour les champs vides
- [SPARK-46520] [SC-151227][python] Prise en charge du mode de remplacement pour l’écriture de source de données Python
- [SPARK-46502] [SC-151235][sql] Supporter les types de timestamp dans UnwrapCastInBinaryComparison
-
[SPARK-46532] [SC-151279][connect] Transmettre les paramètres de message dans les métadonnées de
ErrorInfo -
[SPARK-46397] Rétablir « [SC-151311][python][CONNECT] La fonction
sha2devrait leverPySparkValueErrorpournumBitsnon valide » - [SPARK-46170] [SC-149472][sql] Prise en charge de l'intégration de règles stratégiques de post-planification adaptative des requêtes dans SparkSessionExtensions
- [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable ne doit pas charger la table
-
[SPARK-46397] [SC-151311][python][CONNECT] La fonction
sha2devrait lever une erreur pour une valeurPySparkValueErrornon validenumBits - [SPARK-46145] [SC-149471][sql] spark.catalog.listTables ne lève pas d’exception lorsque la table ou la vue est introuvable
- [SPARK-46272] [SC-151012][sql] Support CTAS à l’aide de sources DSv2
- [SPARK-46480] [SC-151127][core][SQL] Corriger NPE lors de la tentative de tâche de cache de table
- [SPARK-46100] [SC-149051][core][PYTHON] Réduire la profondeur de la pile en remplaçant (chaîne|tableau).size par (chaîne|tableau).length
- [SPARK-45795] [SC-150764][sql] DS V2 prend en charge le mode push down
- [SPARK-46485] [SC-151133][sql] V1Write ne doit pas ajouter un tri quand ce n'est pas nécessaire
- [SPARK-46468] [SC-151121] [SQL] Gestion du bogue COUNT pour les sous-requêtes EXISTS avec agrégat sans clés de regroupement
- [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE Prise en charge de SQL
-
[SPARK-46498] [SC-151199][core] Supprimer
shuffleServiceEnableddeo.a.spark.util.Utils#getConfiguredLocalDirs -
[SPARK-46440] [SC-150807][sql] Définir les configurations de base sur le
CORRECTEDmode par défaut - [SPARK-45525] [SC-151120][sql][PYTHON] Prise en charge de l’écriture de source de données Python à l’aide de DSv2
-
[SPARK-46505] [SC-151187][connect] Rendre le seuil d’octets configurable dans
ProtoUtils.abbreviate - [SPARK-46447] [SC-151025][sql] Supprimer les configurations SQL obsolètes de conversion de date et heure
- [SPARK-46443] [SC-151123][sql] Précision décimale et échelle doivent être décidés par le dialecte H2.
- [SPARK-46384] [SC-150694][spark-46404][SS][ui] Corriger le diagramme de pile de durée d'opération sur la page de streaming structuré
- [SPARK-46207] [SC-151068][sql] Supporter MergeInto dans DataFrameWriterV2
- [SPARK-46452] [SC-151018][sql] Ajouter une nouvelle API dans DataWriter pour écrire un itérateur d’enregistrements
- [SPARK-46273] [SC-150313][sql] Prise en charge INSERT d’INTO/OVERWRITE à l’aide de sources DSv2
- [SPARK-46344] [SC-150267][core] Avertir correctement lorsqu'un exécuteur termine correctement, mais que le maître est déconnecté
-
[SPARK-46284] [SC-149944][python][CONNECT] Ajouter
session_userune fonction à Python - [SPARK-46043] [SC-149786][sql] Prise en charge de la création de table à l’aide de sources DSv2
- [SPARK-46323] [SC-150191][python] Correction du nom de sortie de pyspark.sql.functions.now
-
[SPARK-46465] [SC-151059][python][CONNECT] Ajouter
Column.isNaNdans PySpark -
[SPARK-46456] [SC-151050][core] Ajouter
spark.ui.jettyStopTimeoutpour définir le délai d’expiration pour l'arrêt du serveur Jetty afin de débloquer l’arrêt de SparkContext - [SPARK-43427] [SC-150356][protobuf] spark protobuf : permettre la conversion ascendante des types d'entiers non signés
- [SPARK-46399] [SC-151013][14.x][Core] Ajout de l’état de sortie à l’événement de fin d’application pour l’utilisation de Spark Listener
- [SPARK-46423] [SC-150752][python][SQL] Faire en sorte que l’instance de source de données Python soit établie pour DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][python][SQL] Prise en charge des métriques Python dans la source de données Python
- [SPARK-46330] [SC-151015] Chargement des blocs d’interface utilisateur Spark sur une durée longue quand HybridStore est activé
- [SPARK-46378] [SC-150397][sql] Supprimez toujours le tri après la conversion de l’agrégat en projet
- [SPARK-45506] [SC-146959][connect] Ajout de la prise en charge de l’URI ivy à SparkConnect addArtifact
- [SPARK-45814] [SC-147871][connect][SQL]Make ArrowConverters.createEmptyArrowBatch call close() pour éviter la fuite de mémoire
- [SPARK-46427] [SC-150759][python][SQL] Modifier la description de la source de données Python pour être assez explicite
- [SPARK-45597] [SC-150730][python][SQL] Prise en charge de la création de table à l’aide d’une source de données Python dans SQL (DSv2 exec)
- [SPARK-46402] [SC-150700][python] Ajouter getMessageParameters ainsi que la prise en charge de getQueryContext
-
[SPARK-46453] [SC-150897][connect] Générer une exception depuis
internalError()dansSessionHolder - [SPARK-45758] [SC-147454][sql] Introduire un mappeur pour les codecs de compression hadoop
-
[SPARK-46213] [PYTHON] Introduction de
PySparkImportErrorpour le framework d’erreurs -
[SPARK-46230] [SC-149960][python] Migrer
RetriesExceededvers l’erreur PySpark - [SPARK-45035] [SC-145887][sql] Correction de ignoreCorruptFiles/ignoreMissingFiles avec CSV/JSON multiligne signalera une erreur
- [SPARK-46289] [SC-150846][sql] Prend en charge la gestion de l'ordre des UDT en mode interprété
- [SPARK-46229] [SC-150798][python][CONNECT] Ajouter applyInArrow à groupBy et cogroup dans Spark Connect
- [SPARK-46420] [SC-150847][sql] Supprimer le transport inutilisé dans SparkSQLCLIDriver
-
[SPARK-46226] [PYTHON] Migration de tous les éléments
RuntimeErrorrestants dans le framework d’erreurs de PySpark - [SPARK-45796] [SC-150613][sql] Prise en charge de MODE() WITHIN GROUP (ORDER BY col)
- [SPARK-40559] [SC-149686][python][14.X] Ajouter applyInArrow à groupBy et cogroup
- [SPARK-46069] [SC-149672][sql] Support de l'extraction du type d'horodatage en type de date
- [SPARK-46406] [SC-150770][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][ss] Convertir
IllegalStateExceptioneninternalErrordans les itérateurs de session - [SPARK-45807] [SC-150751][sql] Améliorer l’API ViewCatalog
- [SPARK-46009] [SC-149771][sql][CONNECT] Fusionner la règle d’analyse de PercentileCont et PercentileDisc dans functionCall
- [SPARK-46403] [SC-150756][sql] Décoder le fichier binaire Parquet avec la méthode getBytesUnsafe
-
[SPARK-46389] [SC-150779][core] Fermez manuellement l’instance
RocksDB/LevelDBlors de la levée d'une exceptioncheckVersion -
[SPARK-46360] [SC-150376][python] Améliorer le débogage des messages d’erreur avec la nouvelle
getMessageAPI -
[SPARK-46233] [SC-149766][python] Migrer tout le reste
AttributeErrordans l’infrastructure d’erreur PySpark -
[SPARK-46394] [SC-150599][sql] Correction des problèmes de spark.catalog.listDatabases() sur les schémas contenant des caractères spéciaux lorsque l'option
spark.sql.legacy.keepCommandOutputSchemaest définie sur vrai - [SPARK-45964] [SC-148484][sql] Supprimer l’accesseur sql privé dans le package XML et JSON sous le package catalyseur
- [SPARK-45856] [SC-148691] Déplacement de ArtifactManager de Spark Connect dans SparkSession (sql/core)
- [SPARK-46409] [SC-150714][connect] Correction du script de lancement spark-connect-scala-client
-
[SPARK-46416] [SC-150699][core] Ajouter
@tailrecàHadoopFSUtils#shouldFilterOutPath -
[SPARK-46115] [SC-149154][sql] Restreindre les charsets dans
encode() - [SPARK-46253] [SC-150416][python] Planifier la lecture de la source de données Python à l’aide de MapInArrow
- [SPARK-46339] [SC-150266][ss] Répertoire avec nom de numéro de lot ne doit pas être traité comme journal des métadonnées
-
[SPARK-46353] [SC-150396][core] Refactorisation pour améliorer la
RegisterWorkercouverture des tests unitaires - [SPARK-45826] [SC-149061][sql] Ajouter une configuration SQL pour les traces de pile dans le contexte de requête DataFrame
- [SPARK-45649] [SC-150300][sql] Unifier le cadre de préparation pour OffsetWindowFunctionFrame
-
[SPARK-46346] [SC-150282][core] Correction pour que le Master mette à jour un worker de
UNKNOWNàALIVEsur le msgRegisterWorker -
[SPARK-46388] [SC-150496][sql] HiveAnalysis omet la protection du modèle de
query.resolved -
[SPARK-46401] [SC-150609][core] Utilisation
!isEmpty()auRoaringBitmaplieu degetCardinality() > 0dansRemoteBlockPushResolver - [SPARK-46393] [SC-150603][sql] Classifier les exceptions dans le catalogue de tables JDBC
- [SPARK-45798] [SC-150513][connect] Suivi : ajouter l'identifiant de session du serveur à SessionHolderInfo
- [SPARK-46153] [SC-146564][sc-150508][SQL] XML : Ajout de la prise en charge de TimestampNTZType
- [SPARK-46075] [SC-150393][connect] Améliorations apportées à SparkConnectSessionManager
- [SPARK-46357] [SC-150596] Remplacement de l’utilisation incorrecte dans la documentation de setConf par conf.set
- [SPARK-46202] [SC-150420][connect] Exposer de nouvelles API ArtifactManager pour prendre en charge les répertoires cibles personnalisés
-
[SPARK-45824] [SC-147648][sql] Appliquer la classe d’erreur dans
ParseException - [SPARK-45845] [SC-148163][ss][UI] Ajouter un nombre de lignes d’état supprimées à l’interface utilisateur de streaming
-
[SPARK-46316] [SC-150181][core] Activer
buf-lint-actionsur lecoremodule -
[SPARK-45816] [SC-147656][sql] Retourner
NULLlors d'un débordement pendant la conversion de timestamp en entiers -
[SPARK-46333] [SC-150263][sql] Remplacer
IllegalStateExceptionparSparkException.internalErrordans le catalyseur - [SPARK-45762] [SC-148486][core] Prise en charge de gestionnaires de shuffle définis dans les jars utilisateur en changeant l'ordre de démarrage
-
[SPARK-46239] [SC-149752][core] Masquer les
Jettyinformations -
[SPARK-45886] [SC-148089][sql] Sortir la trace de pile complète dans le contexte DataFrame
callSite - [SPARK-46290] [SC-150059][python] Modifier saveMode en indicateur booléen pour DataSourceWriter
- [SPARK-45899] [SC-148097][connect] Définir errorClass dans errorInfoToThrowable
-
[SPARK-45841] [SC-147657][sql] Exposer la trace de pile par
DataFrameQueryContext -
[SPARK-45843] [SC-147721][core] Prise en charge de
killalldans l’API de soumission REST -
[SPARK-46234] [SC-149711][python] Introduction
PySparkKeyErrorpour l’infrastructure d’erreur PySpark - [SPARK-45606] [SC-147655][sql] Restrictions de publication sur le filtre d’exécution multicouche
- [SPARK-45725] [SC-147006][sql] Supprimer le filtre d’exécution de sous-requête IN non par défaut
-
[SPARK-45694] [SC-147314][spark-45695][SQL] Nettoyer l’utilisation déconseillée de l’API
View.forceetScalaNumberProxy.signum -
[SPARK-45805] [SC-147488][sql] Rendre
withOriginplus générique - [SPARK-46292] [SC-150086][core][UI] Afficher un résumé des workers dans MasterPage
-
[SPARK-45685] [SC-146881][core][SQL] Utiliser
LazyListau lieu deStream - [SPARK-45888] [SC-149945][ss] Appliquer le cadre de classe d'erreur à la source de données d'état (métadonnées)
-
[SPARK-46261] [SC-150111][connect]
DataFrame.withColumnsRenameddoit conserver l'ordre dict/map -
[SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Nettoyer
SeqOps.viewetArrayOps.viewconversions -
[SPARK-46029] [SC-149255][sql] Échapper le guillemet simple,
_et%pour le filtrage DS V2 - [SPARK-46275] [SC-150189] Protobuf : Retour de Null en mode permissif quand la désérialisation échoue.
-
[SPARK-46320] [SC-150187][core] Soutien
spark.master.rest.host - [SPARK-46092] [SC-149658][sql] Ne pas appliquer de filtres aux groupes de lignes Parquet qui débordent
- [SPARK-46300] [SC-150097][python][CONNECT] Mettre en correspondance un comportement mineur dans Column avec une couverture de test complète
- [SPARK-46298] [SC-150092][python][CONNECT] Faire correspondre l’avertissement de dépréciation, le cas de test et l’erreur de Catalog.createExternalTable
-
[SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Nettoyer l’utilisation obsolète de l’API liée à
StringContext/StringOps/RightProjection/LeftProjection/Eitheret l’utilisation des types deBufferedIterator/CanBuildFrom/Traversable. - [SPARK-33393] [SC-148407][sql] Prise en charge de SHOW TABLE EXTENDED dans v2
-
[SPARK-45737] [SC-147011][sql] Supprimer inutile
.toArray[InternalRow]dansSparkPlan#executeTake - [SPARK-46249] [SC-149797][ss] Exiger un verrou d’instance pour acquérir des métriques RocksDB pour empêcher la concurrence avec les opérations en arrière-plan
-
[SPARK-46260] [SC-149940][python][SQL]
DataFrame.withColumnsRenameddoit respecter l’ordre de dictée - [SPARK-46274] [SC-150043] [SQL] Correction de l’opérateur de plage computeStats() pour vérifier la validité de la longueur avant la conversion
- [SPARK-46040] [SC-149767][sql][Python] Mettre à jour l'API UDTF pour 'analyser' les colonnes de partitionnement/ordonnancement afin de prendre en charge les expressions générales
-
[SPARK-46287] [SC-149949][python][CONNECT]
DataFrame.isEmptydoit fonctionner avec tous les types de données - [SPARK-45678] [SC-146825][core] Couvre BufferReleasingInputStream.available/reset en cas d'exception tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][core][SQL][connect] Nettoyer l’utilisation déconseillée de l’API liée à
IterableOnceExtensionMethods. - [SPARK-43980] [SC-148992][sql] introduction de la nouvelle syntaxe
- [SPARK-46269] [SC-149816][ps] Activer d’autres tests de fonction de compatibilité NumPy
- [SPARK-45807] [SC-149851][sql] Ajouter createOrReplaceView(..) / replaceView(..) au ViewCatalog
-
[SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Introduire une fonction implicite dans laquelle Scala Array doit être encapsulé
immutable.ArraySeq. -
[SPARK-46205] [SC-149655][core] Améliorer les
PersistenceEngineperformances avecKryoSerializer - [SPARK-45746] [SC-149359][python] Retourne des messages d’erreur spécifiques si la méthode UDTF 'analyze' ou 'eval' accepte ou retourne des valeurs incorrectes
- [SPARK-46186] [SC-149707][connect] Correction de la transition d’état illégale lors de l’interruption d’ExecuteThreadRunner avant le démarrage
-
[SPARK-46262] [SC-149803][ps] Activer le test pour
np.left_shiftl’objet Pandas-on-Spark. - [SPARK-45093] [SC-149679][connect][PYTHON] Prise en charge appropriée de la gestion et de la conversion des erreurs pour AddArtifactHandler
- [SPARK-46188] [SC-149571][doc][3.5] Correction du css des tables générées par Spark doc
- [SPARK-45940] [SC-149549][python] Ajouter InputPartition à l’interface DataSourceReader
- [SPARK-43393] [SC-148301][sql] Résoudre le bogue de dépassement d’expression de séquence.
- [SPARK-46144] [SC-149466][sql] Fail INSERT INTO ... REPLACE si la condition contient une sous-requête
-
[SPARK-46118] [SC-149096][sql][SS][connect] Utiliser
SparkSession.sessionState.confau lieu deSQLContext.confmarquerSQLContext.confcomme déconseillé - [SPARK-45760] [SC-147550][sql] Ajouter une expression With pour éviter la duplication des expressions
- [SPARK-43228] [SC-149670][sql] Les clés de jointure correspondent également à PartitioningCollection dans CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][ps] Test SparkPandasNotImplementedError avec nettoyage du code inutilisé
-
[SPARK-46119] [SC-149205][sql] Redéfinir la méthode
toStringpourUnresolvedAlias - [SPARK-46206] [SC-149674][ps] Utiliser une exception d’étendue plus étroite pour le processeur SQL
-
[SPARK-46191] [SC-149565][core] Améliorer
FileSystemPersistenceEngine.persistle msg d’erreur en cas de fichier existant - [SPARK-46036] [SC-149356][sql] Suppression de la classe d’erreur de la fonction raise_error
- [SPARK-46055] [SC-149254][sql] Réécrire l'implémentation des API de base de données du catalogue
- [SPARK-46152] [SC-149454][sql] XML : Ajouter la prise en charge de DecimalType dans l’inférence de schéma XML
- [SPARK-45943] [SC-149452][sql] Déplacer DetermineTableStats vers les règles de résolution
-
[SPARK-45887] [SC-148994][sql] Harmoniser l’implémentation du codegen et du non-codegen de
Encode - [SPARK-45022] [SC-147158][sql] Fournir un contexte pour les erreurs d’API de jeu de données
-
[SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Remplacer
toIteratorpariteratorIterableOnce - [SPARK-46141] [SC-149357][sql] Modifier la valeur par défaut pour spark.sql.legacy.ctePrecedencePolicy en CORRECTED
-
[SPARK-45663] [SC-146617][core][MLLIB] Remplacer
IterableOnceOps#aggregateparIterableOnceOps#foldLeft - [SPARK-45660] [SC-146493][sql] Réutiliser des objets littéraux dans la règle ComputeCurrentTime
-
[SPARK-45803] [SC-147489][core] Supprimer le non utilisé
RpcAbortException - [SPARK-46148] [SC-149350][ps] Correction du test pyspark.pandas.mlflow.load_model (Python 3.12)
- [SPARK-46110] [SC-149090][python] Utiliser des classes d’erreur dans catalogue, conf, connect, observation, modules pandas
- [SPARK-45827] [SC-149203][sql] Correctifs variés avec codegen et lecteur vectorisé désactivé
- [SPARK-46080] Rétablir « [SC-149012][python] Mettre à niveau Cloudpickle vers 3.0.0 »
-
[SPARK-45460] [SC-144852][sql] Remplacer
scala.collection.convert.ImplicitConversionsparscala.jdk.CollectionConverters - [SPARK-46073] [SC-149019][sql] Supprimer la résolution spéciale de l'Espace de noms non résolu pour certaines commandes
- [SPARK-45600] [SC-148976][python] Faire en sorte que l'inscription des sources de données Python se fasse au niveau de la session
- [SPARK-46074] [SC-149063][connect][SCALA] Détails insuffisants dans le message d’erreur sur l’échec de la fonction utilisateur
- [SPARK-46114] [SC-149076][python] Ajouter PySparkIndexError pour l’infrastructure d’erreurs
-
[SPARK-46120] [SC-149083][connect][PYTHON] Supprimer la fonction d’assistance
DataFrame.withPlan - [SPARK-45927] [SC-148660][python] Gestion des chemins d’accès de mise à jour pour la source de données Python
- [SPARK-46062] [14.x][sc-148991][SQL] Synchroniser l’indicateur isStreaming entre la définition CTE et la référence
-
[SPARK-45698] [SC-146736][core][SQL][ss] Nettoyer l’utilisation déconseillée de l’API liée à
Buffer - [SPARK-46064] [SC-148984][sql][SS] Déplacer EliminateEventTimeWatermark vers l'analyseur et le changer pour n'avoir d'effet que sur l'enfant résolu
- [SPARK-45922] [SC-149038][connect][CLIENT] Refactorisation des reessais mineurs (suivi de plusieurs politiques)
- [SPARK-45851] [SC-148419][connect][SCALA] Prise en charge de plusieurs stratégies dans le client Scala
- [SPARK-45974] [SC-149062][sql] Ajouter une vérification des attributs de filtre non vide pour RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][connect] Dataset.groupingSets dans le client Scala Spark Connect
- [SPARK-45136] [SC-146607][connect] Améliorer ClosureCleaner avec la prise en charge d’Ammonite
- [SPARK-46084] [SC-149020][ps] Refactorisation de la conversion du type de données pour le type catégoriel.
- [SPARK-46083] [SC-149018][python] Faire de SparkNoSuchElementException comme une API d’erreur standardisée
- [SPARK-46048] [SC-148982][python][CONNECT] Prise en charge des DataFrame.groupingSets dans Python Spark Connect
- [SPARK-46080] [SC-149012][python] Mettre à niveau Cloudpickle vers la version 3.0.0
- [SPARK-46082] [SC-149015][python][CONNECT] Correction de la représentation de chaîne protobuf pour l’API Pandas Functions avec Spark Connect
-
[SPARK-46065] [SC-148985][ps] Refactorer
(DataFrame|Series).factorize()pour qu'il utilisecreate_map. - [SPARK-46070] [SC-148993][sql] Compiler le modèle regex dans SparkDateTimeUtils.getZoneId en dehors de la boucle chaude
- [SPARK-46063] [SC-148981][python][CONNECT] Améliorer les messages d’erreur liés aux types d’arguments dans cute, rollup, groupby et pivot
- [SPARK-44442] [SC-144120][mesos] Supprimer la prise en charge de Mesos
- [SPARK-45555] [SC-147620][python] Inclut un objet débogueur pour l’assertion ayant échoué
- [SPARK-46048] [SC-148871][python][SQL] Prise en charge de DataFrame.groupingSets dans PySpark
- [SPARK-45768] [SC-147304][sql][PYTHON] Faire du faulthandler une configuration d'exécution pour l'exécution de Python dans SQL
- [SPARK-45996] [SC-148586][python][CONNECT] Afficher les messages d’exigence de dépendance appropriés pour Spark Connect
- [SPARK-45681] [SC-146893][ui] Cloner une version js de UIUtils.errorMessageCell pour un rendu d’erreur cohérent sur l’interface utilisateur
-
[SPARK-45767] [SC-147225][core] Delete
TimeStampedHashMapet son UT - [SPARK-45696] [SC-148864][core] Méthode fix tryCompleteWith in trait Promise est déconseillée
- [SPARK-45503] [SC-146338][ss] Ajouter la configuration pour définir la compression RocksDB
-
[SPARK-45338] [SC-143934][core][SQL] Remplacer
scala.collection.JavaConvertersparscala.jdk.CollectionConverters -
[SPARK-44973] [SC-148804][sql] Correction
ArrayIndexOutOfBoundsExceptiondansconv() - [SPARK-45912] [SC-144982][sc-148467][SQL] Amélioration de l’API XSDToSchema : Passer à l’API HDFS pour l’accessibilité du stockage cloud
-
[SPARK-45819] [SC-147570][core] Prise en charge
cleardans l’API de soumission REST -
[SPARK-45552] [14.x][sc-146874][PS] Introduire des paramètres flexibles pour
assertDataFrameEqual -
[SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Fournir une interface pour d’autres sources de streaming pour ajouter
_metadatades colonnes - [SPARK-45929] [SC-148692][sql] Prise en charge de l’opération groupingSets dans l’API dataframe
- [SPARK-46012] [SC-148693][core] EventLogFileReader ne doit pas lire les journaux cycliques si le fichier d'état de l'application est manquant
- [SPARK-45965] [SC-148575][sql] Déplacer les expressions de partitionnement DSv2 dans le module functions.partitioning
-
[SPARK-45971] [SC-148541][core][SQL] Corriger le nom du package à
SparkCollectionUtilsorg.apache.spark.util -
[SPARK-45688] [SC-147356][spark-45693][CORE] Nettoyer l’utilisation déconseillée de l’API liée à
MapOps&Fixmethod += in trait Growable is deprecated -
[SPARK-45962] [SC-144645][sc-148497][SQL] Supprimer
treatEmptyValuesAsNullset utilisernullValuel’option à la place dans XML -
[SPARK-45988] [SC-148580][spark-45989][PYTHON] Correction des typeshints pour gérer
listGenericAlias dans Python 3.11+ -
[SPARK-45999] [SC-148595][ps] Utiliser une
PandasProductdédiée danscumprod -
[SPARK-45986] [SC-148583][ml][PYTHON] Correction
pyspark.ml.torch.tests.test_distributordans Python 3.11 -
[SPARK-45994] [SC-148581][python] Change
description-filetodescription_file - [SPARK-45575] [SC-146713][sql] Prise en charge des options d'accès rétrospectif pour l'API de lecture de df
- [SPARK-45747] [SC-148404][ss] Utiliser les informations de clé de préfixe dans les métadonnées d’état pour gérer la lecture de l’état pour l'agrégation par fenêtre de session
- [SPARK-45898] [SC-148213][sql] Réécrire les API de table de catalogue pour utiliser un plan logique non résolu
- [SPARK-45828] [SC-147663][sql] Supprimer la méthode déconseillée dans dsl
-
[SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Mise à niveau
protobufvers la version 4.25.1 pour prendre en chargePython 3.11 - [SPARK-45911] [SC-148226][core] Rendre TLS1.3 la valeur par défaut pour RPC SSL
- [SPARK-45955] [SC-148429][ui] Prise en charge du repli pour les détails du graphe de flammes et du vidage des fils
-
[SPARK-45936] [SC-148392][ps] Optimize
Index.symmetric_difference - [SPARK-45389] [SC-144834][sql][3.5] Règle de correspondance MetaException correcte lors de l’obtention des métadonnées de partition
- [SPARK-45655] [SC-148085][sql][SS] Autoriser les expressions non déterministes dans AggregateFunctions dans CollectMetrics
- [SPARK-45946] [SC-148448][ss] Correction de l’utilisation de l’écriture FileUtils déconseillée pour passer un charset par défaut dans RocksDBSuite
- [SPARK-45511] [SC-148285][ss] Source de données d’état - Lecteur
-
[SPARK-45918] [SC-148293][ps] Optimize
MultiIndex.symmetric_difference - [SPARK-45813] [SC-148288][connect][PYTHON] Retourne les métriques observées à partir de commandes
-
[SPARK-45867] [SC-147916][core] Support
spark.worker.idPattern -
[SPARK-45945] [SC-148418][connect] Ajouter une fonction d’assistance pour
parser - [SPARK-45930] [SC-148399][sql] Soutien des UDFs non déterministes dans MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][python] Créer une API UDTF Python pour arrêter la consommation de lignes de la table d’entrée
-
[SPARK-45731] [SC-147929][sql] Mettre également à jour les statistiques de partition avec
ANALYZE TABLEla commande -
[SPARK-45868] [SC-148355][connect] Veillez à
spark.tableutiliser le même analyseur avec spark vanille - [SPARK-45882] [SC-148161][sql] Le partitionnement par BroadcastHashJoinExec doit respecter CoalescedHashPartitioning lors de sa propagation.
- [SPARK-45710] [SC-147428][sql] Affecter des noms à l’erreur _LEGACY_ERROR_TEMP_21[59,60,61,62]
-
[SPARK-45915] [SC-148306][sql] Traiter les décimales (x, 0) identiques à IntegralType dans
PromoteStrings - [SPARK-45786] [SC-147552][sql] Correction des résultats incorrects de la multiplication décimale et de la division
-
[SPARK-45871] [SC-148084][connect] Optimisations de conversion de collection liées à
.toBufferdans les modulesconnect - [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager peut rechercher un sparkcontext arrêté
- [SPARK-45913] [SC-148289][python] Rendre les attributs internes privés à partir d’erreurs PySpark.
- [SPARK-45827] [SC-148201][sql] Ajouter un type de données Variant dans Spark.
- [SPARK-44886] [SC-147876][sql] Introduire CLUSTER BY la clause CREATE/REPLACE TABLE
-
[SPARK-45756] [SC-147959][core] Support
spark.master.useAppNameAsAppId.enabled - [SPARK-45798] [SC-147956][connect] Vérifier l'ID de session côté serveur
-
[SPARK-45896] [SC-148091][sql] Construction
ValidateExternalTypeavec le type attendu correct -
[SPARK-45902] [SC-148123][sql] Supprimer la fonction
resolvePartitionColumnsinutilisée deDataSource -
[SPARK-45909] [SC-148137][sql] Supprimer
NumericTypele cast s’il peut être converti en toute sécuritéIsNotNull - [SPARK-42821] [SC-147715][sql] Supprimer les paramètres inutilisés dans les méthodes splitFiles
-
[SPARK-45875] [SC-148088][core] Supprimer
MissingStageTableRowDataducoremodule - [SPARK-45783] [SC-148120][python][CONNECT] Améliorer les messages d’erreur lorsque le mode Spark Connect est activé, mais que l’URL distante n’est pas définie
- [SPARK-45804] [SC-147529][ui] Ajouter la configuration spark.ui.threadDump.flamegraphEnabled pour activer/désactiver le graphique en flammes
- [SPARK-45664] [SC-146878][sql] Introduire un mappeur pour les codecs de compression orc
- [SPARK-45481] [SC-146715][sql] Présentation d'un mappeur pour les codecs de compression Parquet
- [SPARK-45752] [SC-148005][sql] Simplifiez le code pour vérifier les relations CTE non référencées
- [SPARK-44752] [SC-146262][sql] XML : Mettre à jour Spark Docs
- [SPARK-45752] [SC-147869][sql] Le CTE non référencé doit être vérifié par CheckAnalysis0.
- [SPARK-45842] [SC-147853][sql] Refactoriser les API de fonctions du catalogue pour utiliser l’analyseur
- [SPARK-45639] [SC-147676][sql][PYTHON] Prise en charge du chargement des sources de données Python dans DataFrameReader
- [SPARK-45592] [SC-146977][sql] Problème de correction dans AQE avec InMemoryTableScanExec
- [SPARK-45794] [SC-147646][ss] Introduction de la source de métadonnées pour interroger les informations sur l'état du streaming.
- [SPARK-45739] [SC-147059][python] Catch IOException au lieu de seulement EOFException pour faulthandler
- [SPARK-45677] [SC-146700] Amélioration de la journalisation des erreurs pour l’API Observation
- [SPARK-45544] [SC-146873][core] Intégrer la prise en charge SSL dans TransportContext
- [SPARK-45654] [SC-147152][python] Ajouter une API d’écriture de source de données Python
-
[SPARK-45771] [SC-147270][core] Activer
spark.eventLog.rolling.enabledpar défaut - [SPARK-45713] [SC-146986][python] Prise en charge de l’inscription de sources de données Python
- [SPARK-45656] [SC-146488][sql] Correction de l'observation d'anomalies lorsque des observations identifiées portent le même nom sur plusieurs jeux de données
- [SPARK-45808] [SC-147571][connect][PYTHON] Meilleure gestion des erreurs pour les exceptions SQL
-
[SPARK-45774] [SC-147353][core][UI] Prise en charge
spark.master.ui.historyServerUrldansApplicationPage -
[SPARK-45776] [SC-147327][core] Supprimer la vérification null défensive de
MapOutputTrackerMaster#unregisterShuffleajoutée dans SPARK-39553 - [SPARK-45780] [SC-147410][connect] Propager toutes les variables locales de thread du client Spark Connect dans InheritableThread
- [SPARK-45785] [SC-147419][core] Supporter la rotation du numéro d'application
- [SPARK-45793] [SC-147456][core] Améliorer les codecs de compression intégrés
- [SPARK-45757] [SC-147282][ml] Éviter le re-calcul de NNZ dans Binarizer
- [SPARK-45209] [SC-146490][core][UI] Prise en charge des graphiques en flamme pour la page de vidage des fils de l'exécuteur
-
[SPARK-45777] [SC-147319][core] Prise en charge
spark.test.appIddansLocalSchedulerBackend - [SPARK-45523] [SC-146331][python] Refactoriser la vérification null pour avoir des raccourcis
- [SPARK-45711] [SC-146854][sql] Introduire un mappeur pour les codecs de compression avro
- [SPARK-45523] [SC-146077][python] Retourne un message d’erreur utile si l’UDTF retourne None pour une colonne non nullable
- [SPARK-45614] [SC-146729][sql] Affecter des noms à l’erreur _LEGACY_ERROR_TEMP_215[6,7,8]
-
[SPARK-45755] [SC-147164][sql] Améliorer
Dataset.isEmpty()en appliquant une limite globale1 - [SPARK-45569] [SC-145915][sql] Attribuer le nom à l’erreur _LEGACY_ERROR_TEMP_2153
-
[SPARK-45749] [SC-147153][core][WEBUI] Correctif
Spark History Serverpour trierDurationcorrectement la colonne -
[SPARK-45754] [SC-147169][core] Support
spark.deploy.appIdPattern -
[SPARK-45707] [SC-146880][sql] Simplifiez
DataFrameStatFunctions.countMinSketchavecCountMinSketchAgg -
[SPARK-45753] [SC-147167][core] Support
spark.deploy.driverIdPattern -
[SPARK-45763] [SC-147177][core][UI] Améliorer
MasterPagepour afficherResourcela colonne uniquement lorsqu’elle existe - [SPARK-45112] [SC-143259][sql] Utiliser une résolution basée sur 'UnresolvedFunction' dans les fonctions du jeu de données SQL
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Veuillez télécharger les pilotes récemment publiés et mettre à niveau (téléchargez ODBC, téléchargez JDBC).
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 14.3.
Environnement du système
-
Système d’exploitation : Ubuntu 22.04.3 LTS
- Remarque : Il s’agit de la version Ubuntu utilisée par les conteneurs Databricks Runtime. Les conteneurs DBR s’exécutent sur les machines virtuelles du fournisseur de cloud, qui peuvent utiliser une autre version Ubuntu ou une distribution Linux.
- Java : Zulu 8.74.0.17-CA-linux64
- Scala : 2.12.15
- Python : 3.10.12
- R : 4.3.1
- Delta Lake : 3.1.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| anyio | 3.5.0 | cfp2-cffi | 21.3.0 | cfc2-cffi-bindings | 21.2.0 |
| asttokens | 2.0.5 | attributs | 22.1.0 | appel de retour | 0.2.0 |
| bellesoupe4 | 4.11.1 | noir | 22.6.0 | blanchir | 4.1.0 |
| clignotant | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
| certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | cliquez | 8.0.4 | Communication | 0.1.2 |
| contourpy | 1.0.5 | chiffrement | 39.0.1 | cycliste | 0.11.0 |
| Cython | 0.29.32 | Kit de développement logiciel Databricks (SDK) | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | décorateur | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.7 | Conversion de docstring en markdown | 0.11 | points d’entrée | 0,4 |
| en cours d’exécution | 0.8.3 | aperçu des facettes | 1.1.1 | validation rapide des schémas JSON (fastjsonschema) | 2.19.1 |
| verrou de fichier | 3.13.1 | outils de police | 4.25.0 | googleapis-common-protos | 1.62.0 |
| grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
| ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets (un outil de widgets interactifs pour Python) | 7.7.2 |
| Jedi | 0.18.1 | Jeepney (véhicule de transport public philippin) | 0.7.1 | Jinja2 | 3.1.2 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
| jupyter-client | 7.3.4 | serveur Jupyter | 1.23.4 | jupyter_core | 5.2.0 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 | porte-clés | 23.5.0 |
| kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
| matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| désaccorder | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
| nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
| nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
| carnet de notes | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
| oauthlib | 3.2.0 | empaquetage | 23,2 | Pandas | 1.5.3 |
| pandocfilters | 1.5.0 | parso | 0.8.3 | spécification de chemin | 0.10.3 |
| dupe | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Oreiller | 9.4.0 | pépin | 22.3.1 | platformdirs | 2.5.2 |
| tracé | 5.9.0 | enfiché | 1.0.0 | prometheus-client | 0.14.1 |
| prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pyarrow-hotfix | 0,5 | pycparser | 2.21 |
| pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
| python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
| pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
| requêtes | 2.28.1 | corde | 1.7.0 | s3transfer | 0.6.2 |
| scikit-learn | 1.1.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.10.0 | seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
| Six | 1.16.0 | sniffio | 1.2.0 | Soupsieve | 2.3.2.post1 |
| ssh-import-id | 5.11 | données en pile | 0.2.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.13.5 |
| ténacité | 8.1.0 | terminé | 0.17.1 | threadpoolctl | 2.2.0 |
| tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornade | 6.1 | Traitlets | 5.7.1 | typing_extensions | 4.4.0 |
| ujson | 5.4.0 | mises à niveau automatiques | 0.1 | urllib3 | 1.26.14 |
| virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| webencodings | 0.5.1 | websocket-client | 0.58.0 | c’est quoi le patch | 1.0.2 |
| roue | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
| zipp | 1.0.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de packages Posit le 13 juillet 2023 : https://packagemanager.posit.co/cran/2023-07-13/.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 12.0.1 | Askpass | 1.1 | assertthat | 0.2.1 |
| rétroportage | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| morceau | 4.0.5 | bit 64 | 4.0.5 | objet BLOB | 1.2.4 |
| botte | 1.3-28 | brasser | 1,0-8 | brio | 1.1.3 |
| balai | 1.0.5 | bslib | 0.5.0 | cachemire | 1.0.8 |
| appelant | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
| Chron | 2.3-61 | classe | 7.3-22 | Cli | 3.6.1 |
| Presse-papiers | 0.8.0 | horloge | 0.7.0 | Grappe | 2.1.4 |
| codetools | 0.2-19 | espace colorimétrique | 2.1-0 | commonmark | 1.9.0 |
| compilateur | 4.3.1 | config | 0.3.1 | Conflit | 1.2.0 |
| cpp11 | 0.4.4 | crayon de cire | 1.5.2 | Références | 1.3.2 |
| friser | 5.0.1 | table de données | 1.14.8 | jeux de données | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Desc | 1.4.2 |
| devtools | 2.4.5 | diagramme | 1.6.5 | diffobj | 0.3.5 |
| digérer | 0.6.33 | éclairage vers le bas | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | ellipse | 0.3.2 |
| évaluer | 0,21 | fans | 1.0.4 | couleurs | 2.1.1 |
| carte rapide | 1.1.1 | fontawesome | 0.5.1 | condamnés | 1.0.0 |
| foreach | 1.5.2 | étranger | 0.8-85 | forger | 0.2.0 |
| Fs | 1.6.2 | futur | 1.33.0 | future.apply | 1.11.0 |
| se gargariser | 1.5.1 | produits génériques | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | globales | 0.16.2 | colle | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| graphisme | 4.3.1 | grDevices | 4.3.1 | grille | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt ;pouvant être | 0.3.3 |
| casque de sécurité | 1.3.0 | havre | 2.5.3 | supérieur | 0.10 |
| Hms | 1.1.3 | outils HTML | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| isobande | 0.2.7 | itérateurs | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
| étiquetage | 0.4.2 | plus tard | 1.3.1 | treillis | 0.21-8 |
| lave | 1.7.2.1 | cycle de vie | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.2 | magrittr | 2.0.3 | Markdown | 1.7 |
| MASSE | 7.3-60 | Matrice | 1.5-4.1 | mémorisation | 2.0.1 |
| méthodes | 4.3.1 | mgcv | 1.8-42 | mime | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallèle | 4.3.1 |
| parallèlement | 1.36.0 | pilier | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.8 | éloge | 1.0.0 |
| joliesunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | progrès | 1.2.2 |
| progresseur | 0.13.0 | promesses | 1.2.0.1 | proto | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.7.5 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.4 | readxl | 1.4.3 | recettes | 1.0.6 |
| match retour | 1.0.1 | revanche2 | 2.1.2 | Télécommandes | 2.4.2 |
| exemple reproductible | 2.0.2 | remodeler2 | 1.4.4 | rlang | 1.1.1 |
| rmarkdown | 2,23 | RODBC | 1,3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.6 | écailles | 1.2.1 |
| sélecteur | 0,4-2 | informations sur la session | 1.2.2 | forme | 1.4.6 |
| brillant | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
| SparkR | 3.5.0 | spatial | 7.3-15 | Cannelures | 4.3.1 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiques | 4.3.1 |
| statistiques4 | 4.3.1 | chaine | 1.7.12 | stringr | 1.5.0 |
| survie | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
| tcltk | 4.3.1 | testthat | 3.1.10 | mise en forme de texte | 0.3.6 |
| tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 2.0.0 | changement d'heure | 0.2.0 | date-heure | 4022.108 |
| tinytex | 0,45 | outils | 4.3.1 | tzdb | 0.4.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 2.2.2 | utf8 | 1.2.3 |
| utilitaires | 4.3.1 | Identifiant unique universel (UUID) | 1.1:0 | vctrs | 0.6.3 |
| viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
| vibrisse | 0.4.1 | flétrir | 2.5.0 | xfun | 0.39 |
| xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | fermeture éclair | 2.3.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.390 |
| com.amazonaws | aws-java-sdk-millisecondes | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | Outil de support aws-java-sdk | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flux | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.13.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | ombré-cryo | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caféine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0,25 |
| io.delta | delta-sharing-client_2.12 | 1.1.4 |
| io.dropwizard.metrics | annotation des métriques | 4.2.19 |
| io.dropwizard.metrics | métriques de base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | servlets de métriques | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | transport-netty-natif-commun-unix | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collecteur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant-launcher | 1.9.16 |
| org.apache.arrow | format de flèche | 12.0.1 |
| org.apache.arrow | arrow-memory-core | 12.0.1 |
| org.apache.arrow | arrow-memory-netty | 12.0.1 |
| org.apache.arrow | vecteur-flèche | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.10.0 |
| org.apache.curator | curateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur-recettes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.9 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | annotations du public | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.52.v20230823 |
| org.eclipse.jetty | serveur jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-commun | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validateator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.joddd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Cales | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | chats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |