Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 14.2 avec Apache Spark 3.5.0.
Databricks a publié cette version en novembre 2023.
Améliorations et nouvelles fonctionnalités
-
CACHE SELECTsnot désormais ignorés - Comportement de mise en cache amélioré
- Correction de la gestion des fichiers corrompus dans les commandes DML
- Prise en charge du registre de schémas pour les fonctions liées à protobuf et Avro dans les clusters partagés
-
Prise en charge de
foreachBatchet deStreamingListener - La concurrence au niveau des lignes est en disponibilité générale et activée par défaut
- Delta Sharing : les destinataires peuvent effectuer des requêtes par lots, CDF et de streaming sur des tables partagées avec des vecteurs de suppression (préversion publique)
- Clone superficiel pour des tables externes Unity Catalog (préversion publique)
- Nouvel algorithme d’affectation de mise en cache du disque
-
Ajout de la prise en charge de l’évolution de schéma à
from_avroavec connecteur de registre de schéma - Collecte de statistiques multithread plus rapide
- Filtres pushdown de la source Delta sur les fichiers Delta
- Prise en charge des fonctions scalaires définies par l’utilisateur Scala sur des clusters partagés (préversion publique)
CACHE SELECT est désormais ignoré
La commande SQL CACHE SELECT est désormais ignorée en faveur d’un algorithme de mise en cache amélioré. Consultez Optimisation des performances avec la mise en cache sur Azure Databricks.
Comportement de mise en cache amélioré
Le placement DiskCache par le planificateur Spark dispose désormais d’une attribution de partition plus rapide, d’un meilleur équilibrage pendant la mise à l’échelle automatique du cluster et d’une exécution des requêtes plus cohérente.
Correction de la gestion des fichiers corrompus dans les commandes DML
Les commandes DML DELETE, UPDATEet MERGE INTO ne respectent plus les options de lecture ignoreCorruptFiles et ignoreMissingFiles. Lorsqu’elles rencontrent un fichier non lisible dans un tableau, ces commandes échouent désormais même si ces options sont spécifiées.
Prise en charge du registre de schémas pour les fonctions liées à protobuf et Avro dans les clusters partagés
Vous pouvez maintenant utiliser les fonctions Python from_avro, to_avro, from_protobufet to_protobuf avec le Registre de schémas dans des clusters partagés.
Prise en charge de foreachBatch et de StreamingListener
Vous pouvez désormais utiliser les API foreachBatch() et StreamingListener dans les clusters partagés. Consultez Utiliser foreachBatch pour écrire dans des récepteurs de données arbitraires et Surveillance des requêtes de Structured Streaming sur Azure Databricks.
La concurrence au niveau des lignes est en disponibilité générale et activée par défaut
L’accès concurrentiel au niveau des lignes réduit les conflits entre les opérations d’écriture simultanées en détectant les modifications au niveau des lignes. La concurrence au niveau des lignes est prise en charge uniquement sur les tables sans partitionnement dont font partie les tables avec clustering liquide. La concurrence au niveau des lignes est activée par défaut sur les tables Delta avec les vecteurs de suppression activés. Consultez Conflits d’écriture avec concurrence au niveau des lignes.
Delta Sharing : les destinataires peuvent effectuer des requêtes par lots, CDF et de streaming sur des tables partagées avec des vecteurs de suppression (préversion publique)
Les destinataires Delta Sharing peuvent désormais effectuer des requêtes par lots, CDF et de streaming sur des tables partagées qui utilisent des vecteurs de suppression. Sur Databricks Runtime 14.1, ils peuvent effectuer seulement des requêtes par lots. Consultez les articles Ajouter des tables avec des vecteurs de suppression ou un mappage de colonnes à un partage, Lire des tables avec un mappage de colonnes ou des vecteurs de suppression activés et Lire des tables avec un mappage de colonnes ou des vecteurs de suppression activés.
Clone superficiel pour des tables externes Unity Catalog (préversion publique)
Vous pouvez désormais utiliser un clone superficiel avec des tables externes Unity Catalog. Consultez Clone superficiel pour les tables Unity Catalog.
Nouvel algorithme d’affectation de mise en cache du disque
Le planificateur Spark utilise désormais un nouvel algorithme de mise en cache du disque. L’algorithme améliore l’utilisation du disque et de l’affectation de partitions entre les nœuds, avec une affectation plus rapide au début et après les événements de mise à l’échelle du cluster. Du fait d’une affectation de cache plus stable, la cohérence entre les exécutions est améliorée et la quantité de données déplacées réduite durant les opérations de rééquilibrage.
Ajout de la prise en charge de l’évolution de schéma à from_avro avec connecteur de registre de schéma
Vous pouvez désormais permettre le redémarrage de vos pipelines lorsque des enregistrements ayant évolué sont détectés. Auparavant, si une évolution de schéma se produisait avec le connecteur from_avro, les nouvelles colonnes retournaient null. Consultez Lire et écrire des données Avro en streaming.
Collecte de statistiques multithread plus rapide
La collecte des statistiques est jusqu’à 10 fois plus rapide sur les petits clusters lors de l’exécution CONVERT TO DELTA ou du clonage à partir de tables Apache Iceberg et Parquet. Consultez Convertir en Delta Lake et Cloner des tables Parquet et Iceberg.
Filtres pushdown de la source Delta sur les fichiers Delta
Pour une meilleure utilisation, les filtres de partition sur les requêtes de streaming de tables Delta font désormais l’objet d’un pushdown vers Delta avant la limitation de débit.
Prise en charge des fonctions scalaires définies par l’utilisateur Scala sur des clusters partagés (préversion publique)
Vous pouvez désormais utiliser des fonctions Scala définies par l’utilisateur sur des clusters Unity Catalog configurés avec le mode d’accès partagé. Consultez Fonctions scalaires définies par l’utilisateur – Scala.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- fastjsonschema, versions 2.18.0 à 2.19.0
- filelock de la version 3.12.3 à la version 3.12.4
- googleapis-common-protos de la version 1.60.0 à la version 1.61.0
- Bibliothèques R mises à niveau :
- Bibliothèques Java mises à niveau :
Apache Spark
Databricks Runtime 14.2 comprend Apache Spark 3.5.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans Databricks Runtime 14.1 (EoS), ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-45592] [DBRRM-624] Rétablir « [SC-146977][sql] Problème de précision dans AQE avec InMemoryTableScanExec »
- [SPARK-45524] [DBRRM-625] Rétablir " [SC-146319][python][SQL] Prise en charge initiale f...
- [SPARK-45433] [DBRRM-621] Rétablir “[SC-145163][sql] Corriger l’inférence de schéma CSV/JSON...
- [SPARK-45592] [SC-146977][sql] Problème de correction dans AQE avec InMemoryTableScanExec
- [SPARK-45354] Rétablir « [SC-143991][sql] Résoudre les fonctions de bas en haut »
- [SPARK-45680] [TEST-ONLY][sasp-2347][CONNECT] Correction des tests
- [SPARK-45680] [CONNECT] Libération de session
- [SPARK-43380] [SC-146726][es-897115][SQL] Correction du ralentissement lors de la lecture Avro
-
[SPARK-45649] [SC-146742][sql] Unifier le cadre de préparation pour
OffsetWindowFunctionFrame - [SPARK-40820] [SC-146727][python][SQL] Création de StructType à partir de Json
- [SPARK-45620] [SC-146225][python] Corriger les API orientées utilisateur liées à Python UDTF pour utiliser camelCase
- [SPARK-45727] [SC-146978][ss] Supprimer la carte inutilisée dans la simulation de propagation de filigrane
- [SPARK-45723] [ SC-146890][python][CONNECT] Les méthodes du catalogue évitent la conversion de pandas
- [SPARK-45574] [SC-146106][sql] Ajouter la syntaxe :: comme un raccourci pour la conversion
-
[SPARK-45670] [SC-146725][core][3.5] SparkSubmit ne prend pas en charge
--total-executor-coreslors du déploiement sur K8s - [SPARK-45661] [SC-146594][sql][PYTHON] Ajouter toNullable dans StructType, MapType et ArrayType
- [SPARK-45524] [SC-146319][python][SQL] Prise en charge initiale de l’API de lecture de source de données Python
-
[SPARK-45542] [SC-145892][core] Remplacer
setSafeMode(HdfsConstants.SafeModeAction, boolean)parsetSafeMode(SafeModeAction, boolean) - [SPARK-45652] [SC-146641][sql] SPJ : Gérer les partitions d’entrée vides après le filtrage dynamique
- [SPARK-45454] [SC-144846][sql] Définir le propriétaire par défaut de la table sur current_user
-
[SPARK-45554] [SC-146875][python] Introduire un paramètre flexible dans
assertSchemaEqual - [SPARK-45242] [SC-143410][sql] Utiliser l’ID dataFrame pour valider sémantiquement CollectMetrics
- [SPARK-45674] [SC-146862][connect][PYTHON] Améliorer le message d’erreur pour les attributs dépendants de JVM sur Spark Connect.
- [SPARK-45646] [SC-146276][sql] Supprimer les variables de temps de codage dur avant Hive 2.0
- [SPARK-43380] [SC-146726][es-897115][SQL] Correction du ralentissement lors de la lecture Avro
- [SPARK-45545] [SC-146484][core] Passer les SSLOptions partout où nous créons un SparkTransportConf
- [SPARK-45641] [SC-146260][ui] Afficher l’heure de début de l’application sur AllJobsPage
- [SPARK-40154] [SC-146491][python][Docs] Niveau de stockage correct dans dataframe.cache docstring
- [SPARK-45626] [SC-146259][sql] Convertir _LEGACY_ERROR_TEMP_1055 en REQUIRES_SINGLE_PART_NAMESPACE
- [SPARK-45507] [SC-145900][sql] Correctif d’exactitude pour les sous-requêtes scalaires corrélées imbriquées avec les agrégats COUNT
- [SPARK-45619] [SC-146226][connect][PYTHON] Appliquer les métriques observées à l’objet Observation
- [SPARK-45588] [SC-145909][protobuf][CONNECT][minor] Amélioration scaladoc pour StreamingForeachBatchHelper
- [SPARK-45616] [SC-146120][core] Éviter ParVector, qui ne propage pas ThreadLocals ou SparkSession
- [SPARK-45604] [SC-146105][sql] Ajouter une vérification de LogicalType sur la conversion INT64 -> DateTime dans le lecteur vectorisé Parquet
- [SPARK-44649] [SC-145891][sql] Runtime Filter prend en charge la transmission d’expressions latérales de création équivalentes
- [SPARK-41674] [SC-128408][sql] Le filtre runtime doit prendre en charge le côté de jointure aléatoire à plusieurs niveaux comme côté création de filtre
- [SPARK-45547] [SC-146228][ml] Valider des vecteurs avec une fonction intégrée
- [SPARK-45558] [SC-145890][ss] Introduction d’un fichier de métadonnées pour l’opérateur avec état de streaming
- [SPARK-45618] [SC-146252][core] Supprimer BaseErrorHandler
- [SPARK-45638] [SC-146251][sql][Avro] Améliorer la couverture des tests de conversion décimale
- [SPARK-44837] [SC-146020][sql] Modifier le message d’erreur de ALTER TABLE colonne ALTER PARTITION
- [SPARK-45561] [SC-146264][sql] Ajouter des conversions appropriées pour TINYINT dans MySQLDialect
- [SPARK-45632] [SC-146255][sql] Le cache de table doit éviter les colonnes columnarToRow inutiles lors de l’activation d’AQE
- [SPARK-45569] [SC-145932][sql] Attribuer le nom à l’erreur _LEGACY_ERROR_TEMP_2152
- [SPARK-44784] [SC-141015][connect] Rendre les tests SBT hermétiques.
-
[SPARK-45452] [SC-144836][sql] Améliorer
InMemoryFileIndexpour utiliserFileSystem.listFilesl'API - [SPARK-44735] [SC-146186][sql] Ajouter un msg d’avertissement lors de l’insertion de colonnes portant le même nom par ligne qui ne correspondent pas
-
[SPARK-45351] [SC-144791][core] Modifier la
spark.shuffle.service.db.backendvaleur par défaut en ROCKSDB -
[SPARK-45553] [SC-145906][ps] Déprécier
assertPandasOnSparkEqual - [SPARK-45613] [SC-146022][core] Exposer DeterministicLevel comme API pour développeurs
-
[SPARK-45549] [SC-145895][core] Supprimer non utilisé
numExistingExecutorsdansCoarseGrainedSchedulerBackend - [SPARK-45609] [SC-146030][connect] Inclure SqlState dans le message proto SparkThrowable
- [SPARK-45595] [SC-146037] Exposition de sqlstate dans le message d’erreur
-
[SPARK-45628] [SC-146123][ml] Améliorer
vector_to_arraypour.mllib.linalg.SparseVector - [SPARK-45009] [SC-145884][sql][FOLLOW UP] Désactiver la décorrélation dans les conditions de jointure pour le test InSubquery AQE
- [SPARK-45576] [SC-145883][core] Supprimer les journaux de débogage inutiles dans ReloadingX509TrustManagerSuite
- [SPARK-45485] [ SC-145719][connect] Améliorations apportées à l’agent utilisateur : Utiliser SPARK_CONNECT_USER_AGENT variable env et inclure des attributs spécifiques à l’environnement
- [SPARK-45508] [SC-145513][core] Ajouter « –add-opens=java.base/jdk.internal.ref=ALL-UNNAMED » afin que Platform puisse accéder à Cleaner sur Java 9+
- [SPARK-45595] Rétablir « [SC-146037] Exposition de SQLSTATE dans le message d’erreur »
- [SPARK-45595] [SC-146037] Exposition de SQLSTATE dans le message d’erreur
- [SPARK-45112] Rétablir “[SC-143259][sql] Utiliser la fonction non résolue…”
-
[SPARK-45257] [SC-143411][core] Activer
spark.eventLog.compresspar défaut - [SPARK-45586] [SC-145899][sql] Réduire la latence du compilateur pour les plans avec des arborescences d’expressions volumineuses
- [SPARK-45517] [SC-145691][connect][14.x] Développer d’autres constructeurs d’exceptions pour prendre en charge les paramètres d’infrastructure d’erreur
- [SPARK-45581] [SC-145896] SQLSTATE rendu obligatoire.
- [SPARK-45427] [SC-145590][core] Ajouter des paramètres SSL RPC à SSLOptions et SparkTransportConf
-
[SPARK-45261] [SC-143357][core] Correctif
EventLogFileWriterspour gérernoneen tant que codec - [SPARK-45582] [SC-145897][ss] Assurez-vous que l’instance de magasin n’est pas utilisée après avoir appelé la validation dans l’agrégation en flux en mode sortie
- [SPARK-45562] [SC-145720][sc-144650][SQL] XML : Définir l’option « rowTag » comme option requise
-
[SPARK-45392] [SC-144362][core][SQL][ss] Remplacer
Class.newInstance()parClass.getDeclaredConstructor().newInstance() - [SPARK-45433] [SC-145163][sql] Correction de l’inférence de schéma CSV/JSON lorsque les horodatages ne correspondent pas au format d'horodatage spécifié
- [SPARK-45458] [SC-145011][sql] Convertir IllegalArgumentException en SparkIllegalArgumentException dans bitwiseExpressions
- [SPARK-45564] [SC-145735][sql] Simplifiez « DataFrameStatFunctions.bloomFilter » avec l’expression « BloomFilterAggregate »
- [SPARK-45566] [SC-145777][ps] Prise en charge des utilitaires de test similaires à Pandas pour l’API Pandas sur Spark
- [SPARK-45498] [SC-145509][core] Suivi : Ignorer l’achèvement des tâches de l’ancienne étape a...
- [SPARK-45483] [SC-145152][connect] Corriger les groupes de fonctions dans connect.functions
- [SPARK-45577] [SC-145781][python] Correction de UserDefinedPythonTableFunctionAnalyzeRunner pour passer des valeurs pliées à partir d’arguments nommés
- [SPARK-45009] [SC-138223][suivi] Désactiver la décorrélation dans les conditions de jointure pour AetherSQLQuerySuite
- [SPARK-45415] [SC-145344] Autorisation de la désactivation sélective de « fallocate »dans le magasin d’états RocksDB
- [SPARK-45500] [SC-145134][core][WEBUI] Afficher le nombre de processus terminés de manière anormale dans la MasterPage
- [SPARK-44120] [SC-144349][python] Prise en charge de Python 3.12
- [SPARK-45439] [SC-145589][sql][UI] Réduire l’utilisation de la mémoire de LiveStageMetrics.accumIdsToMetricType
- [SPARK-45565] [SC-145717][ui] Boucle JSON.stringify et JSON.parse inutiles pour la liste des tâches sur les détails de l’étape
- [SPARK-45567] [SC-145718][connect] Supprimer l'instruction si redondante dans org.apache.spark.sql.connect.execution.ExecuteGrpcResponseSender#run
- [SPARK-45112] [SC-143259][sql] Utiliser une résolution basée sur 'UnresolvedFunction' dans les fonctions du jeu de données SQL
- [SPARK-45486] [SASP-2457][sc-145612][CONNECT] Rendre la requête add_artifact idempotente
- [SPARK-44913] [SC-144326][sql] DS V2 prend en charge l'intégration d'une UDF V2 qui possède une méthode magique
- [SPARK-45538] [SC-145635][python][CONNECT]pyspark connect overwrite_partitions bogue
- [SPARK-45491] [SC-145622] Ajout de SQLSTATES manquant 2/2
- [SPARK-45009] [SC-145620][sc-138223][SQL] Décorréler les sous-requêtes de prédicat dans la condition de jointure
- [SPARK-45377] [SC-144377][core] Gérer InputStream dans NettyLogger
- [SPARK-45248] [SC-143759][core]Définir le délai d’expiration du serveur d’interface utilisateur Spark
- [SPARK-44594] [SC-145611][ss] Supprimer le paramètre de méthode redondante dans le connecteur kafka
- [SPARK-45539] [SC-145621][ss] Ajouter une assertion et un enregistrement pour indiquer que la définition du watermark est requise pour les requêtes d'agrégation de streaming en mode append
-
[SPARK-44262] [SC-145639][sql] Ajouter
dropTableetgetInsertStatementà JdbcDialect - [SPARK-45516] [SC-145480][connect] Inclure QueryContext dans le message proto de SparkThrowable
- [SPARK-45310] [SC-145127][core] L’état du bloc aléatoire de rapport doit respecter le service aléatoire lors de la désactivation de la migration
-
[SPARK-45521] [SC-145487][ml] Éviter le re-calcul de nnz dans
VectorAssembler - [SPARK-45418] [SC-145485][sql][PYTHON][connect] Modifier l’alias de colonne current_database() en current_schema()
-
[SPARK-45116] [SC-145142][sql] Ajouter un commentaire pour le paramètre de JdbcDialect
createTable - [SPARK-45495][SC-145529][core] Prise en charge du profil de ressource de tâche de niveau phase pour le cluster k8s lorsque l’allocation dynamique est désactivée
- [SPARK-45487] [SC-145559] Correction des SQLSTATE et des erreurs temporaires
- [SPARK-45505] [SC-145550][python] Refactor analyzeInPython pour le rendre réutilisable
- [SPARK-45132] [SC-145425][sql] Correction IDENTIFIER pour l’appel de fonction
- [SPARK-45213] [SC-145020][sql] Attribuer le nom à l’erreur _LEGACY_ERROR_TEMP_2151
- [SPARK-45416] [SC-145126][connect] Vérification de la cohérence des résultats de Arrow
[SPARK-45163] [SC-143386][sql] Fusionner UNSUPPORTED_VIEW_OPERATION & UNSUPPORTED_TABLE_OPERATION & résoudre certains problèmes.- [SPARK-45421] [SC-144814][sql] Catch AnalysisException pour InlineCTE
-
[SPARK-43664] [SC-145404][connect][PS] Déclencher une exception pour
ps.sqll’objet Pandas-on-Spark sur Spark Connect. - [SPARK-45402] [SC-145371][sql][PYTHON] Ajouter l’API UDTF pour les méthodes « eval » et « terminate » pour consommer le résultat précédent « analyser »
- [SPARK-36112] [SC-67885] [SQL] Prise en charge des sous-requêtes EXISTS et IN corrélées avec l’infrastructure DecorrelateInnerQuery
- [SPARK-45383] [SC-144929][sql] Correction du message d’erreur pour les déplacements dans le temps avec une table non existante
- [SPARK-43254] [SC-143318][sql] Attribuer un nom à l’erreur _LEGACY_ERROR_TEMP_2018
- [SPARK-45204] [SC-145167][connect] Ajouter un ExecuteHolder facultatif à SparkConnectPlanner
- [SPARK-45451] [SC-145144][sql] Rendre le niveau de stockage par défaut du cache de jeu de données configurable
- [SPARK-45192] [SC-143194][ui] Corriger le paramètre lineInterpolate en retard pour l'arête de graphviz
-
[SPARK-45467] [SC-145146][core] Remplacer
Proxy.getProxyClass()parProxy.newProxyInstance().getClass - [SPARK-45397] [SC-145139][ml][CONNECT] Ajouter un transformateur de fonctionnalités pour l'assemblage de tableaux
- [SPARK-44855] [SC-145226][connect] Petits ajustements pour attacher ExecuteGrpcResponseSender à ExecuteResponseObserver
-
[SPARK-45398] [SC-144796][sql] Ajouter
ESCAPEdanssql()de l'expressionLike - [SPARK-45494] [SC-145129][core][PYTHON] Introduire des fonctions utilitaires pour lire/écrire un tableau d’octets dans PythonWorkerUtils.
- [SPARK-45464] [SC-145125][core] Correction de la build de distribution network-yarn
- [SPARK-45461] [SC-144851][core][SQL][mllib] Introduire un mappeur pour StorageLevel
- [SPARK-45450] [SC-145009][python] Correction des imports selon PEP8 : pyspark.pandas et pyspark (core)
- [SPARK-45475] [SC-145018][sql] Utilise DataFrame.foreachPartition au lieu de RDD.foreachPartition dans JdbcUtils
- [SPARK-45271] [SC-143778][sql] Fusionner _LEGACY_ERROR_TEMP_1113 dans TABLE_OPERATION & supprimer une méthode inutilisée dans QueryCompilationErrors
- [SPARK-45449] [SC-145013][sql] Problème d’invalidation du cache avec la table JDBC
- [SPARK-45473] [SC-145017][sql] Correction d’un message d’erreur incorrect pour RoundBase
- [SPARK-43299] [SC-145022][ss][CONNECT] Convertir StreamingQueryException dans le client Scala
- [SPARK-45474] [SC-145014][core][WEBUI] Prise en charge du filtrage de niveau supérieur dans l’API JSON MasterPage
- [SPARK-45205] [SC-145012][sql] CommandResultExec pour remplacer les méthodes d’itérateur pour éviter de déclencher plusieurs travaux.
- [SPARK-45472] [SC-145004][ss] RocksDB State Store n’a pas besoin de vérifier l’existence du chemin de point de contrôle
- [SPARK-45470] [SC-145010][sql] Éviter de coller la valeur de chaîne du type de compression hive orc
- [SPARK-45448] [SC-144829][python] Correction des importations en fonction de PEP8 : pyspark.testing, pyspark.mllib, pyspark.resource et pyspark.streaming
- [SPARK-45446] [SC-144828][python] Correction des importations en fonction de PEP8 : pyspark.errors et pyspark.ml
- [SPARK-45239] [SC-144832][connect] Réduire la taille par défaut de spark.connect.jvmStacktrace.maxSize
- [SPARK-45436] [SC-144831][python][CONNECT] Les méthodes dataFrame vérifient la même session
- [SPARK-45413] [SC-144847][core] Ajouter un avertissement pour préparer la suppression de la prise en charge de LevelDB
-
[SPARK-45462] [SC-144848][core][WEBUI] Afficher
DurationdansApplicationPage - [SPARK-44527] [SC-144855][sql] Remplacer ScalarSubquery par null si son maxRows est 0
-
[SPARK-45401] [SC-144854][python] Ajouter une nouvelle méthode
cleanupdans l’interface UDTF -
[SPARK-43704] [SC-144849][connect][PS] Support
MultiIndexpourto_series() - [SPARK-45424] [SC-144888][sql] Fix TimestampFormatter retourne les résultats facultatifs de l’analyse lorsque seul le préfixe correspond
- [SPARK-45441] [SC-144833][python] Introduction de fonctions utilitaires supplémentaires pour PythonWorkerUtils
-
[SPARK-45412] [SC-144803][python][CONNECT] Valider le plan et la session dans
DataFrame.__init__ - [SPARK-45408] [SC-144810][core] Ajouter des paramètres SSL RPC à TransportConf
-
[SPARK-45432] [SC-144818][core] Supprimer le constructeur Hadoop-2
LocatedFileStatusdéconseillé - [SPARK-45434] [SC-144819][ml][CONNECT] LogisticRegression vérifie les étiquettes d’entraînement
- [SPARK-45420] [SC-144808][sql][PYTHON][connect] Ajouter DataType.fromDDL à PySpark
-
[SPARK-45406] [SC-144793][python][CONNECT] Supprimer
schemadu constructeur DataFrame -
[SPARK-45404] [SC-144799][core] Prise en charge
AWS_ENDPOINT_URLde la variable env - [SPARK-43620] [SC-144792][connect][PS] Correction des API Pandas dépend des fonctionnalités non prises en charge
- [SPARK-45354] [SC-143991][sql] Résoudre les fonctions de bas en haut
- [SPARK-45394] [SASP-1480][sc-144712][PYTHON][connect] Ajouter des nouvelles tentatives pour l’API d’artefact. Amélioration de la gestion des erreurs (suivi de [SPARK-45093]).
- [SPARK-45120] [SC-142780][spark-45150][UI] Mettre à niveau d3 de la version 3 à la version 7 (v7.8.5) et appliquer les modifications de l'API dans l'interface utilisateur.
- [SPARK-44838] [SC-143983][sql] amélioration de la fonction raise_error
- [SPARK-45312] [SC-143754][sql][UI] Activer/désactiver l'affichage du plan svg sur la page d'exécution
- [SPARK-45378] [SC-144448][core] Ajouter convertToNettyForSsl à ManagedBuffer
- [SPARK-44762] [SC-144338][connect][CORE] Documentation pour SparkConnect.addJobTag et Connect SparkSession.addTag
- [SPARK-45383] Gestion appropriée des opérations RelationTimeTravel non résolues
- [SPARK-45347] [SC-144512][sql][CONNECT] Inclure SparkThrowable dans FetchErrorDetailsResponse
- [SPARK-45012] [SC-141512][sql] CheckAnalysis devrait projeter un plan intégré dans une AnalysisException
-
[SPARK-45359] [SC-144336][python][CONNECT]
DataFrame.{columns, colRegex, explain}doit déclencher des exceptions lorsque le plan n’est pas valide - [SPARK-45227] [SC-144233][core] Correction d’un problème subtil de sécurité des threads avec CoarseGrainedExecutorBackend
- [SPARK-45266] [SC-144171][python] Refactoriser la règle d’analyseur ResolveFunctions pour retarder l’utilisation de la jointure latérale lorsque des arguments de table sont utilisés
- [SPARK-45266] Rétablir « [SC-144171][python] Refactoriser la règle d’analyseur ResolveFunctions pour retarder la réalisation d'une jointure latérale lorsque les arguments de table sont utilisés »
- [SPARK-45371] [SC-144389][connect] Résoudre les problèmes d’ombrage dans le client Scala Spark Connect
- [SPARK-45057] [SC-144214][core] Évitez d’acquérir un verrou de lecture lorsque keepReadLock a la valeur false
-
[SPARK-45385] [SC-144357][sql] Déprécier
spark.sql.parser.escapedStringLiterals -
[SPARK-45340] [SC-143917][sql] Supprimer la configuration SQL
spark.sql.hive.verifyPartitionPath - [SPARK-45266] [SC-144171][python] Refactoriser la règle d’analyseur ResolveFunctions pour retarder l’utilisation de la jointure latérale lorsque des arguments de table sont utilisés
- [SPARK-45362] [SC-144198][python] Projeter les expressions PARTITION BY avant que la méthode 'eval' du UDTF Python ne les consomme.
- [SPARK-45346] [SC-143925][sql] L’inférence de schéma pour Parquet doit respecter le paramètre de sensibilité à la casse lors de la fusion du schéma.
-
[SPARK-45341] [SC-143933][core] Corrigez le niveau de titre dans les commentaires de KVStore.java pour exécuter
sbt doccorrectement avec Java 17 - [SPARK-45334] [SC-143914][sql] Supprimer le commentaire trompeur dans parquetSchemaConverter
- Refactorer [SPARK-45337] [SC-143932][core] pour supprimer la vérification de Scala 2.12
- [SPARK-45329] [SC-143918][python][CONNECT] Les méthodes DataFrame ignorent la conversion vers pandas
- [SPARK-43662] [SC-143923][ps][CONNECT] Soutenir "merge_asof" dans Spark Connect
- [SPARK-44126] [SC-143751][core] Le nombre d’échecs de migration Shuffle ne doit pas augmenter lorsque l’exécuteur cible est décommissionné
-
[SPARK-44550] [SC-119768][sql] Activer les correctifs d’exactitude pour
null IN (empty list)sous ANSI -
[SPARK-45316] [SC-143783][core][SQL] Ajouter de nouveaux paramètres
ignoreCorruptFiles/ignoreMissingFilesà etHadoopRDDNewHadoopRDD - [SPARK-45093] [SC-143414][connect][PYTHON] Rapport d’erreurs pour la requête addArtifacts
- [SPARK-44756] [SC-143787][core] Exécuteur se bloque lorsque RetryingBlockTransferor ne parvient pas à lancer une nouvelle tentative
- [SPARK-45333] [SC-143768][core] Correction d’une erreur d’unité liée à spark.eventLog.buffer.kb
- [SPARK-45317] [SC-143750][sql][CONNECT] Gérer le nom de fichier null dans la trace de la pile des exceptions
- [SPARK-45191] [SC-143407][sql] InMemoryTableScanExec simpleStringWithNodeId ajoute des informations columnar
-
[SPARK-45235] [SC-143314][connect][PYTHON] Prise en charge des arguments de type carte et de type tableau par
sql() - [SPARK-45138] [SC-143309][ss] Définir une nouvelle classe d’erreur et l’appliquer lors de l’échec du point de contrôle à DFS
- [SPARK-45297] [SC-143644][sql] Supprimer la solution de contournement pour dateformatter ajoutée dans SPARK-31827
- [SPARK-44345] [SC-143593][core] Abaisser le niveau de journalisation à WARN si la migration du mélange est activée
- [SPARK-44463] [SC-143251][ss][CONNECT] Améliorer la gestion des erreurs pour le worker Python de streaming Connect
- [SPARK-45207] [SC-143603][sql][CONNECT] Implémenter l’amélioration des erreurs pour le client Scala
- [SPARK-45240] [SC-143602][sql][CONNECT] Implémenter l’enrichissement d’erreurs pour le client Python
- [SPARK-45216] [SC-143288][sql] Correction des API de jeu de données amorçage non déterministes
- [SPARK-45251] [SC-143419][connect] Ajouter client_type champ pour FetchErrorDetails
-
[SPARK-45137] [SC-143001][connect] Prise en charge des paramètres de type map/array dans les paramètres paramétrés
sql() -
[SPARK-45224] [SC-143257][python] Ajouter des exemples avec des listes et des tableaux en tant que paramètres de
sql() - [SPARK-44622] [SC-143205][sql][CONNECT] Implémenter FetchErrorDetails RPC
- [SPARK-45178] [SC-136089] Recours à l’exécution d’un lot unique pour Trigger.AvailableNow avec des sources non prises en charge au lieu d’utiliser un wrapper
- [SPARK-44823] [14.x][sc-142979][PYTHON] Mettre à jour Black vers 23.9.1 et corriger les vérifications erronées
- [SPARK-45078] [SC-142954][sql] Correction du problème avec ImplicitCastInputTypes qui ne fonctionne pas
- [SPARK-44579] [SC-138428][sql] Support de l'interruption en cas d'annulation dans SQLExecution
-
[SPARK-45252] [SC-143371][core] Échapper les symboles supérieur/inférieur dans les commentaires pour garantir l'exécution
sbt docréussie - [SPARK-45189] [SC-142973][sql] La création de UnresolvedRelation à partir de IdentificateurDeTable doit inclure le champ de catalogue.
- [SPARK-45229] [SC-143254][core][UI] Afficher le nombre de pilotes en attente dans l’état SOUMIS dans MasterPage
-
[SPARK-43453] Rétablir « [SC-143135][ps] Ignorer
namesdeMultiIndexlorsqueaxis=1pourconcat»
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Veuillez télécharger les pilotes récemment publiés et mettre à niveau (téléchargez ODBC, téléchargez JDBC).
Consultez les mises à jour de maintenance databricks Runtime 14.2.
Environnement du système
- Système d’exploitation : Ubuntu 22.04.3 LTS
- Java : Zulu 8.72.0.17-CA-linux64
- Scala : 2.12.15
- Python : 3.10.12
- R : 4.3.1
- Delta Lake : 3.0.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.0.5 | attributs | 22.1.0 | appel de retour | 0.2.0 |
| bellesoupe4 | 4.11.1 | noir | 22.6.0 | blanchir | 4.1.0 |
| clignotant | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
| certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | cliquez | 8.0.4 | Communication | 0.1.2 |
| contourpy | 1.0.5 | chiffrement | 39.0.1 | cycliste | 0.11.0 |
| Cython | 0.29.32 | Kit de développement logiciel Databricks (SDK) | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | décorateur | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.7 | Conversion de docstring en markdown | 0.11 | points d’entrée | 0,4 |
| en cours d’exécution | 0.8.3 | aperçu des facettes | 1.1.1 | validation rapide des schémas JSON (fastjsonschema) | 2.19.0 |
| verrou de fichier | 3.12.4 | outils de police | 4.25.0 | googleapis-common-protos | 1.61.0 |
| grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
| ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets (un outil de widgets interactifs pour Python) | 7.7.2 |
| Jedi | 0.18.1 | Jeepney (véhicule de transport public philippin) | 0.7.1 | Jinja2 | 3.1.2 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
| jupyter-client | 7.3.4 | serveur Jupyter | 1.23.4 | jupyter_core | 5.2.0 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 | porte-clés | 23.5.0 |
| kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
| matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| désaccorder | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
| nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
| nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
| carnet de notes | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
| oauthlib | 3.2.0 | empaquetage | 22.0 | Pandas | 1.5.3 |
| pandocfilters | 1.5.0 | parso | 0.8.3 | spécification de chemin | 0.10.3 |
| dupe | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Oreiller | 9.4.0 | pépin | 22.3.1 | platformdirs | 2.5.2 |
| tracé | 5.9.0 | enfiché | 1.0.0 | prometheus-client | 0.14.1 |
| prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pyarrow-hotfix | 0,4 | pycparser | 2.21 |
| pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
| python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
| pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
| requêtes | 2.28.1 | corde | 1.7.0 | s3transfer | 0.6.2 |
| scikit-learn | 1.1.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.10.0 | seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
| Six | 1.16.0 | sniffio | 1.2.0 | Soupsieve | 2.3.2.post1 |
| ssh-import-id | 5.11 | données en pile | 0.2.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.13.5 |
| ténacité | 8.1.0 | terminé | 0.17.1 | threadpoolctl | 2.2.0 |
| tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornade | 6.1 | Traitlets | 5.7.1 | typing_extensions | 4.4.0 |
| ujson | 5.4.0 | mises à niveau automatiques | 0.1 | urllib3 | 1.26.14 |
| virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| webencodings | 0.5.1 | websocket-client | 0.58.0 | c’est quoi le patch | 1.0.2 |
| roue | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
| zipp | 1.0.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit le 10-02-2023.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 12.0.1 | Askpass | 1.1 | assertthat | 0.2.1 |
| rétroportage | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| morceau | 4.0.5 | bit 64 | 4.0.5 | objet BLOB | 1.2.4 |
| botte | 1.3-28 | brasser | 1,0-8 | brio | 1.1.3 |
| balai | 1.0.5 | bslib | 0.5.0 | cachemire | 1.0.8 |
| appelant | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
| Chron | 2.3-61 | classe | 7.3-22 | Cli | 3.6.1 |
| clipr | 0.8.0 | horloge | 0.7.0 | Grappe | 2.1.4 |
| codetools | 0.2-19 | espace colorimétrique | 2.1-0 | commonmark | 1.9.0 |
| compilateur | 4.3.1 | config | 0.3.1 | Conflit | 1.2.0 |
| cpp11 | 0.4.4 | crayon | 1.5.2 | Références | 1.3.2 |
| friser | 5.0.1 | data.table | 1.14.8 | jeux de données | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Desc | 1.4.2 |
| devtools | 2.4.5 | diagramme | 1.6.5 | diffobj | 0.3.5 |
| digérer | 0.6.33 | éclairage vers le bas | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | ellipse | 0.3.2 |
| évaluer | 0,21 | fans | 1.0.4 | couleurs | 2.1.1 |
| carte rapide | 1.1.1 | fontawesome | 0.5.1 | condamnés | 1.0.0 |
| foreach | 1.5.2 | étranger | 0.8-82 | forger | 0.2.0 |
| fs | 1.6.2 | futur | 1.33.0 | future.apply | 1.11.0 |
| se gargariser | 1.5.1 | produits génériques | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | globales | 0.16.2 | colle | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| graphisme | 4.3.1 | grDevices | 4.3.1 | grille | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
| casque de sécurité | 1.3.0 | havre | 2.5.3 | supérieur | 0.10 |
| hms | 1.1.3 | outils HTML | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| isoband | 0.2.7 | itérateurs | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
| étiquetage | 0.4.2 | plus tard | 1.3.1 | treillis | 0.21-8 |
| lave | 1.7.2.1 | cycle de vie | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.2 | magrittr | 2.0.3 | Markdown | 1.7 |
| MASSE | 7.3-60 | Matrice | 1.5-4.1 | mémorisation | 2.0.1 |
| méthodes | 4.3.1 | mgcv | 1.8-42 | mime | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallèle | 4.3.1 |
| parallèlement | 1.36.0 | pilier | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.8 | éloge | 1.0.0 |
| joliesunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | progrès | 1.2.2 |
| progresseur | 0.13.0 | promesses | 1.2.0.1 | proto | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.7.5 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.4 | readxl | 1.4.3 | recettes | 1.0.6 |
| match retour | 1.0.1 | revanche2 | 2.1.2 | Télécommandes | 2.4.2 |
| exemple reproductible | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
| rmarkdown | 2,23 | RODBC | 1,3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.6 | écailles | 1.2.1 |
| sélecteur | 0,4-2 | informations sur la session | 1.2.2 | forme | 1.4.6 |
| brillant | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
| spatial | 7.3-15 | Cannelures | 4.3.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiques | 4.3.1 | statistiques4 | 4.3.1 |
| chaine | 1.7.12 | stringr | 1.5.0 | survie | 3.5-5 |
| sys | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
| testthat | 3.1.10 | mise en forme de texte | 0.3.6 | tibble | 3.2.1 |
| tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
| changement d'heure | 0.2.0 | date-heure | 4022.108 | tinytex | 0,45 |
| outils | 4.3.1 | tzdb | 0.4.0 | vérificateur d'URL | 1.0.1 |
| Utilise ça | 2.2.2 | utf8 | 1.2.3 | utils | 4.3.1 |
| Identifiant unique universel (UUID) | 1.1:0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
| Vroom | 1.6.3 | Waldo | 0.5.1 | vibrisse | 0.4.1 |
| flétrir | 2.5.0 | xfun | 0.39 | xml2 | 1.3.5 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
| fermeture éclair | 2.3.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | Outil de support aws-java-sdk | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flux | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0,25 |
| io.delta | delta-sharing-client_2.12 | 1.0.2 |
| io.dropwizard.metrics | annotation des métriques | 4.2.19 |
| io.dropwizard.metrics | métriques de base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | servlets de métriques | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | transport-netty-natif-commun-unix | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collecteur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant-launcher | 1.9.16 |
| org.apache.arrow | format de flèche | 12.0.1 |
| org.apache.arrow | arrow-memory-core | 12.0.1 |
| org.apache.arrow | arrow-memory-netty | 12.0.1 |
| org.apache.arrow | vecteur-flèche | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.10.0 |
| org.apache.curator | curateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur-recettes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.9 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | annotations du public | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.52.v20230823 |
| org.eclipse.jetty | serveur jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-commun | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Cales | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |