Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 13.2 optimisé par Apache Spark 3.4.0.
Databricks a publié cette version en juillet 2023.
Améliorations et nouvelles fonctionnalités
- Points de contrôle du journal des modifications pour le magasin d’état RocksDB
- Fiabilité améliorée pour VACUUM avec clone superficiel dans Unity Catalog.
- Prise en charge des fonctions UDF de Python dans SQL
- Delta Lake UniForm pour Apache Iceberg est disponible en préversion publique
- Delta Lake Liquid Clustering est en préversion publique
- Prise en charge de l’archivage dans Azure Databricks
- Clause IDENTIFIER prise en charge
- Prise en charge d’Unity Catalog pour les fonctions définies par l’utilisateur (UDF) Python et Pandas
- Partager des schémas à l’aide du partage Delta
- Correctifs de bogues
Points de contrôle du journal des modifications pour le magasin d’état RocksDB
Vous pouvez activer le point de contrôle du journal des modifications pour réduire la durée des points de contrôle et la latence de bout en bout pour les charges de travail de flux structuré. Databricks recommande d’activer le point de contrôle du journal des modifications pour toutes les requêtes avec état Flux structuré. Voir Activer le point de contrôle du journal des modifications.
Fiabilité renforcée pour VACUUM grâce à l'utilisation d'un clone superficiel dans Unity Catalog.
Lorsque vous utilisez des tables gérées Unity Catalog pour la source et la cible d’une opération de clonage superficiel, Unity Catalog gère les fichiers de données sous-jacents pour améliorer la fiabilité de la source et de la cible de l’opération de clonage. L’exécution de VACUUM sur la source d’un clone superficiel n’interrompt pas la table clonée. Consultez Clones superficiels vides et Unity Catalog.
Prise en charge des fonctions UDF de Python dans SQL
Vous pouvez maintenant déclarer des fonctions définies par l’utilisateur à l’aide de Python dans des instructions SQL CREATE FUNCTION dans Unity Catalog. Consultez les Fonctions définies par l’utilisateur (UDF) dans Unity Catalog.
Delta Lake UniForm pour Apache Iceberg est disponible en préversion publique
Delta Lake Universal Format (UniForm) vous permet de lire des tables Delta avec des clients Apache Iceberg. Consultez Lire les tables Delta avec les clients Iceberg.
Le clustering liquide Delta Lake est en préversion publique
Le clustering liquide Delta Lake remplace le partitionnement des tables et ZORDER pour simplifier les décisions de disposition des données et optimiser les performances des requêtes. Voir Utilisation du clustering liquide pour les tables.
Prise en charge de l’archivage dans Azure Databricks
La prise en charge de l’archivage dans Azure Databricks introduit une collection de fonctionnalités qui vous permettent d’utiliser des stratégies de cycle de vie basées sur le cloud sur le stockage d’objets cloud contenant des tables Delta pour transférer des fichiers vers les niveaux de stockage d’archivage. Si vous souhaitez en savoir plus, veuillez consulter la rubrique Prise en charge de l’archivage dans Azure Databricks.
Clause IDENTIFIER prise en charge
Utilisez IDENTIFIER(:mytable) pour paramétrer en toute sécurité les noms de tableaux, de colonnes, de fonctions et de schémas dans de nombreuses instructions SQL.
Prise en charge d’Unity Catalog pour les fonctions définies par l’utilisateur (UDF) Python et Pandas
Sur Databricks Runtime 13.2 et versions ultérieures, les fonctions définies par l’utilisateur (UDF) écrites en Python sont prises en charge sur les clusters qui utilisent le mode d’accès standard (anciennement mode d’accès partagé) dans un espace de travail avec catalogue Unity. Cela inclut les fonctions définies par l’utilisateur Python et Pandas. Si vous souhaitez en savoir plus sur les fonctions définies par l’utilisateur en langage Python, veuillez consulter la rubrique Fonctions scalaires définies par l’utilisateur - Python.
Partager des schémas à l’aide du partage Delta
Databricks Runtime 13.2 ajoute la capacité d’utiliser ALTER SHARE <share-name> ADD SCHEMA <schema-name> pour partager un schéma entier à l’aid du partage de données, en donnant au destinataire l'accès à toutes les tables et vues du schéma au moment où vous le partagez, ainsi qu'à toutes les tables et vues ajoutées au schéma à l’avenir. Consultez Ajouter des schémas à un partage et ALTER SHARE.
Résolution des bogues
- Nous avons corrigé un bogue avec le lecteur JSON, où les enregistrements étaient analysés en
PERMISSIVEmode sifailOnUnknownFieldsmodeétait activé. Les enregistrements sont maintenant déposés en modeDROPMALFORMEDparserou sont écrits versbadRecordsPathsi l’une de ces options est définie.FAILFASTlève une erreur si un type de colonne ne correspond pas.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- nodeenv de la version 1.7.0 à la version 1.8.0
- Bibliothèques R mises à niveau :
- Bibliothèques Java mises à niveau :
- io.delta.delta-sharing-spark_2.12 de la version 0.6.7 vers la version 0.7.0
Apache Spark
Databricks Runtime 13.2 comprend Apache Spark 3.4.0. Cette version inclut tous les correctifs et améliorations Spark figurant dans Databricks Runtime 13.1 (EoS) ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-42750] [SC-133452][dbrrm-273] Prise en charge de l’instruction Insert By Name
- [SPARK-43133] [SC-133728] Prise en charge de Scala Client DataStreamWriter Foreach
-
[SPARK-43663] [SC-134135][connect][PS] Enable
SeriesParityTests.test_compare -
[SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Correction
(NullOps|NumOps).(eq|ne)pour Spark Connect. - [SPARK-44021] [SC-134109][sql] Ajouter spark.sql.files.maxPartitionNum
-
[SPARK-43910] [SC-132936][sql] Retirer
__auto_generated_subquery_namedes identifiants dans les erreurs - [SPARK-43976] [SC-133375][core] Gérer le cas où modifiedConfigs n’existe pas dans les journaux des événements
- [SPARK-32559] [SC-133992][sql] Correction de la logique de découpage n’a pas géré correctement les caractères de contrôle ASCII
- [SPARK-43421] [SC-132930][ss] Implémenter le 'checkpointing' basé sur le journal des modifications pour le RocksDB State Store Provider
- [SPARK-43594] [SC-133851][sql] Ajout de LocalDateTime à anyToMicros
- [SPARK-43884] [SC-133867] Marqueurs de paramètres dans DDL
- [SPARK-43398] [SC-133894][core] Le délai d'expiration de l’exécuteur doit être le maximum entre le délai d’inactivité de shuffle et le délai d’attente RDD.
-
[SPARK-43610] [SC-133892][connect][PS] Activer
InternalFrame.attach_distributed_columndans Spark Connect. - [SPARK-43971] [SC-133826][connect][PYTHON] Prise en charge du createDataFrame de Python pour le traitement en flux.
- [SPARK-44006] [SC-133652][connect][PYTHON] Prise en charge des artéfacts du cache
-
[SPARK-43790] [SC-133468][python][CONNECT][ml] Add
copyFromLocalToFsAPI - [SPARK-43921] [SC-133461][protobuf] Générer des fichiers de descripteur Protobuf au moment de la génération
- [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implémenter la prise en charge des fichiers dans SparkSession.addArtifacts
- [SPARK-44010] [SC-133744][python][SS][mineur] correction du type de rowsPerSecond dans StreamingQueryProgress en Python
- [SPARK-43768] [SC-132398][python][CONNECT] Prise en charge de la gestion des dépendances Python dans Python Spark Connect
- [SPARK-43979] [13.X] Rétablir « [SC-133456][sql] CollectedMetrics doit être traité comme étant identique pour l'auto-jointure »
- [SPARK-42290] [SC-133696][sql] Correction de l'erreur OOM qui ne peut pas être signalée lorsque AQE est activé.
- [SPARK-43943] [SC-133648][sql][PYTHON][connect] Ajouter des fonctions mathématiques SQL à Scala et Python
- [SPARK-43747] [SC-132047][python][CONNECT] Implémenter la prise en charge pyfile dans SparkSession.addArtifacts
-
[SPARK-43700] [SC-133726][spark-43701][CONNECT][ps] Activer
TimedeltaOps.(sub|rsub)avec Spark Connect -
[SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Activer le test de parité :
test_line_plot,test_pie_plot. - [SPARK-43867] [SC-132895][sql] Améliorer les candidats suggérés pour l’attribut non résolu
- [SPARK-43901] [SC-133454][sql] Avro permet de prendre en charge le type décimal personnalisé basé sur Long
- [SPARK-43267] [SC-133024][jdbc] Traiter la colonne définie par l'utilisateur inconnue de postgres comme une chaîne dans un tableau
- [SPARK-43935] [SC-133637][sql][PYTHON][connect] Ajouter des fonctions xpath_* à Scala et Python
- [SPARK-43916] [SC-133647][sql][PYTHON][connect] Ajouter la fonctionnalité de centile à l’API Scala et Python
- [SPARK-43717] [SC-133455][connect] Le client Scala reduce agg ne peut pas gérer les partitions nulles pour les entrées primitives Scala
-
[SPARK-43984] [SC-133469][sql][PROTOBUF] Changer pour utiliser
foreachlorsquemapne produit pas de résultats - [SPARK-43612] [SC-132011][connect][PYTHON] Implémenter SparkSession.addArtifact(s) dans le client Python
- [SPARK-44002] [SC-133606][connect] Correction du gestionnaire d’état des artefacts
- [SPARK-43933] [SC-133470][sql][PYTHON][connect] Ajouter des fonctions d’agrégation de régression linéaire à Scala et Python
- [SPARK-43920] [SC-133614][sql][CONNECT] Créer un module sql/api
- [SPARK-43979] [SC-133456][sql] CollectedMetrics doit être traité comme le même pour la jointure automatique
-
[SPARK-43977] [SC-133373][connect] Correction du résultat inattendu de la vérification
dev/connect-jvm-client-mima-check - [SPARK-43985] [SC-133412][protobuf] spark protobuf : corriger l'erreur des énumérations en tant qu'entiers
- [SPARK-43930] [SC-133406][sql][PYTHON][connect] Ajouter des fonctions unix_* à Scala et Python
- [SPARK-43807] [SC-132545][sql] Migrer _LEGACY_ERROR_TEMP_1269 vers PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [SC-133123][sql] Correction du bogue qui n'affiche pas le SQL de la colonne pour Percentile[Cont|Disc]
- [SPARK-42626] [SC-133248][connect] Ajouter un itérateur destructeur pour SparkResult
- [SPARK-43333] [SC-132898][sql] Autoriser Avro à convertir le type union en SQL avec le nom de champ constant selon le type
-
[SPARK-43953] [SC-133134][connect] Supprimer
pass - [SPARK-43970] [SC-133403][python][CONNECT] Cacher les méthodes de trame de données non prises en charge dans la saisie semi-automatique
- [SPARK-43973] [SC-133272][ss][UI] Structured Streaming UI doit afficher correctement les requêtes ayant échoué
- [SPARK-42577] [SC-125445][core] Ajouter une limitation maximale des tentatives pour les phases afin d’éviter les nouvelles tentatives infinies potentielles
-
[SPARK-43841] [SC-132699][sql] Gérer les attributs candidats sans préfixe dans
StringUtils#orderSuggestedIdentifiersBySimilarity - [SPARK-41497] [SC-124795][core][Suivi] Modifier la version de support de la configuration à 3.5.0
- [SPARK-37942] [SC-130983][core][SQL] Migrer des classes d’erreur
-
[SPARK-43898] [SC-132926][core] Enregistrement automatique de
immutable.ArraySeq$ofRefversKryoSerializerpour Scala 2.13 - [SPARK-43775] [SC-132891][sql] DataSource V2 : Autoriser la représentation des mises à jour sous forme de suppressions et d’insertions
- [SPARK-43817] [SC-132662][spark-43702][PYTHON] Prise en charge de UserDefinedType dans createDataFrame à partir de pandas DataFrame et toPandas
- [SPARK-43418] [SC-132753][sc-130685][CONNECT] Ajouter SparkSession.Builder.getOrCreate
- [SPARK-43549] [SC-132383][sql] Convertir _LEGACY_ERROR_TEMP_0036 en INVALID_SQL_SYNTAX.ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [SC-124644][core] Correction du sous-dénombrement des accumulateurs dans le cas d'une tâche de nouvelle tentative avec le cache RDD
-
[SPARK-43892] [SC-133006][python] Ajouter la fonctionnalité d'auto-complétion dans
df[|]pyspark.sql.dataframe.DataFrame - [SPARK-43881] [SC-133140][sql][PYTHON][connect] Ajouter un modèle facultatif pour Catalog.listDatabases
- [SPARK-43205] [SC-132623] clause IDENTIFIER
- [SPARK-43545] [SC-132378][sql][PYTHON] Prise en charge du type d’horodatage imbriqué
- [SPARK-43949] [SC-133048][python] Mettre à niveau cloudpickle vers la version 2.2.1
- [SPARK-43760] [SC-132809][sql] Nullabilité des résultats de sous-requêtes scalaires
-
[SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Correctif
TimedeltaOpspour Spark Connect - [SPARK-43895] [SC-132897][connect][GO] Préparer le chemin du package Go
- [SPARK-43894] [SC-132892][python] Correction du bogue dans df.cache()
- [SPARK-43509] [SC-131625][connect] Prise en charge de la création de plusieurs sessions Spark Connect
- [SPARK-43882] [SC-132888][sql] Attribuer un nom à _LEGACY_ERROR_TEMP_2122
-
[SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Correction
NumOpspour Spark Connect -
[SPARK-43604] [SC-132165][sql] Refactorisation
INVALID_SQL_SYNTAXpour éviter d’incorporer le texte de l’erreur dans le code source - [SPARK-43859] [SC-132883][sql] Remplacer toString dans LateralColumnAliasReference
- [SPARK-43792] [SC-132939][sql][PYTHON][connect] Ajouter un modèle facultatif pour Catalog.listCatalogs
- [SPARK-43353] Annuler « [SC-132734][python] Migrer les erreurs de session restantes dans la classe d’erreur »
- [SPARK-43375] [SC-130309][connect] Améliorer les messages d’erreur pour INVALID_CONNECT_URL
-
[SPARK-43863] [SC-132721][connect] Supprimer l'élément redondant
toSeqdeSparkConnectPlannerpour Scala 2.13 -
[SPARK-43676] [SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Correction
DatetimeOpspour Spark Connect -
[SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Correction
BinaryOpspour Spark Connect -
[SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Correctif
NullOpspour Spark Connect - [SPARK-43782] [SC-132885][core] Prise en charge de la configuration au niveau du journal avec la conf Spark statique
- [SPARK-43132] [SC-131623] [SS] [CONNECT] API Python Client DataStreamWriter foreach()
- [SPARK-43290] [SC-131961][sql] Ajoute la prise en charge AES IV et AAD à ExpressionImplUtils
- [SPARK-43795] [SC-132532][connect] Supprimer les paramètres non utilisés pour SparkConnectPlanner
- [SPARK-42317] [SC-129194][sql] Attribuer un nom à _LEGACY_ERROR_TEMP_2247 : CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [SC-131960][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_0017
-
[SPARK-43834] [SC-132679][sql] Utiliser des classes d’erreur dans les erreurs de compilation de
ResolveDefaultColumns - [SPARK-43749] [SC-132423][spark-43750][SQL] Affecter des noms à la classe d’erreur _LEGACY_ERROR_TEMP_240[4-5]
- [SPARK-43576] [SC-132533][core] Supprimer les déclarations inutilisées du module Core
- [SPARK-43314] [SC-129970][connect][PYTHON] Migrer les erreurs du client Spark Connect dans la classe d’erreur
- [SPARK-43799] [SC-132715][python] Ajouter une option binaire de descripteur à l’API Protobuf Pyspark
- [SPARK-43837] [SC-132678][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_103[1-2]
- [SPARK-43862] [SC-132750][sql] Affecter un nom à la classe d’erreur LEGACY_ERROR_TEMP(1254 &1315)
- [SPARK-43886] [SC-132808][python] Accepter des tuples génériques comme annotations de type dans les Pandas UDF
- [SPARK-43530] [SC-132653][protobuf] Lire le fichier descripteur une seule fois
- [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Affecter des noms à la classe d’erreur _LEGACY_ERROR_TEMP_241[1-7]
-
[SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Correctif
CategoricalOpspour Spark Connect - [SPARK-39979] [SC-132685][sql] Ajouter une option permettant d’utiliser de grands vecteurs de largeur variable pour les opérations UDF de flèche
-
[SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Correction
StringOpspour Spark Connect - [SPARK-43353] [SC-132734][python] Migrer les erreurs de session restantes dans la classe d’erreur
-
[SPARK-43815] [SC-132781][sql] Ajouter un
to_varcharalias pourto_char - [SPARK-43543] [13.x][sc-131839][PYTHON] Correction du comportement de MapType imbriqué dans les Pandas UDF
- [SPARK-43361] [SC-131789][protobuf] mettre à jour la documentation concernant les erreurs liées à la sérialisation des énumérations
-
[SPARK-43740] [SC-132035][python][CONNECT] Masquer les méthodes non prises en charge
sessionde la saisie semi-automatique - [SPARK-43022] [SC-131681][connect] Soutien des fonctions protobuf pour le client Scala
-
[SPARK-43304] [13.x][sc-129969][CONNECT][python] Migrer
NotImplementedErrorversPySparkNotImplementedError - [SPARK-43860] [SC-132713][sql] Enable tail-recursion autant que possible
- [SPARK-42421] [SC-132695][core] Utiliser les utilitaires pour obtenir le commutateur d’allocations dynamiques utilisé dans le checkpoint local
-
[SPARK-43590] [SC-132012][connect] Permettre à
connect-jvm-client-mima-checkde prendre en charge la vérification mima avec le moduleprotobuf - [SPARK-43315] [13.x][connect][PYTHON][ss] Migrer les erreurs restantes à partir de DataFrame(Reader|Writer) dans la classe d’erreur
- [SPARK-43361] [SC-130980][protobuf] spark-protobuf : autoriser la sérialisation-désérialisation avec énumération en tant qu'entiers.
- [SPARK-43789] [SC-132397][r] Utilise 'spark.sql.execution.arrow.maxRecordsPerBatch' dans R createDataFrame avec Arrow par défaut
- [SPARK-43596] [SC-126994][sql] Gérer le prédicat IsNull dans la réécriture des jointures de domaine
- [SPARK-42249] [SC-122565][sql] Affinement du lien HTML pour la documentation dans les messages d’erreur.
-
[SPARK-43128] [SC-131628][connect][SS] Rendre
recentProgressetlastProgressretournerStreamingQueryProgresscohérents avec l’API Scala native - [SPARK-43387] [SC-130448][sql] Fournissez un code d’erreur lisible pour _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [UI] Corriger l’erreur lors de la sérialisation d’ExecutorPeakMetricsDistributions dans une réponse d’API
-
[SPARK-42958] [SC-131475][connect] Refactorisation
connect-jvm-client-mima-checkpour prendre en charge la vérification mima avec le module avro - [SPARK-43591] [SC-131977][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_0013
- [SPARK-38464] [SC-132211][core] Utiliser des classes d’erreur dans org.apache.spark.io
- [SPARK-43759] [SC-132189][sql][PYTHON] Exposer TimestampNTZType dans pyspark.sql.types
- [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Affecter des noms à la classe d’erreur _LEGACY_ERROR_TEMP_240[1-3]
-
[SPARK-43719] [SC-132016][webui] Gérer le champ
missing row.excludedInStages - [SPARK-42956] [SC-127257][connect] Prise en charge des fonctions avro pour le client Scala
- [SPARK-43487] [SC-131975][sql] Correction du message d’erreur CTE imbriqué
- [SPARK-43265] [SC-129653] Déplacer l’infrastructure d’erreur vers un module utils commun
- [SPARK-40912] [SC-131547][core]Surcharge des exceptions dans KryoDeserializationStream
- [SPARK-43583] [SC-131976][core] obtenir MergedBlockedMetaReqHandler à partir du délégué plutôt que de l’instance SaslRpcHandler
- [SPARK-42996] [SC-131997][connect][PS][ml] Créer et affecter des tickets JIRA appropriés pour tous les tests défaillants.
- [SPARK-38469] [SC-131425][core] Utiliser la classe d’erreur dans org.apache.spark.network
- [SPARK-43718] [SC-132014][sql] Définir correctement la propriété nullable pour les clés dans les jointures USING
-
[SPARK-43502] [SC-131419][python][CONNECT]
DataFrame.dropdoit accepter une colonne vide - [SPARK-43743] [SC-132038][sql] Port HIVE-12188(DoAs ne fonctionne pas correctement dans HS2 sécurisé non Kerberos)
- [SPARK-43598] [SC-131929][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_2400
- [SPARK-43138] [SC-131031][core] Fix ClassNotFoundException lors de la migration
- [SPARK-43360] [SC-131526][ss][CONNECT] Scala client StreamingQueryManager
- [SPARK-38467] [SC-131025][core] Utiliser des classes d’erreur dans org.apache.spark.memory
- [SPARK-43345] [SC-131790][spark-43346][SQL] Renommer les classes d’erreur LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [SC-126450][sql] Prise en charge de l'élimination des sous-expressions pour l'expression de raccourci
- [SPARK-38462] [SC-130449][core] Ajouter une classe d’erreur INTERNAL_ERROR_EXECUTOR
-
[SPARK-43589] [SC-131798][sql] Corriger
cannotBroadcastTableOverMaxTableBytesErrorpour utiliserbytesToString - [SPARK-43539] [SC-131830][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_0003
- [SPARK-43157] [SC-131688][sql] Cloner le plan mis en cache InMemoryRelation pour empêcher le plan cloné de référencer les mêmes objets
- [SPARK-43309] [SC-129746][spark-38461][CORE] Étendre INTERNAL_ERROR avec des catégories et ajouter une classe d’erreur INTERNAL_ERROR_BROADCAST
- [SPARK-43281] [SC-131370][sql] Correction d'un processus concurrent qui ne met pas à jour les métriques de fichier
-
[SPARK-43383] [SC-130660][sql] Ajouter des
rowCountstatistiques à LocalRelation - [SPARK-43574] [SC-131739][python][SQL] Prise en charge de la définition de l’exécutable Python pour les API de fonction UDF et pandas dans les processus en cours d’exécution.
- [SPARK-43569] [SC-131694][sql] Supprimer la solution de contournement pour HADOOP-14067
- [SPARK-43183] [SC-128938][ss][13.x] Introduction d’un nouveau rappel « onQueryIdle » à StreamingQueryListener
- [SPARK-43528] [SC-131531][sql][PYTHON] Prise en charge de champs aux noms en double dans createDataFrame avec pandas DataFrame
- [SPARK-43548] [SC-131686][ss] Supprimer la solution de contournement pour HADOOP-16255
-
[SPARK-43494] [SC-131272][core] Appeler directement
replicate()pourHdfsDataOutputStreamBuilderau lieu de la réflexion dansSparkHadoopUtil#createFile - [SPARK-43471] [SC-131063][core] Gérer les hadoopProperties et metricsProperties manquantes
- [SPARK-42899] [SC-126456][sql] Correction de DataFrame.to(schéma) pour gérer le cas où il existe un champ imbriqué non Nullable dans un champ nullable
- [SPARK-43302] [SC-129747][sql] Faire du UDAF Python une AggregateFunction
- [SPARK-43223] [SC-131270][connect] Agrégation typée, fonctions de réduction, RelationalGroupedDataset#as
- [SPARK-43482] [SC-131375][ss] Élargir QueryTerminatedEvent pour contenir une classe d’erreur si elle existe dans l'exception.
- [SPARK-43359] [SC-131463][sql] La suppression de la table Hive doit générer « UNSUPPORTED_FEATURE.TABLE_OPERATION »
- [SPARK-43284] [SC-130313] Revenir aux chaînes encodées par URL
-
[SPARK-43492] [SC-131227][sql] Ajouter des alias de fonction à trois arguments
DATE_ADDetDATE_DIFF - [SPARK-43473] [SC-131372][python] Prise en charge du type struct dans createDataFrame à partir de pandas DataFrame
-
[SPARK-43386] [SC-1311110][sql] Améliorer la liste des colonnes/attributs suggérés dans la
UNRESOLVED_COLUMN.WITH_SUGGESTIONclasse d’erreur - [SPARK-43443] [SC-131332][sql] Ajouter un benchmark pour l’inférence de type Timestamp lors de l’utilisation d’une valeur non valide
-
[SPARK-43518] [SC-131420][sql] Convertir
_LEGACY_ERROR_TEMP_2029en INTERNAL_ERROR - [SPARK-42604] [SC-130648][connect] Implémenter functions.typedlit
-
[SPARK-42323] [ES-669513] Revert « [SC-123479][sql] Assign name to
_LEGACY_ERROR_TEMP_2332» - [SPARK-43357] [SC-130649][sql] Filtrer les dates entre guillemets
- [SPARK-43410] [SC-130526][sql] Améliorer la boucle vectorisée pour packed skipValues
-
[SPARK-43441] [SC-130995][core]
makeDotNodene doit pas échouer lorsque DeterministicLevel est absent - [SPARK-43324] [SC-130455][sql] Gérer les UPDATE commandes pour les sources delta
-
[SPARK-43272] [SC-131168][core] Appeler
createFiledirectement au lieu de la réflexion - [SPARK-43296] [13.x][sc-130627][CONNECT][python] Migrer les erreurs de session Spark Connect dans la classe d’erreur
-
[SPARK-43405] [SC-130987][sql] Supprimer inutile
getRowFormatSQL, ,inputRowFormatSQLoutputRowFormatSQLméthode - [SPARK-43447] [SC-131017][r] Support R 4.3.0
-
[SPARK-43425] [SC-130981][sql] Ajouter
TimestampNTZTypeàColumnarBatchRow - [SPARK-41532] [SC-130523][connect][CLIENT] Ajouter une vérification des opérations impliquant plusieurs trames de données
- [SPARK-43262] [SC-129270][connect][SS][python] Migrer les erreurs de Spark Connect Structured Streaming dans la classe d’erreurs
- [SPARK-42992] [13.x][sc-129465][PYTHON] Introduction de PySparkRuntimeError
- [SPARK-43422] [SC-130982][sql] Conserver les balises sur LogicalRelation avec sortie de métadonnées
- [SPARK-43390] [SC-130646][sql] DSv2 permet à CTAS/RTAS de réserver la nullabilité du schéma
- [SPARK-43430] [SC-130989][connect][PROTO] ExecutePlanRequest prend en charge les options de requête arbitraires.
- [SPARK-43313] [SC-130254][sql] Ajout de valeurs DEFAULT de colonne manquantes pour les actions MERGE INSERT
- [SPARK-42842] [SC-130438][sql] Fusionner la classe d’erreur _LEGACY_ERROR_TEMP_2006 dans REGEX_GROUP_INDEX
-
[SPARK-43377] [SC-130405][sql] Activer
spark.sql.thriftServer.interruptOnCancelpar défaut -
[SPARK-43292] [SC-130525][core][CONNECT] Déplacer
ExecutorClassLoaderverscorele module et simplifierExecutor#addReplClassLoaderIfNeeded - [SPARK-43040] [SC-130310][sql] Améliorer la prise en charge des types TimestampNTZ dans la source de données JDBC
- [SPARK-43343] [SC-130629][ss] FileStreamSource doit désactiver une vérification glob de fichier supplémentaire lors de la création de DataSource
- [SPARK-43312] [SC-130294][protobuf] Option pour convertir tous les champs en JSON
- [SPARK-43404] [SC-130586][ss] Ignorer la réutilisation du fichier sst pour la même version du magasin d’états RocksDB afin d’éviter une erreur d’incompatibilité d’ID
-
[SPARK-43397] [SC-130614][core] Consigner la durée de décommissionnement de l’exécuteur dans la
executorLostméthode - [SPARK-42388] [SC-128568][sql] Éviter de lire deux fois le footer parquet dans le lecteur vectorisé
- [SPARK-43306] [13.x][sc-130320][PYTHON] Migrer ValueError des types Spark SQL vers une classe d'erreur
- [SPARK-43337] [SC-130353][ui][3.4] Les icônes de flèche asc/desc pour le tri des colonnes ne s’affichent pas dans les colonnes de table
-
[SPARK-43279] [SC-130351][core] Nettoyage des membres inutilisés depuis
SparkHadoopUtil -
[SPARK-43250] [SC-130147][sql] Remplacer la classe
_LEGACY_ERROR_TEMP_2014d’erreur par une erreur interne -
[SPARK-43363] [SC-130299][sql][PYTHON] Effectuer un appel
astypeau type de catégorie uniquement lorsque le type de flèche n’est pas fourni -
[SPARK-43261] [SC-130154][python] Migrer
TypeErrorà partir de types Spark SQL dans la classe d’erreur - [SPARK-41971] [SC-130230][sql][PYTHON] Ajouter une configuration pour la conversion de pandas afin de gérer les types de structures
- [SPARK-43381] [SC-130464][connect] Rendre 'transformStatCov' paresseux
- [SPARK-43362] [SC-130481][sql] Gestion spéciale du type JSON pour le connecteur MySQL
- [SPARK-42843] [SC-130196][sql] Mettez à jour la classe d’erreur _LEGACY_ERROR_TEMP_2007 pour REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968][connect] Streaming des relations locales
-
[SPARK-43181] [SC-130476][sql] Afficher l'URL Web de l'interface utilisateur dans
spark-sqll’interpréteur de commandes - [SPARK-43051] [SC-130194][connect] Ajouter une option pour émettre des valeurs par défaut
- [SPARK-43204] [SC-129296][sql] Aligner les affectations MERGE avec les attributs de table
-
[SPARK-43348] [SC-130082][python] Prise en charge
Python 3.8dans PyPy3 - [SPARK-42845] [SC-130078][sql] Mettez à jour la classe d’erreur _LEGACY_ERROR_TEMP_2010 vers InternalError
- [SPARK-43211] [SC-128978][hive] Supprimer la prise en charge de Hadoop2 dans IsolatedClientLoader
Environnement du système
- Système d’exploitation : Ubuntu 22.04.2 LTS
- Java : Zulu 8.70.0.23-CA-linux64
- Scala : 2.12.15
- Python : 3.10.12
- R : 4.2.2
- Delta Lake : 2.4.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.2.1 | attributs | 21.4.0 | appel de retour | 0.2.0 |
| bellesoupe4 | 4.11.1 | noir | 22.6.0 | blanchir | 4.1.0 |
| clignotant | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | cliquez | 8.0.4 | chiffrement | 37.0.1 |
| cycliste | 0.11.0 | Cython | 0.29.32 | Kit de développement logiciel Databricks (SDK) | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.5.1 | décorateur | 5.1.1 |
| defusedxml | 0.7.1 | distlib | 0.3.6 | Conversion de docstring en markdown | 0,12 |
| points d’entrée | 0,4 | en cours d’exécution | 1.2.0 | aperçu des facettes | 1.0.3 |
| validation rapide des schémas JSON (fastjsonschema) | 2.16.3 | verrou de fichier | 3.12.0 | outils de police | 4.25.0 |
| googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | idna | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets (un outil de widgets interactifs pour Python) | 7.7.2 | Jedi | 0.18.1 | Jeepney (véhicule de transport public philippin) | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | jupyter-client | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 | porte-clés | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
| matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | désaccorder | 0.8.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | carnet de notes | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | empaquetage | 21,3 | Pandas | 1.4.4 |
| pandocfilters | 1.5.0 | parso | 0.8.3 | spécification de chemin | 0.9.0 |
| dupe | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Oreiller | 9.2.0 | pépin | 22.2.2 | platformdirs | 2.5.2 |
| tracé | 5.9.0 | enfiché | 1.0.0 | prometheus-client | 0.14.1 |
| prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
| pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | pyrsistent | 0.18.0 | python-dateutil | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 |
| pytz | 2022.1 | pyzmq | 23.2.0 | requêtes | 2.28.1 |
| corde | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
| scipy (bibliothèque Python pour le calcul scientifique) | 1.9.1 | seaborn | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 63.4.1 | Six | 1.16.0 |
| Soupsieve | 2.3.1 | ssh-import-id | 5.11 | données en pile | 0.6.2 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.13.2 | ténacité | 8.1.0 | terminé | 0.13.1 |
| chemin de test | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | tornade | 6.1 | Traitlets | 5.1.1 |
| typing_extensions | 4.3.0 | ujson | 5.4.0 | mises à niveau automatiques | 0.1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webencodings | 0.5.1 | c’est quoi le patch | 1.0.2 |
| roue | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
| zipp | 1.0.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané Microsoft CRAN du 02/10/2023.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 10.0.1 | Askpass | 1.1 | assertthat | 0.2.1 |
| rétroportage | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| morceau | 4.0.5 | bit 64 | 4.0.5 | objet BLOB | 1.2.3 |
| botte | 1.3-28 | brasser | 1,0-8 | brio | 1.1.3 |
| balai | 1.0.3 | bslib | 0.4.2 | cachemire | 1.0.6 |
| appelant | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
| Chron | 2.3-59 | classe | 7.3-21 | Cli | 3.6.0 |
| clipr | 0.8.0 | horloge | 0.6.1 | Grappe | 2.1.4 |
| codetools | 0.2-19 | espace colorimétrique | 2.1-0 | commonmark | 1.8.1 |
| compilateur | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
| crayon | 1.5.2 | Références | 1.3.2 | friser | 5.0.0 |
| data.table | 1.14.6 | jeux de données | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Desc | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digérer | 0.6.31 | éclairage vers le bas | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| ellipse | 0.3.2 | évaluer | 0.20 | fans | 1.0.4 |
| couleurs | 2.1.1 | carte rapide | 1.1.0 | fontawesome | 0.5.0 |
| condamnés | 1.0.0 | foreach | 1.5.2 | étranger | 0.8-82 |
| forger | 0.2.0 | fs | 1.6.1 | futur | 1.31.0 |
| future.apply | 1.10.0 | se gargariser | 1.3.0 | produits génériques | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globales | 0.16.2 |
| colle | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | graphisme | 4.2.2 | grDevices | 4.2.2 |
| grille | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| GTable | 0.3.1 | casque de sécurité | 1.2.0 | havre | 2.5.1 |
| supérieur | 0.10 | Hms | 1.1.2 | outils HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isobande | 0.2.7 | itérateurs | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2,23-20 | knitr | 1.42 |
| étiquetage | 0.4.2 | plus tard | 1.3.0 | treillis | 0.20-45 |
| lave | 1.7.1 | cycle de vie | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1,5 |
| MASSE | 7.3-58.2 | Matrice | 1.5-1 | mémorisation | 2.0.1 |
| méthodes | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallèle | 4.2.2 |
| parallèlement | 1.34.0 | pilier | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.8 | éloge | 1.0.0 |
| joliesunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | progrès | 1.2.2 |
| progresseur | 0.13.0 | promesses | 1.2.0.1 | prototype | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.7.2 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.3 | readxl | 1.4.2 | recettes | 1.0.4 |
| match retour | 1.0.1 | revanche2 | 2.1.2 | Télécommandes | 2.4.2 |
| exemple reproductible | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.20 | RODBC | 1,3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | écailles | 1.2.1 |
| sélecteur | 0,4-2 | informations sur la session | 1.2.2 | forme | 1.4.6 |
| brillant | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | spatial | 7.3-15 | Cannelures | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiques | 4.2.2 |
| statistiques4 | 4.2.2 | chaine | 1.7.12 | stringr | 1.5.0 |
| survie | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | mise en forme de texte | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | changement d'heure | 0.2.0 | date-heure | 4022.108 |
| tinytex | 0.44 | outils | 4.2.2 | tzdb | 0.3.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 2.1.6 | utf8 | 1.2.3 |
| utils | 4.2.2 | Identifiant unique universel (UUID) | 1.1:0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| vibrisse | 0.4.1 | flétrir | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | fermeture éclair | 2.2.2 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | Outil de support aws-java-sdk | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flux | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | ombré cryogénique | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.0 |
| io.dropwizard.metrics | métriques de base | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.10 |
| io.dropwizard.metrics | metrics-json | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | servlets de métriques | 4.2.10 |
| io.netty | netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | transport-netty-natif-commun-unix | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collecteur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.29 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant-launcher | 1.9.16 |
| org.apache.arrow | format de flèche | 11.0.0 |
| org.apache.arrow | arrow-mémoire-cœur | 11.0.0 |
| org.apache.arrow | arrow-memory-netty | 11.0.0 |
| org.apache.arrow | vecteur-flèche | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.10.0 |
| org.apache.curator | curateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur-recettes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.9 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-shims | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,22 |
| org.apache.yetus | annotations du public | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.50.v20221201 |
| org.eclipse.jetty | serveur jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-client | 2,36 |
| org.glassfish.jersey.core | jersey-commun | 2,36 |
| org.glassfish.jersey.core | jersey-server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Cales | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |