Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 12.1 optimisé par Apache Spark 3.3.1.
Databricks a publié cette version en janvier 2023.
Améliorations et nouvelles fonctionnalités
- Fonctionnalités de table Delta Lake prises en charge pour la gestion des protocoles
- Les E/S prédictives pour les mises à jour sont en préversion publique
- Catalog Explorer est désormais disponible pour tous les personnages
- Prise en charge de plusieurs opérateurs avec état dans une seule requête de diffusion en continu
- La prise en charge des mémoires tampons de protocole est en préversion publique
- Prise en charge de l’authentification de Confluent Schema Registry
- Prise en charge du partage de l’historique des tables avec des partages Delta Sharing
- Support du streaming avec les partages Delta Sharing
- Une version de table utilisant timestamp est désormais prise en charge pour les tables Delta Sharing dans les catalogues
- Prise en charge de WHEN NOT MATCHED BY SOURCE pour MERGE INTO
- collecte de statistiques optimisées pour CONVERT TO DELTA
- Prise en charge d’Unity Catalog pour les tables non supprimées
Fonctionnalités de table Delta Lake prises en charge pour la gestion des protocoles
Azure Databricks a introduit la prise en charge des fonctionnalités de table Delta Lake, qui introduisent des indicateurs granulaires spécifiant les fonctionnalités prises en charge par une table donnée. Consultez les protocoles et la compatibilité des fonctionnalités Delta Lake.
Les E/S prédictives pour les mises à jour sont en préversion publique
Les E/S prédictives accélèrent désormais les opérations DELETE, MERGE et UPDATE pour les tables Delta avec des vecteurs de suppression activés sur le calcul compatible avec Photon. Consultez Qu’est-ce que les E/S prédictives ?.
Catalog Explorer est désormais disponible pour tous les personnages
Catalog Explorer est désormais disponible pour tous les personnages Azure Databricks lors de l’utilisation de Databricks Runtime 7.3 LTS et versions ultérieures.
Prise en charge de plusieurs opérateurs avec état dans une seule requête de diffusion en continu
Les utilisateurs peuvent désormais chaîner des opérateurs avec état avec le mode d’ajout dans la requête de diffusion en continu. Tous les opérateurs ne sont pas entièrement pris en charge. Jointure d’intervalle de temps entre flux et flatMapGroupsWithState n’autorise pas le chaînage d’autres opérateurs avec état.
La prise en charge des mémoires tampons de protocole est en préversion publique
Vous pouvez utiliser les fonctions from_protobuf et to_protobuf pour échanger des données entre des types binaires et struct. Consultez Buffers de protocole de lecture et écriture.
Prise en charge de l’authentification de registre de schémas Confluent
L'intégration d'Azure Databricks au Registre de schémas Confluent prend désormais en charge les adresses de registre de schémas externes avec authentification. Cette fonctionnalité est disponible pour les fonctions from_avro,to_avro, from_protobufet to_protobuf . Consultez Protobuf ou Avro.
Prise en charge du partage de l’historique des tables avec les partages Delta Sharing
Vous pouvez désormais partager une table avec un historique complet à l’aide de Delta Sharing, ce qui permet aux destinataires d’effectuer des requêtes de voyage dans le temps et d’interroger la table à l’aide de Spark Structured Streaming.
WITH HISTORY est recommandé au lieu de CHANGE DATA FEED, bien que ce dernier continue d’être pris en charge. Consultez ALTER SHARE et Ajout d’une table à un partage.
Prise en charge de la diffusion en continu avec les partages Delta Sharing
Spark Structured Streaming fonctionne désormais avec le format deltasharing d’une table de Delta Sharing source qui a été partagée à l’aide de WITH HISTORY.
Version de table avec horodatage désormais prise en charge pour les tables Delta Sharing dans les catalogues
Vous pouvez maintenant utiliser la syntaxe SQL TIMESTAMP AS OF dans les instructions SELECT pour spécifier la version d'une table Delta Sharing chargée dans un catalogue. Les tables doivent être partagées à l’aide de WITH HISTORY.
Prise en charge de WHEN NOT MATCHED BY SOURCE pour MERGE INTO
Vous pouvez maintenant ajouter des clauses WHEN NOT MATCHED BY SOURCE à MERGE INTO pour mettre à jour ou supprimer des lignes dans la table choisie qui n'ont pas de correspondances dans la table source en fonction de la condition de fusion. La nouvelle clause est disponible dans SQL, Python, Scala et Java. Voir MERGE INTO.
Collecte de statistiques optimisées pour CONVERT TO DELTA
La collecte de statistiques pour l’opération CONVERT TO DELTA est désormais beaucoup plus rapide. Cela réduit le nombre de charges de travail qui peuvent utiliser NO STATISTICS pour plus d’efficacité.
Prise en charge d’Unity Catalog pour les tables non supprimées
Cette fonctionnalité a été initialement publiée en préversion publique. Il est en disponibilité générale à compter du 25 octobre 2023.
Vous pouvez maintenant annuler la suppression d’une table managée ou externe dans un schéma existant dans les sept jours suivant la suppression. Voir UNDROP et SHOW TABLES DROPPED.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- filelock de la version 3.8.0 à la version 3.8.2
- platformdirs de 2.5.4 vers 2.6.0
- setuptools de la version 58.0.4 à la version 61.2.0
- Bibliothèques R mises à niveau :
- Bibliothèques Java mises à niveau :
- io.delta.delta-sharing-spark_2.12 de la version 0.5.2 vers la version 0.6.2
- org.apache.hive.hive-storage-api de 2.7.2 à 2.8.1
- org.apache.parquet.parquet-column de la version 1.12.3-databricks-0001 à la version 1.12.3-databricks-0002
- org.apache.parquet.parquet-common de la version 1.12.3-databricks-0001 vers la version 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding de la version 1.12.3-databricks-0001 vers la version 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures de la version 1.12.3-databricks-0001 vers la version 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop de la version 1.12.3-databricks-0001 vers la version 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson de la version 1.12.3-databricks-0001 à la version 1.12.3-databricks-0002
- org.tukaani.xz de 1.8 à 1.9
Apache Spark
Databricks Runtime 12.1 comprend Apache Spark 3.3.1. Cette version inclut tous les correctifs et améliorations Spark figurant dans Databricks Runtime 12.0 (EoS) ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-41405] [SC-119769][12.1.0] Rétablir « [SC-119411][sql] Centraliser la logique de résolution des colonnes » et « [SC-11717170][spark-41338][SQL] Résoudre les références externes et les colonnes normales dans le même lot d’analyseurs »
- [SPARK-41405] [SC-119411][sql] Centraliser la logique de résolution de colonne
- [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand doit définir correctement l’indicateur de remplacement
- [SPARK-41659] [SC-119526][connect][12.X] Activer les doctests dans pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][sql] Corriger la régression des performances du lecteur ORC due à la fonctionnalité de valeur par défaut
- [SPARK-41807] [SC-119399][core] Supprimer la classe d’erreur inexistante : UNSUPPORTED_FEATURE. DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] Attribuer le nom à _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][sql] Attribuer le nom à _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][connect] Déduire des noms à partir d’une liste de dictionnaires dans SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Déplacer la documentation spark Connect et le script vers la documentation dev/ et Python
- [SPARK-41534] [SC-119456][connect][SQL][12.x] Configurer le module client initial pour Spark Connect
- [SPARK-41365] [SC-118498][ui][3.3] La page d’interface utilisateur de phases ne peut pas être chargée pour le proxy dans un environnement YARN spécifique
-
[SPARK-41481] [SC-118150][core][SQL] Réutiliser
INVALID_TYPED_LITERALau lieu de_LEGACY_ERROR_TEMP_0020 - [SPARK-41049] [SC-119305][sql] Revisiter la gestion des expressions avec état
-
[SPARK-41726] [SC-119248][sql] Supprimer
OptimizedCreateHiveTableAsSelectCommand -
[SPARK-41271] [SC-118648][sc-118348][SQL] Prise en charge des requêtes SQL paramétrables par
sql() -
[SPARK-41066] [SC-119344][connect][PYTHON] Implémenter
DataFrame.sampleByetDataFrame.stat.sampleBy - [SPARK-41407] [SC-119402][SC-119012][SQL][all tests] Extraction de l’écriture v1 dans WriteFiles
-
[SPARK-41565] [SC-118868][sql] Ajouter la classe d’erreur
UNRESOLVED_ROUTINE - [SPARK-41668] [SC-118925][sql] DECODE retourne des résultats incorrects lorsqu'elle reçoit une valeur NULL
- [SPARK-41554] [SC-119274] correction de la modification de l’échelle décimale lorsque l’échelle a diminué de m...
-
[SPARK-41065] [SC-119324][connect][PYTHON] Implémenter
DataFrame.freqItemsetDataFrame.stat.freqItems - [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Réactiver les tests de documentation et ajouter l’alias de colonne manquant à count()
-
[SPARK-41069] [SC-119310][connect][PYTHON] Implémenter
DataFrame.approxQuantileetDataFrame.stat.approxQuantile -
[SPARK-41809] [SC-119367][connect][PYTHON] Faire en sorte que la fonction
from_jsonprenne en charge le schéma de types de données -
[SPARK-41804] [SC-119382][sql] Choisir une taille d’élément correcte dans
InterpretedUnsafeProjectionpour le tableau des UDT - [SPARK-41786] [SC-119308][connect][PYTHON] Suppression des doublons des fonctions d’assistance
-
[SPARK-41745] [SC-119378][spark-41789][12.X] Liste
createDataFramede lignes de prise en charge - [SPARK-41344] [SC-119217][sql] Rendre l’erreur plus claire lorsque la table introuvable dans le catalogue SupportsCatalogOptions
-
[SPARK-41803] [SC-119380][connect][PYTHON] Ajouter une fonction manquante
log(arg1, arg2) - [SPARK-41808] [SC-119356][connect][PYTHON] Faire en sorte que les fonctions JSON prennent en charge les options
-
[SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Rendre
__getitem__compatible avec le filtrage et la sélection - [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Passer le support de la colonne op sur Aucun
- [SPARK-41440] [SC-119279][connect][PYTHON] Évitez l’opérateur de cache pour l’exemple général.
-
[SPARK-41785] [SC-119290][connect][PYTHON] Implémenter
GroupedData.mean - [SPARK-41629] [SC-119276][connect] Prise en charge des extensions de protocole dans la relation et l’expression
-
[SPARK-41417] [SC-118000][core][SQL] Renommer
_LEGACY_ERROR_TEMP_0019enINVALID_TYPED_LITERAL - [SPARK-41533] [SC-119342][connect][12.X] Gestion des erreurs appropriée pour le serveur /le client Spark Connect
- [SPARK-41292] [SC-119357][connect][12.X] Fenêtre de prise en charge dans l’espace de noms pyspark.sql.window
- [SPARK-41493] [SC-119339][connect][PYTHON] Rendre les options de prise en charge des fonctions csv
- [SPARK-39591] [SC-118675][ss] Suivi Asynchrone de Progression
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implémenter
Column.{withField, dropFields} -
[SPARK-41068] [SC-119268][connect][PYTHON] Implémenter
DataFrame.stat.corr - [SPARK-41655] [SC-119323][connect][12.X] Activer les doctests dans pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][connect] Mélanger ClientId dans le cache SparkSession
-
[SPARK-41354] [SC-119194][connect] Ajouter
RepartitionByExpressionau proto -
[SPARK-41784] [SC-119289][connect][PYTHON] Ajout de
__rmod__manquant dans colonne - [SPARK-41778] [SC-119262][sql] Ajouter un alias « reduce » à ArrayAggregate
-
[SPARK-41067] [SC-119171][connect][PYTHON] Implémenter
DataFrame.stat.cov - [SPARK-41764] [SC-119216][connect][PYTHON] Rendre le nom de l’opération de chaîne interne cohérent avec FunctionRegistry
- [SPARK-41734] [SC-119160][connectT] Ajouter un message parent pour Catalog
- [SPARK-41742] [SC-119263] Prendre en charge df.groupBy().agg({“*”:”count”})
-
[SPARK-41761] [SC-119213][connect][PYTHON] Correction des opérations arithmétiques :
__neg__,__pow__,__rpow__ -
[SPARK-41062] [SC-118182][sql] Renommer
UNSUPPORTED_CORRELATED_REFERENCEenCORRELATED_REFERENCE -
[SPARK-41751] [SC-119211][connect][PYTHON] Correctif
Column.{isNull, isNotNull, eqNullSafe} -
[SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implémenter la fonction
unwrap_udt -
[SPARK-41333] [SC-119195][spark-41737] Implémenter
GroupedData.{min, max, avg, sum} -
[SPARK-41751] [SC-119206][connect][PYTHON] Correctif
Column.{bitwiseAND, bitwiseOR, bitwiseXOR} - [SPARK-41631] [SC-101081][sql] Prise en charge de la résolution d’alias de colonne latérale implicite sur l’agrégation
- [SPARK-41529] [SC-119207][connect][12.X] Implémenter SparkSession.stop
-
[SPARK-41729] [SC-119205][core][SQL][12.x] Renommer
_LEGACY_ERROR_TEMP_0011enUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES - [SPARK-41717] [SC-119078][connect][12.X] Dédupliquer l’impression et repr_html sur LogicalPlan
-
[SPARK-41740] [SC-119169][connect][PYTHON] Implémenter
Column.name - [SPARK-41733] [SC-119163][sql][SS] Appliquer l’élagage basé sur un modèle d’arborescence pour la règle ResolveWindowTime
- [SPARK-41732] [SC-119157][sql][SS] Appliquer la taille basée sur un modèle d’arborescence pour la règle SessionWindowing
- [SPARK-41498] [SC-119018] Propager des métadonnées via Union
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Implémenter l’accesseur de colonne
-
[SPARK-41736] [SC-119161][connect][PYTHON]
pyspark_types_to_proto_typesdoit prendre en chargeArrayType -
[SPARK-41473] [SC-119092][connect][PYTHON] Implémenter la fonction
format_number - [SPARK-41707] [SC-119141][connect][12.X] Implémenter l’API catalogue dans Spark Connect
-
[SPARK-41710] [SC-119062][connect][PYTHON] Implémenter
Column.between - [SPARK-41235] [SC-119088][sql][PYTHON] Fonction d'ordre supérieur : implémentation de array_compact
-
[SPARK-41518] [SC-118453][sql] Attribuer un nom à la classe d’erreur
_LEGACY_ERROR_TEMP_2422 -
[SPARK-41723] [SC-119091][connect][PYTHON] Implémenter la fonction
sequence - [SPARK-41703] [SC-119060][connect][PYTHON] Combiner NullType et typed_null dans Literal
- [SPARK-41722] [SC-119090][connect][PYTHON] Implémenter 3 fonctions de fenêtre de temps manquantes
- [SPARK-41503] [SC-119043][connect][PYTHON] Implémenter des fonctions de transformation de partition
- [SPARK-41413] [SC-118968][sql] Éviter la lecture aléatoire dans Storage-Partitioned Join lorsque les clés de partition ne correspondent pas, mais que les expressions de jointure sont compatibles
-
[SPARK-41700] [SC-119046][connect][PYTHON] Supprimer
FunctionBuilder -
[SPARK-41706] [SC-119094][connect][PYTHON]
pyspark_types_to_proto_typesdoit prendre en chargeMapType - [SPARK-41702] [SC-119049][connect][PYTHON] Ajouter des opérations de colonne non valides
- [SPARK-41660] [SC-118866][sql] Propager uniquement les colonnes de métadonnées si elles sont utilisées
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] Implémenter un accumulateur pour collecter les métriques de nombre de lignes par mappeur
- [SPARK-41647] [SC-119064][connect][12.X] Dédupliquer les docstrings dans pyspark.sql.connect.functions
-
[SPARK-41701] [SC-119048][connect][PYTHON] Prise en charge des opérations de colonne
decimal -
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implémenter
rollup,cubeetpivot - [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] Dédupliquer les docstrings dans pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][connect][PYTHON] Déplacer des expressions vers expressions.py
- [SPARK-41687] [SC-118949][connect] Dédupliquer les docstrings dans pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][connect] Dédupliquer les docstrings dans pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][connect] Éliminer GroupedData de group.py
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implémenter des fonctions
Window -
[SPARK-41675] [SC-119031][sc-118934][CONNECT][PYTHON][12.X] Effectuer la prise en charge des opérations de colonne
datetime - [SPARK-41672] [SC-118929][connect][PYTHON] Activer les fonctions déconseillées
-
[SPARK-41673] [SC-118932][connect][PYTHON] Implémenter
Column.astype -
[SPARK-41364] [SC-118865][connect][PYTHON] Implémenter fonction
broadcast - [SPARK-41648] [SC-118914][connect][12.X] Dédupliquer les docstrings dans pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][connect][12.X] Dédupliquer les docstrings dans pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][connect][12.X] Dédupliquer les docstrings dans pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implémenter le reste des fonctions Lambda
- [SPARK-41441] [SC-118557][sql] Prise en charge de la génération sans sortie enfant requise vers les références externes de l’hôte
- [SPARK-41669] [SC-118923][sql] Taille précoce dans canCollapseExpressions
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : Supprimer ScalaReflectionLock de SchemaConverters
-
[SPARK-41464] [SC-118861][connect][PYTHON] Implémenter
DataFrame.to -
[SPARK-41434] [SC-118857][connect][PYTHON] Implémentation initiale
LambdaFunction - [SPARK-41539] [SC-118802][sql] Nouveau mappage des statistiques et des contraintes par rapport à la sortie dans le plan logique pour LogicalRDD
- [SPARK-41396] [SC-118786][sql][PROTOBUF] Prise en charge des champs OneOf et vérifications de récursivité
- [SPARK-41528] [SC-118769][connect][12.X] Fusionner les espaces de noms de l’API Spark Connect et PySpark.
- [SPARK-41568] [SC-118715][sql] Attribuer le nom à _LEGACY_ERROR_TEMP_1236
-
[SPARK-41440] [SC-118788][connect][PYTHON] Implémenter
DataFrame.randomSplit - [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Ajouter Spark Connect et protobuf dans setup.py avec la spécification de dépendances
- [SPARK-27561] [SC-101081][12.x][SQL] Prise en charge de la résolution d’alias de colonne latérale implicite sur Project
-
[SPARK-41535] [SC-118645][sql] Définir la valeur Null correctement pour les champs d’intervalle de calendrier dans
InterpretedUnsafeProjectionetInterpretedMutableProjection - [SPARK-40687] [SC-118439][sql] Prise en charge de la fonction intégrée de masquage de données nommée 'mask'
- [SPARK-41520] [SC-118440][sql] Fractionner AND_OR TreePattern pour séparer ET et OR TreePatterns
- [SPARK-41349] [SC-118668][connect][PYTHON] Implémenter DataFrame.hint
-
[SPARK-41546] [SC-118541][connect][PYTHON]
pyspark_types_to_proto_typesdoivent prendre en charge StructType. -
[SPARK-41334] [SC-118549][connect][PYTHON] Déplacer le proto
SortOrderdes relations vers les expressions - [SPARK-41387] [SC-118450][ss] Affirmer le décalage de fin actuel de la source de données Kafka pour Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][core][SQL] Renommer
_LEGACY_ERROR_TEMP_1180enUNEXPECTED_INPUT_TYPEet supprimer_LEGACY_ERROR_TEMP_1179 -
[SPARK-41319] [SC-118441][connect][PYTHON] Implémenter la colonne. {when, otherwise} et fonction
whenavecUnresolvedFunction - [SPARK-41541] [SC-118460][sql] Correction de l’appel à une méthode enfant incorrecte dans SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[SPARK-41453] [SC-118458][connect][PYTHON] Implémenter
DataFrame.subtract - [SPARK-41248] [SC-118436][sc-118303][SQL] Ajouter «spark.sql.json.enablePartialResults » pour activer/désactiver les résultats partiels JSON
- [SPARK-41437] Rétablir « [SC-117601][sql] Ne pas optimiser la requête d’entrée deux fois pour le secours en écriture v1 »
- [SPARK-41472] [SC-118352][connect][PYTHON] Implémenter le reste des fonctions de chaîne/de binaire
-
[SPARK-41526] [SC-118355][connect][PYTHON] Implémenter
Column.isin - [SPARK-32170] [SC-118384] [CORE] Améliorer la spéculation via les métriques de tâche d’étape.
- [SPARK-41524] [SC-118399][ss] Différencier SQLConf et extraOptions dans StateStoreConf pour son utilisation dans RocksDBConf
- [SPARK-41465] [SC-118381][sql] Attribuer un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][sql] Le support LongToUnsafeRowMap ignore les clés dupliquées
-
[SPARK-41409] [SC-118302][core][SQL] Renommer
_LEGACY_ERROR_TEMP_1043enWRONG_NUM_ARGS.WITHOUT_SUGGESTION -
[SPARK-41438] [SC-118344][connect][PYTHON] Implémenter
DataFrame.colRegex - [SPARK-41437] [SC-117601][sql] N’optimisez pas la requête d’entrée deux fois pour le secours en écriture v1
-
[SPARK-41314] [SC-117172][sql] Attribuer un nom à la classe d’erreur
_LEGACY_ERROR_TEMP_1094 - [SPARK-41443] [SC-118004][sql] Attribuer un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] Refactoriser LiteralExpression pour prendre en charge DataType
- [SPARK-41448] [SC-118046] Créer des ID de travail MR cohérents dans FileBatchWriter et FileFormatWriter
- [SPARK-41456] [SC-117970][sql] Améliorer les performances de try_cast
-
[SPARK-41495] [SC-118125][connect][PYTHON] Implémenter des fonctions
collection: P~Z - [SPARK-41478] [SC-118167][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql] Message d’erreur de refactorisation pour
NUM_COLUMNS_MISMATCHpour le rendre plus générique -
[SPARK-41404] [SC-118016][sql] Refactoriser
ColumnVectorUtils#toBatchpour rendre le test deColumnarBatchSuite#testRandomRowsun type de données plus primitif - [SPARK-41468] [SC-118044][sql] Correction de la gestion PlanExpression dans EquivalentExpressions
- [SPARK-40775] [SC-118045][sql] Corriger les entrées de description dupliquées pour les analyses de fichiers V2
- [SPARK-41492] [SC-118042][connect][PYTHON] Implémenter des fonctions MISC
- [SPARK-41459] [SC-118005][sql] Correction de la sortie du journal des opérations du serveur Thrift vide
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjectiondevez utilisersetDecimalpour définir des valeurs Null pour les décimales dans une ligne non sécurisée - [SPARK-41376] [SC-117840][core][3.3] Corriger la logique de vérification de Netty preferDirectBufs au démarrage de l'exécuteur
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implémenter des fonctions
collection: E~M -
[SPARK-41389] [SC-117426][core][SQL] Réutiliser
WRONG_NUM_ARGSau lieu de_LEGACY_ERROR_TEMP_1044 - [SPARK-41462] [SC-117920][sql] Les types de date et d’horodateur peuvent être convertis en TimestampNTZ
-
[SPARK-41435] [SC-117810][sql] Modifier pour appeler
invalidFunctionArgumentsErrorpourcurdate()lorsqueexpressionsn'est pas vide - [SPARK-41187] [SC-118030][core] Fuite de mémoire de LiveExecutor dans AppStatusListener lorsque ExecutorLost se produit
- [SPARK-41360] [SC-118083][core] Éviter la réinscription de BlockManager en cas de perte de l'exécuteur
- [SPARK-41378] [SC-117686][sql] Statistiques de colonne de prise en charge dans DS v2
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Remplacer prettyName de StringDecode
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implémenter les fonctions date/timestamp
- [SPARK-41329] [SC-117975][connect] Résoudre les importations circulaires dans Spark Connect
- [SPARK-41477] [SC-118025][connect][PYTHON] Déduire correctement le type de données des entiers littéraux
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x] Rendre
createDataFramecompatible avec les schémas et plusieurs types de jeux de données d’entrée - [SPARK-41475] [SC-117997][connect] Correction de l’erreur de commande lint-scala et de la faute de frappe
- [SPARK-38277] [SC-117799][ss] Effacer le lot d’écriture après la validation du magasin d’état RocksDB
- [SPARK-41375] [SC-117801][ss] Éviter les derniers KafkaSourceOffset vides
-
[SPARK-41412] [SC-118015][connect] Implémenter
Column.cast -
[SPARK-41439] [SC-117893][connect][PYTHON] Implémenter
DataFrame.meltetDataFrame.unpivot - [SPARK-41399] [SC-118007][sc-117474][CONNECT] Refactoriser les tests liés à la colonne pour test_connect_column
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] La colonne doit prendre en charge l’opérateur !=
- [SPARK-40697] [SC-117806][SC-112787][SQL] Ajout d’un remplissage de caractères en lecture pour couvrir les fichiers de données externes
- [SPARK-41349] [SC-117594][connect][12.X] implémenter DataFrame.hint
- [SPARK-41338] [SC-117170][sql] Résoudre les références externes et les colonnes normales dans le même lot d’analyseurs
-
[SPARK-41436] [SC-117805][connect][PYTHON] Implémenter des fonctions
collection: A~C - [SPARK-41445] [SC-117802][connect] Implémenter DataFrameReader.parquet
-
[SPARK-41452] [SC-117865][sql]
to_chardoit retourner null lorsque le format est Null - [SPARK-41444] [SC-117796][connect] Prise en charge de read.json()
- [SPARK-41398] [SC-117508][sql] Assouplir les contraintes sur Storage-Partitioned Join lorsque les clés de partition après le filtrage de l’exécution ne correspondent pas
-
[SPARK-41228] [SC-117169][sql] Renommer & Améliorer le message d’erreur pour
COLUMN_NOT_IN_GROUP_BY_CLAUSE. -
[SPARK-41381] [SC-117593][connect][PYTHON] Implémenter des fonctions
count_distinctetsum_distinct - [SPARK-41433] [SC-117596][connect] Rendre BatchSize e flèche maximale configurable
- [SPARK-41397] [SC-117590][connect][PYTHON] Implémenter une partie des fonctions string/binary
-
[SPARK-41382] [SC-117588][connect][PYTHON] Implémenter la fonction
product -
[SPARK-41403] [SC-117595][connect][PYTHON] Implémenter
DataFrame.describe - [SPARK-41366] [SC-117580][connect] DF.groupby.agg() doit être compatible
- [SPARK-41369] [SC-117584][connect] Ajouter une connexion commune au fichier jar ombré des serveurs
- [SPARK-41411] [SC-117562][ss] Correctif de bogue de prise en charge de l’opérateur multi-état
- [SPARK-41176] [SC-116630][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implémenter des fonctions d’agrégation
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implémenter des fonctions normales
- [SPARK-41305] [SC-117411][connect] Amélioration de la documentation pour le proto de commande
- [SPARK-41372] [SC-117427][connect][PYTHON] Implémenter DataFrame TempView
- [SPARK-41379] [SC-117420][ss][PYTHON] Fournir une session Spark clonée dans DataFrame dans la fonction utilisateur pour le récepteur foreachBatch dans PySpark
- [SPARK-41373] [SC-117405][sql][ERROR] Renommer CAST_WITH_FUN_SUGGESTION en CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][sql] Refactoriser
ColumnVectorUtils#populateméthode pour utiliserPhysicalDataTypeau lieu deDataType - [SPARK-41355] [SC-117423][sql] Contrôle du problème de validation de nom de table hive
-
[SPARK-41390] [SC-117429][sql] Mettez à jour le script utilisé pour générer
registerfonction dansUDFRegistration -
[SPARK-41206] [SC-117233][sc-116381][SQL] Renommer la classe d’erreur
_LEGACY_ERROR_TEMP_1233enCOLUMN_ALREADY_EXISTS - [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implémenter des fonctions mathématiques
- [SPARK-40970] [SC-117308][connect][PYTHON] Liste de support[Colonne] pour l’argument join
- [SPARK-41345] [SC-117178][connect] Ajouter un indicateur pour connecter Proto
- [SPARK-41226] [SC-117194][sql][12.x] Refactoriser les types Spark en introduisant des types physiques
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Ajouter une prise en charge de base pour DataFrameWriter
- [SPARK-41347] [SC-117173][connect] Ajout du cast au proto d’expression
- [SPARK-41323] [SC-117128][sql] Prise en charge de current_schema
- [SPARK-41339] [SC-117171][sql] Fermer et recréer le lot d’écriture RocksDB au lieu de simplement effacer
- [SPARK-41227] [SC-117165][connect][PYTHON] Implémenter la jointure croisée DataFrame
-
[SPARK-41346] [SC-117176][connect][PYTHON] Implémenter des fonctions
ascetdesc - [SPARK-41343] [SC-117166][connect] Déplacer l’analyse FunctionName côté serveur
- [SPARK-41321] [SC-117163][connect] Prise en charge du champ cible pour UnresolvedStar
-
[SPARK-41237] [SC-117167][sql] Réutiliser la classe d’erreur
UNSUPPORTED_DATATYPEpour_LEGACY_ERROR_TEMP_0030 -
[SPARK-41309] [SC-116916][sql] Réutiliser
INVALID_SCHEMA.NON_STRING_LITERALau lieu de_LEGACY_ERROR_TEMP_1093 -
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Optimiser l’utilisation du constructeur de
StructType - [SPARK-41335] [SC-117135][connect][PYTHON] Prise en charge de IsNull et IsNotNull dans la colonne
-
[SPARK-41332] [SC-117131][connect][PYTHON] Correction de
nullOrderingdansSortOrder - [SPARK-41325] [SC-117132][connect][12.X] Correction d’avg() manquant pour GroupBy sur DF
-
[SPARK-41327] [SC-117137][core] Correction de
SparkStatusTracker.getExecutorInfosen changeant les informations On/OffHeapStorageMemory -
[SPARK-41315] [SC-117129][connect][PYTHON] Implémenter
DataFrame.replaceetDataFrame.na.replace - [SPARK-41328] [SC-117125][connect][PYTHON] Ajouter une API logique et de chaîne à la colonne
-
[SPARK-41331] [SC-117127][connect][PYTHON] Ajouter
orderByetdrop_duplicates -
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternaldoit s’assurer que le verrou est déverrouillé correctement - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Refactoriser « Column » pour la compatibilité des API
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Implémenter DataFrame.withColumnRenamed
-
[SPARK-41221] [SC-116607][sql] Ajouter la classe d’erreur
INVALID_FORMAT - [SPARK-41272] [SC-116742][sql] Attribuer un nom à la classe d’erreur _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql] Réutiliser
INVALID_SCHEMAau lieu de_LEGACY_ERROR_TEMP_1227 - [SPARK-41260] [SC-116880][python][SS][12.x] Convertir des instances NumPy en types primitifs Python dans la mise à jour de GroupState
-
[SPARK-41174] [SC-116609][core][SQL] Propager une classe d’erreur aux utilisateurs pour
formatsurto_binary()non valide(s) - [SPARK-41264] [SC-116971][connect][PYTHON] Prise en charge d’autres types de données par le littéral
- [SPARK-41326] [SC-116972] [CONNECT] Correction de l’entrée manquante de déduplication
- [SPARK-41316] [SC-116900][sql] Activer la récursivité de la fin dans la mesure du possible
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Prise en charge des expressions de chaîne dans le filtre.
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implémenter DataFrame.withColumn(s)
- [SPARK-41182] [SC-116632][sql] Attribuer un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] Migrer les erreurs d’options de mappage vers les classes d’erreur
- [SPARK-40940] [SC-115993][12.x] Supprimer les vérificateurs d’opérateurs multi-états pour les requêtes de streaming.
- [SPARK-41310] [SC-116885][connect][PYTHON] Implémenter DataFrame.toDF
- [SPARK-41179] [SC-116631][sql] Attribuer un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] BHJ LeftAnti ne met pas à jour numOutputRows lorsque codegen est désactivé
-
[SPARK-41148] [SC-116878][connect][PYTHON] Implémenter
DataFrame.dropnaetDataFrame.na.drop -
[SPARK-41217] [SC-116380][sql] Ajouter la classe d’erreur
FAILED_FUNCTION_CALL - [SPARK-41308] [SC-116875][connect][PYTHON] Améliorer DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Homogénéiser le comportement pour SparkSession.range()
- [SPARK-41306] [SC-116860][connect] Amélioration de la documentation proto d’expression connect
- [SPARK-41280] [SC-116733][connect] Implémenter DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] Le schéma non défini est interprété comme un schéma
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Renommer RemoteSparkSession
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas ne doit pas retourner le DataFrame Pandas facultatif
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explaindoit imprimer et renvoyer Aucun - [SPARK-41278] [SC-116732][connect] Supprimer l'attribut QualifiedAttribute inutilisé dans Expression.proto
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Supprimer la conversion redondante des collections basée sur le code Scala 2.13
- [SPARK-41261] [SC-116718][python][SS] Correction du problème pour applyInPandasWithState lorsque les colonnes de clés de regroupement ne sont pas placées dans l’ordre depuis le tout premier
- [SPARK-40872] [SC-116717][3.3] Revenir au bloc de shuffle d'origine lorsque un segment de shuffle fusionné par push est de taille nulle
- [SPARK-41114] [SC-116628][connect] Prise en charge des données locales pour LocalRelation
-
[SPARK-41216] [SC-116678][connect][PYTHON] Implémenter
DataFrame.{isLocal, isStreaming, printSchema, inputFiles} - [SPARK-41238] [SC-116670][connect][PYTHON] Prise en charge d’autres types de données intégrés
-
[SPARK-41230] [SC-116674][connect][PYTHON] Supprimer
strdu type d’expression Aggregate - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Implémentation optimisée de collecte basée sur Arrow pour le streaming du serveur vers le client
- [SPARK-41222] [SC-116625][connect][PYTHON] Unifier les définitions de saisie
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Désactiver les fonctions non prises en charge.
-
[SPARK-41201] [SC-116526][connect][PYTHON] Implémenter
DataFrame.SelectExprdans le client Python - [SPARK-41203] [SC-116258] [CONNECT] Prise en charge de Dataframe.tansform dans le client Python.
-
[SPARK-41213] [SC-116375][connect][PYTHON] Implémenter
DataFrame.__repr__etDataFrame.dtypes -
[SPARK-41169] [SC-116378][connect][PYTHON] Implémenter
DataFrame.drop - [SPARK-41172] [SC-116245][sql] Migrer l’erreur ref ambiguë vers une classe d’erreur
- [SPARK-41122] [SC-116141][connect] L'API Explain peut prendre en charge différents modes
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] Améliorer l’inférence de type PySpark dans _merge_type méthode
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogénéiser la version protobuf sur le serveur Spark Connect pour utiliser la même version principale.
- [SPARK-35531] [SC-116409][sql] Mettre à jour les statistiques de table hive sans convertir inutilement
- [SPARK-41154] [SC-116289][sql] Mise en cache incorrecte des relations pour les requêtes avec spécifications de voyage dans le temps
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implémenter
DataFrame.isEmpty -
[SPARK-41135] [SC-116400][sql] Renommer
UNSUPPORTED_EMPTY_LOCATIONenINVALID_EMPTY_LOCATION - [SPARK-41183] [SC-116265][sql] Ajouter une API d’extension pour planifier la normalisation de la mise en cache
- [SPARK-41054] [SC-116447][ui][CORE] Support RocksDB en tant que KVStore dans l’interface utilisateur dynamique
- [SPARK-38550] [SC-115223]Rétablir « [SQL][core] Utiliser un magasin basé sur un disque pour enregistrer plus d’informations de débogage pour l’interface utilisateur en direct »
-
[SPARK-41173] [SC-116185][sql] Déplacer
require()en dehors des constructeurs d’expressions de chaîne - [SPARK-41188] [SC-116242][core][ML] Définir executorEnv OMP_NUM_THREADS pour qu'il soit égal à spark.task.cpus par défaut pour les processus JVM de l'exécuteur Spark
-
[SPARK-41130] [SC-116155][sql] Renommer
OUT_OF_DECIMAL_TYPE_RANGEenNUMERIC_OUT_OF_SUPPORTED_RANGE - [SPARK-41175] [SC-116238][sql] Attribuer un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] Réduire la conversion de collection lors de la création d’AttributeMap
-
[SPARK-41139] [SC-115983][sql] Améliorer la classe d’erreur :
PYTHON_UDF_IN_ON_CLAUSE - [SPARK-40657] [SC-115997][protobuf] Exiger l’ombrage pour le fichier jar de classe Java, améliorer la gestion des erreurs
- [SPARK-40999] [SC-116168] Propagation d’indicateurs vers des sous-requêtes
- [SPARK-41017] [SC-116054][sql] Prise en charge de l’élagage de colonnes avec plusieurs filtres non déterministes
- [SPARK-40834] [SC-114773][sql] Utiliser SparkListenerSQLExecutionEnd pour suivre l’état SQL final dans l’interface utilisateur
-
[SPARK-41118] [SC-116027][sql]
to_number/try_to_numberdoit retournernulllorsque le format estnull - [SPARK-39799] [SC-115984][sql] DataSourceV2 : Afficher l’interface du catalogue
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Éviter l’incorporation de Spark Connect dans la version binaire Apache Spark
- [SPARK-41048] [SC-116043][sql] Améliorer le partitionnement et l’ordre de sortie avec le cache AQE
- [SPARK-41198] [SC-116256][ss] Corriger les métriques dans la requête de diffusion en continu ayant la source de diffusion en continu CTE et DSv1
- [SPARK-41199] [SC-116244][ss] Résoudre le problème des métriques lorsque la source de diffusion en continu DSv1 et la source de streaming DSv2 sont co-utilisées
- [SPARK-40957] [SC-116261][sc-114706] Ajouter un cache de mémoire dans HDFSMetadataLog
- [SPARK-40940] Rétablir « [SC-115993] Supprimer les vérificateurs d’opérateurs à plusieurs états pour les requêtes de diffusion en continu ».
-
[SPARK-41090] [SC-116040][sql] Lever une exception pour
db_name.view_namelors de la création d’une vue temporaire par l’API dataset -
[SPARK-41133] [SC-116085][sql] Intégrer
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISIONdansNUMERIC_VALUE_OUT_OF_RANGE - [SPARK-40557] [SC-116182][sc-111442][CONNECT] Coder 9 validations de sauvegarde
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] Spark Connect construit en tant que plug-in de pilote avec des dépendances masquées
- [SPARK-41096] [SC-115812][sql] Prise en charge de la lecture du type FIXED_LEN_BYTE_ARRAY Parquet
-
[SPARK-41140] [SC-115879][sql] Renommer la classe d’erreur
_LEGACY_ERROR_TEMP_2440enINVALID_WHERE_CONDITION - [SPARK-40918] [SC-114438][sql] Incompatibilité entre FileSourceScanExec et Orc et ParquetFileFormat sur la production de sortie en colonnes
- [SPARK-41155] [SC-115991][sql] Ajouter un message d’erreur à SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Supprimer les vérificateurs d’opérateurs à plusieurs états pour les requêtes de diffusion en continu.
-
[SPARK-41098] [SC-115790][sql] Renommer
GROUP_BY_POS_REFERS_AGG_EXPRenGROUP_BY_POS_AGGREGATE - [SPARK-40755] [SC-115912][sql] Migrer les échecs de vérification de type de la mise en forme des nombres vers des classes d’erreur
-
[SPARK-41059] [SC-115658][sql] Renommer
_LEGACY_ERROR_TEMP_2420enNESTED_AGGREGATE_FUNCTION - [SPARK-41044] [SC-115662][sql] Convertir DATATYPE_MISMATCH. UNSPECIFIED_FRAME à INTERNAL_ERROR
-
[SPARK-40973] [SC-115132][sql] Renommer
_LEGACY_ERROR_TEMP_0055enUNCLOSED_BRACKETED_COMMENT
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 12.1.
Environnement du système
- Système d’exploitation : Ubuntu 20.04.5 LTS
- Java : Zulu 8.64.0.19-CA-linux64
- Scala : 2.12.14
- Python : 3.9.5
- R : 4.2.2
- Delta Lake : 2.2.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| cfp2-cffi | 21.3.0 | cfc2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
| attributs | 21.4.0 | appel de retour | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
| bellesoupe4 | 4.11.1 | noir | 22.3.0 | blanchir | 4.1.0 |
| boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
| cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| cliquez | 8.0.4 | chiffrement | 3.4.8 | cycliste | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
| décorateur | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
| Conversion de docstring en markdown | 0.11 | points d'entrée | 0,4 | en cours d’exécution | 0.8.3 |
| aperçu des facettes | 1.0.0 | validation rapide des schémas JSON (fastjsonschema) | 2.16.2 | verrouillage de fichier | 3.8.2 |
| outils de police | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets (un outil de widgets interactifs pour Python) | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
| jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 |
| kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | désaccorder | 0.8.4 |
| mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| carnet de notes | 6.4.8 | numpy | 1.21.5 | empaquetage | 21,3 |
| Pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
| spécification de chemin | 0.9.0 | dupe | 0.5.2 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Oreiller | 9.0.1 | pépin | 21.2.4 |
| platformdirs | 2.6.0 | tracé | 5.6.0 | enfiché | 1.0.0 |
| prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
| pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
| requêtes | 2.27.1 | requests-unixsocket | 0.2.0 | corde | 0.22.0 |
| s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy (bibliothèque Python pour le calcul scientifique) | 1.7.3 |
| seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
| Six | 1.16.0 | Soupsieve | 2.3.1 | ssh-import-id | 5.10 |
| données en pile | 0.2.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.13.2 | ténacité | 8.0.1 |
| terminé | 0.13.1 | chemin de test | 0.5.0 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornade | 6.1 |
| Traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
| mises à niveau automatiques | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | webencodings | 0.5.1 | c’est quoi le patch | 1.0.3 |
| roue | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de la capture du Microsoft CRAN datée du 11 novembre 2022.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 10.0.0 | Askpass | 1.1 | assertthat | 0.2.1 |
| rétroportage | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| morceau | 4.0.4 | bit 64 | 4.0.5 | objet BLOB | 1.2.3 |
| botte | 1.3-28 | brasser | 1,0-8 | brio | 1.1.3 |
| balai | 1.0.1 | bslib | 0.4.1 | cachemire | 1.0.6 |
| appelant | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
| Chron | 2.3-58 | classe | 7.3-20 | Cli | 3.4.1 |
| Presse-papiers | 0.8.0 | horloge | 0.6.1 | Grappe | 2.1.4 |
| codetools | 0.2-18 | espace colorimétrique | 2.0-3 | commonmark | 1.8.1 |
| compilateur | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
| pastel | 1.5.2 | Références | 1.3.2 | friser | 4.3.3 |
| data.table | 1.14.4 | ensembles de données | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digérer | 0.6.30 | éclairage vers le bas | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| ellipse | 0.3.2 | évaluer | 0,18 | fans | 1.0.3 |
| couleurs | 2.1.1 | carte rapide | 1.1.0 | fontawesome | 0.4.0 |
| condamnés | 0.5.2 | foreach | 1.5.2 | étranger | 0.8-82 |
| forger | 0.2.0 | Fs | 1.5.2 | futur | 1.29.0 |
| future.apply | 1.10.0 | se gargariser | 1.2.1 | produits génériques | 0.1.3 |
| Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4-1-4 | globales | 0.16.1 |
| colle | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | graphisme | 4.2.2 | grDevices | 4.2.2 |
| grille | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gt ;pouvant être | 0.3.1 | casque de sécurité | 1.2.0 | havre | 2.5.1 |
| supérieur | 0.9 | Hms | 1.1.2 | outils HTML | 0.5.3 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
| Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.6 | itérateurs | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2,23-20 | knitr | 1.40 |
| étiquetage | 0.4.2 | plus tard | 1.3.0 | treillis | 0.20-45 |
| lave | 1.7.0 | cycle de vie | 1.0.3 | listenv | 0.8.0 |
| lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
| MASSE | 7.3-58 | Matrice | 1.5-1 | mémorisation | 2.0.1 |
| méthodes | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallèle | 4.2.2 |
| parallèlement | 1.32.1 | pilier | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.7 | louange | 1.0.0 |
| joliesunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | progrès | 1.2.2 |
| progresseur | 0.11.0 | promesses | 1.2.0.1 | proto | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.7.2 | purrr | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
| randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.3 | readxl | 1.4.1 | recettes | 1.0.3 |
| match retour | 1.0.1 | revanche2 | 2.1.2 | Télécommandes | 2.4.2 |
| exemple reproductible | 2.0.2 | remodeler2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.2 | écailles | 1.2.1 |
| sélecteur | 0,4-2 | informations sur la session | 1.2.2 | forme | 1.4.6 |
| brillant | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
| SparkR | 3.3.1 | spatial | 7.3-11 | Cannelures | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | statistiques | 4.2.2 |
| statistiques4 | 4.2.2 | chaine | 1.7.8 | stringr | 1.4.1 |
| survie | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.5 | mise en forme du texte | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | changement d'heure | 0.1.1 | date-heure | 4021.106 |
| tinytex | 0.42 | outils | 4.2.2 | tzdb | 0.3.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 2.1.6 | utf8 | 1.2.2 |
| utils | 4.2.2 | Identifiant unique universel (UUID) | 1.1:0 | vctrs | 0.5.0 |
| viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
| vibrisse | 0,4 | flétrir | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.6 | fermeture éclair | 2.2.2 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.189 |
| com.amazonaws | aws-java-sdk-millisecondes | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | Outil de support aws-java-sdk | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | courant | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.caféine | caféine | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.2 |
| io.dropwizard.metrics | métriques de base | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | servlets de métriques | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | netty-resolver | 4.1.74.Final |
| io.netty | netty-tcnative-classes | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | Netty Transport Native Epoll pour Linux AArch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | transport-netty-natif-commun-unix | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collectionneur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1,2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 7.0.0 |
| org.apache.arrow | arrow-memory-core | 7.0.0 |
| org.apache.arrow | arrow-memory-netty | 7.0.0 |
| org.apache.arrow | vecteur-flèche | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.10.0 |
| org.apache.curator | curateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur-recettes | 2.13.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.9 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | lierre | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orc-shims | 1.7.6 |
| org.apache.parquet | colonne de parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
| org.apache.parquet | encodage parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | structures-de-format-parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,20 |
| org.apache.yetus | annotations du public | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.46.v20220331 |
| org.eclipse.jetty | serveur jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-client | 2,36 |
| org.glassfish.jersey.core | jersey-commun | 2,36 |
| org.glassfish.jersey.core | jersey-server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | hibernate-validateator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.joddd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | Cales | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,2 |
| org.scalanlp | breeze_2.12 | 1,2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark.spark | inutilisé | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | chats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly.openssl | 1.0.7.Version Finale |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |