Partager via


Databricks Runtime 13.3 LTS

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 13.3 LTS avec Apache Spark 3.4.1.

Databricks a publié cette version en août 2023.

Remarque

LTS (Long Term Support) signifie que cette version bénéficie d’un support à long terme. Consultez Cycle de vie de la version de Databricks Runtime LTS.

Conseil

Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin du support (EoS), consultez Fin de support des notes de publication des versions de Databricks Runtime. Les versions EoS de Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.

Améliorations et nouvelles fonctionnalités

Prise en charge de Scala pour des clusters partagés

Les clusters partagés avec Unity Catalog prennent désormais en charge Scala en cas d’utilisation de Databricks Runtime 13.3 et versions ultérieures.

La liste blanche pour les scripts init, les JAR et les coordonnées Maven sur les clusters standards de Unity Catalog (anciennement clusters partagés) est en aperçu public.

Vous pouvez maintenant utiliser le Unity Catalog allowlist pour contrôler l'installation des scripts init, des JARs et des coordonnées Maven sur les instances de calcul en mode d'accès standard exécutant Databricks Runtime 13.3 et supérieur. Consultez Bibliothèques de listes d’autorisation et scripts init sur le calcul en mode d’accès standard (anciennement mode d’accès partagé).

La prise en charge des volumes pour les scripts init et les fichiers JAR est en préversion publique

Vous pouvez désormais utiliser des volumes de catalogue Unity pour stocker des scripts init et des jars dans un environnement de calcul utilisant des modes d’accès dédiés ou standard exécutant Databricks Runtime 13.3 et versions ultérieures. Consultez Où peuvent être installés les scripts d’initialisation ? et Bibliothèques à l’échelle du calcul.

Casts sécurisés activés par défaut pour les opérations Delta Lake

Les opérations Delta UPDATE et MERGE entraînent désormais une erreur lorsque les valeurs ne peuvent pas être castées en toute sécurité vers le type dans le schéma de la table cible. Toutes les casts implicites dans Delta suivent désormais spark.sql.storeAssignmentPolicy au lieu de spark.sql.ansi.enabled. Consultez Conformité ANSI dans Databricks Runtime.

Présentation des étiquettes avec Unity Catalog

Avec Databricks Runtime 13.3 LTS et versions ultérieures, vous pouvez appliquer des étiquettes à vos objets sécurisables. Les étiquettes vous aident à organiser les objets sécurisables, et simplifient la recherche et la découverte de vos ressources de données. Consultez Appliquer des étiquettes aux objets sécurisables Unity Catalog.

Databricks Runtime renvoie une erreur si un fichier est modifié entre la planification et l’appel de la requête

Les requêtes Databricks Runtime renvoient désormais une erreur si un fichier est mis à jour entre la planification et l’appel de la requête. Avant ce changement, Databricks Runtime lisait un fichier entre ces phases, ce qui aboutissait parfois à des résultats imprévisibles.

Remplacement de schéma de bloc en cas d’utilisation de remplacements de partition dynamique

Vous ne pouvez pas définir overwriteSchema sur true en association avec les remplacements de partition dynamique dans Delta Lake. Cela empêche toute altération éventuelle de la table liée à une incompatibilité de schéma. Consultez Remplacements de partition dynamique.

Intégrer l’API copyFile dans dbutils.fs.cp

La commande de copie dbutils, dbutils.fs.cp, est désormais optimisée pour accélérer la copie. Grâce à cette amélioration, les opérations de copie peuvent être jusqu’à 100 fois plus rapides, selon la taille du fichier. La fonctionnalité est disponible sur tous les systèmes de fichiers accessibles dans Azure Databricks, notamment pour les volumes de catalogue Unity et les montages de système de fichiers Databricks.

Prise en charge du pilote ODBC/JDBC Databricks

Azure Databricks prend en charge les pilotes ODBC et JDBC publiés au cours des 2 dernières années. Téléchargez le dernier pilote sur Télécharger le pilote ODBC et Télécharger le pilote JDBC.

Prise en charge des marqueurs de paramètre (positionnel) sans nom

L’API SparkSession.sql() prend désormais en charge les requêtes paramétrisées utilisant la syntaxe ? en plus des requêtes paramétrisées utilisant la syntaxe :parm. Consultez les marqueurs de paramètre.

Activer l’étiquetage des colonnes de série chronologique

Vous pouvez désormais étiqueter des colonnes de série chronologique quand vous créez des contraintes de clé primaire.

Nouvelles fonctions SQL bitmap

Azure Databricks fournit désormais un ensemble de fonctions pouvant être utilisées pour mapper des valeurs numériques intégrales à un bitmap et les agréger. Cela peut servir à précalculer le nombre de valeurs distinctes.

Fonctions de chiffrement améliorées

Les fonctions aes_encrypt, aes_decrypt et try_aes_decrypt ont été améliorées avec la prise en charge des vecteurs d’initialisation (IV) et des données supplémentaires authentifiées (AAD).

Prise en charge de Unity Catalog pour REFRESH FOREIGN

Vous pouvez maintenant mettre à jour des catalogues, des schémas et des tables étrangers dans Unity Catalog en utilisant REFRESH FOREIGN CATALOG, REFRESH FOREIGN SCHEMA et REFRESH FOREIGN TABLE. Voir REFRESH FOREIGN (CATALOG, SCHEMAet TABLE).

INSERT PAR NOM

Lorsque vous insérez des lignes dans une table, vous pouvez désormais laisser Azure Databricks mapper automatiquement les colonnes et les champs de la requête source aux colonnes de la table par leur nom. Voir INSERT INTO.

Partager des vues matérialisées avec Delta Sharing

L’instruction ALTER SHARE prend désormais en charge les vues matérialisées.

Dernières modifications

Modifications apportées à la conversion implicite lors du stockage de lignes dans une table avec MERGE INTO et UPDATE

Azure Databricks suit désormais la configuration spark.sql.storeAssignmentPolicy pour le transtypage implicite lors du stockage des lignes dans une table. La valeur par défaut ANSI génère une erreur lors du stockage de valeurs qui dépassent. Précédemment, les valeurs auraient été stockées comme NULL par défaut.

Comme dans l’exemple suivant, vous pouvez traiter les dépassements en réécrivant la table pour utiliser un type plus large pour la colonne à l’origine de l’erreur.

-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
    'delta.minReaderVersion' = '2',
    'delta.minWriterVersion' = '5',
    'delta.columnMapping.mode' = 'name'
  )

-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT

-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old

-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old

Modifications de l’inférence de schéma Parquet

Lors de l’inférence de schémas à partir de fichiers Parquet non écrits par Spark, les colonnes d’horodatage int64 annotées avec isAdjustedToUTC=false sont désormais par défaut du type TIMESTAMP_NTZ. Auparavant, celles-ci étaient inférées avec le type TIMESTAMP. Cette mise à jour améliore la précision du mappage des types Parquet aux types SQL Spark.

Par conséquent, la lecture de données à partir de fichiers Parquet externes dans une table Delta peut entraîner une erreur si la fonctionnalité de timestampNtz n’est pas activée. L’erreur se présente comme suit :

Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.

Pour maintenir le comportement précédent et empêcher cette erreur, vous pouvez définir le paramètre de configuration Spark spark.sql.parquet.inferTimestampNTZ.enabled sur false.

Mises à niveau de la bibliothèque

  • Bibliothèques Python mises à niveau :
    • debugpy, versions 1.5.1 à 1.6.0
    • distlib, versions 0.3.6 à 0.3.7
    • fastjsonschema, versions 2.16.3 à 2.18.0
    • filelock de la version 3.12.0 à la version 3.12.2
  • Bibliothèques R mises à niveau :
    • SparkR, versions 3.4.0 à 3.4.1
  • Bibliothèques Java mises à niveau :
    • org.apache.orc.orc-core, versions 1.8.3-shaded-protobuf à 1.8.4-shaded-protobuf
    • org.apache.orc.orc-mapreduce, versions 1.8.3-shaded-protobuf à 1.8.4-shaded-protobuf
    • org.apache.orc.orc-shims, versions 1.8.3 à 1.8.4
    • org.eclipse.jetty.jetty-client, versions 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-continuation de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-http de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-io de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-jndi de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-plus de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-proxy de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-security de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-server de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-servlet de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-servlets de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-util de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-util-ajax de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-webapp de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.jetty-xml de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-api de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-client de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-common de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-server de 9.4.50.v20221201 à 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-servlet, versions 9.4.50.v20221201 à 9.4.51.v20230217
    • org.xerial.snappy.snappy-java, versions 1.1.8.4 à 1.1.10.1

Apache Spark

Databricks Runtime 13.3 comprend Apache Spark 3.4.1. Cette version comprend l’ensemble des correctifs et améliorations Spark figurant dans Databricks Runtime 13.2 (EoS) ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :

  • Vous pouvez maintenant définir la variable d’environnement de cluster SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12 pour utiliser le connecteur Spark-snowflake v2.12.0.
  • [SPARK-43380] [DBRRM-383] Rétablir "[SC-133100][sql] Corriger le type de données Avro conversion...
  • [SPARK-44504] [Backport][13.2][13.x][13.3] Déchargement du fournisseur, pour forcer la fermeture de l’instance de base de données et libérer les ressources en cas d’erreur de la tâche de maintenance
  • [SPARK-44059] [SC-137023] Ajout de la prise en charge des arguments nommés par l’analyseur pour les fonctions intégrées
  • [SPARK-44485] [SC-137653][sql] Optimize TreeNode.generateTreeString
  • [SPARK-42944] [SC-137164][ss][PYTHON] Streaming ForeachBatch en Python
  • [SPARK-44446] [SC-136994][python] Ajouter des vérifications pour les cas spéciaux de type de liste attendu
  • [SPARK-44439] [SC-136973][connect][SS]Correction de listListeners pour ne retourner que les identifiants au client
  • [SPARK-44216] [SC-136941] [PYTHON] Rendre l’API assertSchemaEqual publique
  • [SPARK-44201] [SC-136778][connect][SS]Ajouter la prise en charge de l’écouteur de streaming dans Scala pour Spark Connect
  • [SPARK-43915] [SC-134766][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[2438-2445]
  • [SPARK-43798] Annuler « [SC-133990][sql][PYTHON] Prendre en charge les fonctions de table définies par l’utilisateur Python »
  • [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
  • [SPARK-44476] [SC-137169][core][CONNECT] Correction de la population d’artefacts pour un JobArtifactState sans artefacts associés
  • [SPARK-44269] [SC-135817][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[2310-2314]
  • [SPARK-44395] [SC-136744][sql] Mettre à jour les arguments TVF pour exiger des parenthèses autour de l’identificateur après TABLE le mot clé
  • [SPARK-43915] [SC-134766][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[2438-2445]
  • [SPARK-43995] [SC-136794][spark-43996][CONNECT] Ajouter la prise en charge de UDFRegistration au client Scala Connect
  • [SPARK-44109] [SC-134755][core] Supprimer les emplacements préférés en double de chaque partition RDD
  • [SPARK-44169] [SC-135497][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[2300-2304]
  • [SPARK-41487] [SC-135636][sql] Attribuer un nom à _LEGACY_ERROR_TEMP_1020
  • [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
  • [SPARK-44153] [SC-134977][core][UI] Prendre en charge la colonne Heap Histogram dans l’onglet Executors
  • [SPARK-44044] [SC-135695][ss] Améliorer le message d’erreur pour les fonctions Window avec streaming
  • [SPARK-43914] [SC-135414][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[2433-2437]
  • [SPARK-44217] [SC-136805][python] Autoriser la précision personnalisée pour l’égalité approximative fp
  • [SPARK-44370] [SC-136575][connect] Migrer la génération distante de Buf alpha vers des plugins distants
  • [SPARK-44410] [SC-136930][python][CONNECT] Définir une session active dans create, pas seulement getOrCreate
  • [SPARK-44348] [SAS-1910][sc-136644][13.X][core][CONNECT][python] Reenable test_artifact avec les modifications pertinentes
  • [SPARK-44145] [SC-136698][sql] Rappel lors de l’exécution
  • [SPARK-44264] [SC-136870][python][ML] Classe FunctionPickler
  • [SPARK-43986] [SC-135623][sql] Créer des classes d’erreur pour les échecs d’appel de fonction HyperLogLog
  • [SPARK-44139] [SC-134967][sql] Rejeter complètement les filtres appliqués dans les opérations de fusion basées sur des groupes
  • [SPARK-44338] [SC-136718][sql] Correction du message d’erreur d’incompatibilité du schéma de vue
  • [SPARK-44208] [SC-135505][core][SQL] Affecter des noms de classes d’erreur clairs pour une logique qui utilise directement des exceptions
  • [SPARK-44364] [SC-136773] [PYTHON] Ajout de la prise en charge du type de données List[Row] pour les données attendues
  • [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils doit appliquer ResolveTimeZone
  • [SPARK-43389] [SC-136772][sql] Ajout d’une vérification null pour l’option lineSep
  • [SPARK-44388] [SC-136695][connect] Correction du problème de cast protobuf lorsque l’instance UDF est mise à jour
  • [SPARK-44352] [SC-136373][connect] Remettre sameType et ses associés dans DataType.
  • [SPARK-43975] [SC-134265][sql] DataSource V2 : Gérer les UPDATE commandes pour les sources basées sur un groupe
  • [SPARK-44360] [SC-136461][sql] Prise en charge de l'élagage du schéma dans les opérations MERGE basées sur delta
  • [SPARK-44138] [SC-134907][sql] Interdire les expressions non déterministes, les sous-requêtes et les agrégats dans les conditions MERGE
  • [SPARK-43321] [SC-136678][connect][Suivi] Meilleurs noms pour les API utilisés dans le client Scala joinWith
  • [SPARK-44263] [SC-136447][connect] Prise en charge des intercepteurs personnalisés
  • [SPARK-39851] [SC-123383][sql] Améliorer l’estimation des statistiques de jointure si l'un des côtés peut maintenir l’unicité
  • [SPARK-44390] [SC-136677][core][SQL] Renommer SparkSerDerseUtils en SparkSerDeUtils
  • [SPARK-44004] [SC-134751][sql] Attribuer un nom et améliorer le message d'erreur pour les erreurs anciennes fréquentes.
  • [SPARK-44322] [SC-136204][connect] Faire en sorte que le parser utilise SqlApiConf plutôt que SQLConf.
  • [SPARK-44271] [SC-136347][sql] Déplacer les fonctions de valeurs par défaut de StructType vers ResolveDefaultColumns
  • [SPARK-44332] [SC-136413][core][WEBUI] Correction de l’erreur de tri de la colonne d’ID d’exécuteur sur la page de l’interface utilisateur des exécuteurs
  • [SPARK-44282] [SC-135948][connect] Préparer l’analyse DataType à utiliser dans le client Scala Spark Connect
  • [SPARK-44349] [SC-136581][r] Ajouter des fonctions mathématiques à SparkR
  • [SPARK-44397] [SC-136647][python] Expose assertDataFrameEqual dans pyspark.testing.utils
  • [SPARK-42981] [SC-136620][connect] Ajouter une sérialisation de flèche directe
  • [SPARK-44373] [SC-136577][sql] Encapsuler avec withActive pour l'API Dataset avec logique d'analyse afin de faire fonctionner la configuration liée à l'analyse
  • [SPARK-44340] [SC-136574][sql] Définir la logique informatique via l’API PartitionEvaluator et l’utiliser dans WindowGroupLimitExec
  • Activer PandasSQLStringFormatter.vformat pour fonctionner avec Spark Connect
  • [SPARK-44325] [SC-136572][sql] Utiliser l’API PartitionEvaluator dans SortMergeJoinExec
  • [SPARK-44315] [SC-136171][sql][CONNECT] Déplacer DefinedByConstructorParams vers sql/api
  • [SPARK-44275] [SC-136184][connect] Ajouter un mécanisme de nouvelle tentative configurable à Scala Spark Connect
  • [SPARK-44326] [SC-136208][sql][CONNECT] Déplacer les utils utilisés du client Scala vers les modules communs
  • [SPARK-43321] [SC-136156][connect] Dataset#Joinwith
  • [SPARK-44343] [SC-136372][connect] Préparer ScalaReflection pour le passage à SQL/API
  • [SPARK-44313] [SC-136081][sql] Correction de la validation de l’expression de colonne générée lorsqu’il existe une colonne char/varchar dans le schéma
  • [SPARK-43963] [SC-134145][sql] DataSource V2 : Gérer les commandes MERGE pour les sources basées sur un groupe
  • [SPARK-44363] [SC-136433] [PYTHON] Affichage du pourcentage de lignes différentes dans la comparaison de DataFrames
  • [SPARK-44251] [SC-136432][sql] Définir la valeur nullable correctement sur la clé de jointure fusionnée dans le cadre d'une jointure USING complète externe
  • [SPARK-43948] [SC-133366][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[0050|0057|0058|0059]
  • [SPARK-44329] [SC-136326][connect][PYTHON] Ajouter hll_sketch_agg, hll_union_agg, to_varchar, try_aes_decrypt à Scala et Python
  • [SPARK-44351] [SC-136353][sql] Rendre une simplification syntaxique
  • [SPARK-44281] [SC-135963][sql] Déplacer l'erreur de compilation de requête utilisée par DataType vers sql/api en tant que DataTypeErrors
  • [SPARK-44283] [SC-136109][connect] Déplacer l’origine vers SQL/API
  • [SPARK-43926] [SC-135590][connect][PYTHON] Ajouter array_agg, array_size, cardinalité, count_min_sketch, mask, named_struct, json à Scala et Python
  • [SPARK-44327] [SC-136187][sql][CONNECT] Ajouter des fonctions any et len à Scala
  • [SPARK-44290] [SC-136300][connect] Fichiers et archives basés sur des sessions dans Spark Connect
  • [SPARK-44061] [SC-136299][python] Ajout de la fonction utilitaire assertDataFrameEqual
  • [SPARK-44331] [SC-136324][connect][PYTHON] Ajouter des fonctions bitmap à Scala et Python
  • [SPARK-44342] [SC-136334][sql] Remplacer SQLContext par SparkSession pour GenTPCDSData
  • [SPARK-42583] [SC-124190][sql] Supprimer la jointure externe s’il s’agit de toutes les fonctions d’agrégation distinctes
  • [SPARK-44333] [SC-136206][connect][SQL] Move EnhancedLogicalPlan out of ParserUtils
  • [SPARK-43824] [SC-132655][spark-43825] [SQL] Affecter des noms à la classe d’erreur _LEGACY_ERROR_TEMP_128[1-2]
  • [SPARK-43939] [SC-134602][connect][PYTHON] Ajouter des fonctions try_* à Scala et Python
  • [SPARK-44193] [SC-135886][connect] Implémenter l’interception des exceptions GRPC pour la conversion
  • [SPARK-44284] [SC-136107][connect] Créer un système conf simple pour sql/api
  • [SPARK-43913] [SC-133368][sql] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[2426-2432]
  • [SPARK-44291] Rétablir « [SC-135924][spark-43416][CONNECT] Corriger le schéma incorrect pour la requête de plage »
  • [SPARK-44312] [SC-136185][connect][PYTHON] Autoriser à définir un agent utilisateur avec une variable d’environnement
  • [SPARK-44154] [SC-136060] Implémenter des fonctions bitmap
  • [SPARK-43885] [SC-133996][sql] DataSource V2 : Gérer les commandes MERGE pour les sources delta
  • [SPARK-43924] [SC-135161][connect][PYTHON] Ajouter des fonctions diverses à Scala et Python
  • [SPARK-43969] [SC-134556][sql] Refactoriser et affecter des noms à la classe d’erreur _LEGACY_ERROR_TEMP_1170
  • [SPARK-44185] [SC-135730][sql] Correction de la qualification de chemin incohérente entre les opérations de catalogue et de données
  • [SPARK-44073] [SC-134562][sql][PYTHON][connect] Ajouter des fonctions d’heure de date à Scala, Python et Connect - partie 2
  • [SPARK-43942] [SC-134527][connect][PYTHON] Ajouter des fonctions de chaîne à Scala et Python - partie 1
  • [SPARK-44266] [SC-135813][sql] Déplacer Util.truncatedString vers le sql/api
  • [SPARK-44195] [SC-135722][r] Ajouter des API JobTag à SparkR SparkContext
  • [SPARK-44200] [SC-135736][sql] Prise en charge TABLE de la règle d’analyseur d’arguments pour TableValuedFunction
  • [SPARK-44254] [SC-135709][sql] Déplacer les Erreurs d'exécution de requête utilisées par DataType vers sql/api comme Erreurs de type de données
  • [SPARK-44291] [SC-135924][spark-43416][CONNECT] Correction d’un schéma incorrect pour la requête de plage
  • [SPARK-43922] [SC-135612][sql] Ajouter la prise en charge des paramètres nommés dans l’analyseur pour les appels de fonction
  • [SPARK-44300] [SC-135882][connect] Correction du nettoyage des artefacts pour limiter l’étendue de suppression aux artefacts spécifiques à la session
  • [SPARK-44293] [SC-135849][connect] Correction de l’URI non valide pour les JAR personnalisés dans Spark Connect
  • [SPARK-44215] [SC-135850][shuffle] Si les blocs num sont 0, le serveur doit lever une exception RuntimeException
  • [SPARK-44245] [SC-135851][python] pyspark.sql.dataframe sample() doctests doivent être à des fins d'illustration uniquement.
  • [SPARK-44274] [SC-135814][connect] Déplacer les fonctions utilitaires d’ArtifactManager vers common/utils
  • [SPARK-44194] [SC-135815][python][CORE] Ajouter des API JobTag à PySpark SparkContext
  • [SPARK-42828] [SC-135733][python][SQL] Annotations de type Python plus explicites pour GroupedData
  • [SPARK-44079] [SC-135486][sql] Correction ArrayIndexOutOfBoundsException lors de l’analyse du tableau en tant que struct à l’aide du mode PERMISSIVE avec enregistrement endommagé
  • [SPARK-44255] [SC-135809][sql] Déplacer StorageLevel vers common/utils
  • [SPARK-42169] [SC-135795] [SQL] Implémentation de la génération de code pour la fonction to_csv (StructsToCsv)
  • [SPARK-44249] [SC-135719][sql][PYTHON] Refactoriser PythonUDTFRunner pour envoyer son type de retour séparément
  • [SPARK-43353] [SC-132734][python] Migrer les erreurs de session restantes dans la classe d’erreur
  • [SPARK-44211] [SC-135718][python][CONNECT] Implémenter la méthode SparkSession.is_stopped
  • [SPARK-42784] [SC-135691] doit toujours créer un subDir quand le nombre de subDir dans le répertoire de fusion est inférieur à celui configuré
  • [SPARK-41599] [SC-135616] Fuite de mémoire dans FileSystem.CACHE pendant l’envoi d’applications à un cluster sécurisé en utilisant InProcessLauncher
  • [SPARK-44241] [SC-135613][core] Définir par erreur io.connectionTimeout/connectionCreationTimeout sur zéro ou un nombre négatif entraînera des créations et destructions incessantes d'exécuteurs.
  • [SPARK-44133] [SC-134795][13.x][PYTHON] Mettre à niveau MyPy de 0.920 à 0.982
  • [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde au format JSON
  • [SPARK-44188] [SC-135173][core] Supprimer une méthode inutile resetAllPartitions dans ActiveJob
  • [SPARK-43757] [SC-135418][connect] Modifier la compatibilité du client de la liste d'autorisation à la liste de refus
  • [SPARK-43474] [SC-135521] [SS] [CONNECT] Ajout d’un accès spark connect aux Dataframes d’exécution par ID.
  • [SPARK-44183] [SC-135209][python] Augmenter la version minimale à 4.0.0
  • [SPARK-44248] [SC-1355554][ss][SQL][kafka] Ajouter un emplacement préféré dans la source kafka v2
  • [SPARK-43929] [SC-134510][sql][PYTHON][connect] Ajouter des fonctions d’heure de date à Scala, Python et l’API Connect - partie 1
  • [SPARK-44161] [SC-135326][connect] Gérer l’entrée de ligne pour les fonctions définies par l’utilisateur
  • [SPARK-44227] [SC-135520][sql] Extraire SchemaUtils de StructField
  • [SPARK-44064] [SC-135116][core][SQL] Ajouter une nouvelle apply fonction à NonFateSharingCache
  • [SPARK-44171] [SC-135269][sql] Assigner des noms à la classe d'erreurs LEGACY_ERROR_TEMP[2279-2282] & supprimer certaines classes d'erreurs inutilisées
  • [SPARK-44056] [SC-134758][sql] Inclure le nom de la UDF dans le message d’erreur en cas d’échec lors de l’exécution, lorsqu’il est disponible.
  • [SPARK-44205] [SC-135422][sql] Extraire le code Catalyst de DecimalType
  • [SPARK-44220] [SC-135484][sql] Déplacer StringConcat vers sql/api
  • [SPARK-44146] [SC-135230][connect] Isoler les fichiers jars et les fichiers de classes de la session Spark Connect
  • [SPARK-44206] [SC-135411][sql] DataSet.selectExpr scope Session.active
  • [SPARK-40850] [SC-135417][sql] Correction des requêtes interprétées dans les cas de test qui peuvent exécuter la génération de code
  • [SPARK-44204] [SC-135253][sql][HIVE] Ajouter l'appel manquant recordHiveCall pour getPartitionNames
  • [SPARK-44237] [SC-135485][core] Simplifie la logique de recherche du constructeur DirectByteBuffer
  • [SPARK-44189] [SC-135170][connect][PYTHON] Prise en charge des paramètres positionnels par sql()
  • [SPARK-44140] [SC-134893][sql][PYTHON] Prise en charge des paramètres positionnels dans Python sql()
  • [SPARK-44164] [SC-135158][sql] Extraire la méthode toAttribute de StructField vers la classe Util
  • [SPARK-44178] [SC-135113][connect] Prise en charge de paramètres positionnels dans sql()
  • [SPARK-43208] [SC-128955][sql][HIVE] IsolatedClassLoader doit fermer la classe d’barrière InputStream après avoir lu
  • [SPARK-43063] [SC-128382][sql] df.show handle Null doit imprimer NULL au lieu de null
  • [SPARK-42539] [SC-124464][sql][HIVE] Éliminer le chargeur de classes distinct lors de l’utilisation de la version Hive intégrée pour le client de métadonnées
  • [SPARK-43992] [SC-133645][sql][PYTHON][connect] Ajouter un modèle facultatif pour Catalog.listFunctions
  • [SPARK-44066] [SC-134878][sql] Prise en charge des paramètres positionnels dans Scala/Java sql()
  • [SPARK-44078] [SC-134869][connect][CORE] Ajouter le support du classloader/de l’isolation des ressources
  • [SPARK-43470] [SC-135187][core] Ajouter des informations sur le système d’exploitation, Java et Python dans le journal des applications
  • [SPARK-43136] [SC-135238][connect][Followup] Ajout de tests pour KeyAs
  • [SPARK-39740] [SC-135093][ui] : Mise à niveau de la chronologie vis vers la version 7.7.2 pour corriger CVE-2020-28487
  • [SPARK-42298] [SC-133952][sql] Attribuer le nom à _LEGACY_ERROR_TEMP_2132
  • [SPARK-43961] [SC-133459][sql][PYTHON][connect] Ajouter un modèle facultatif pour Catalog.listTables
  • [SPARK-44026] [SC-135181] Autoriser la fourniture de la valeur initiale pour SQLMetrics
  • [SPARK-44202] [SC-135244][core] Ajouter des API JobTag à JavaSparkContext
  • [SPARK-44030] [SC-135237][sql] Implémenter DataTypeExpression pour offrir Unapply pour l'expression
  • [SPARK-43876] Annuler « [SC-134603][sql] Activer le hachage rapide pour les requêtes distinctes »
  • [SPARK-40082] [SC-126437] Planification de mergeFinalize pendant une nouvelle tentative de fusion par poussée shuffleMapStage sans exécution de tâche
  • [SPARK-43888] [SC-132893][core] Déplacer la journalisation vers common/utils
  • [SPARK-43474] [SC-134400] [SS] [CONNECT] Ajout de SessionHolder à SparkConnectPlanner
  • [SPARK-43944] [SC-134490][connect][PYTHON] Ajouter des fonctions de chaîne à Scala et Python - partie 2
  • [SPARK-44134] [SC-134954][core] Correction des ressources de paramètre (GPU/FPGA) sur 0 lorsqu’elles sont définies dans spark-defaults.conf
  • [SPARK-44142] [SC-134947][python] Remplacer le type par tpe dans l’utilitaire pour convertir les types Python en types Spark
  • [SPARK-43952] [SC-134695][core][CONNECT][sql] Ajouter des API SparkContext pour l’annulation de requête par balise
  • [SPARK-44000] [SC-133634][sql] Ajouter un indicateur pour désactiver la diffusion et la réplication d’un côté de jonction
  • [SPARK-43937] [SC-134362][connect][PYTHON] Ajouter ifnull,isnotnull,equal_null,nullif,nvl,nvl2 à Scala et Python
  • [SPARK-43624] [13.x][sc-134557][PS][connect] Ajouter EWM à SparkConnectPlanner.
  • [SPARK-44040] [SC-134366][sql] Correction des statistiques de calcul lorsque le nœud AggregateExec est situé au-dessus de QueryStageExec
  • [SPARK-43485] [SC-131264][sql] Correction du message d’erreur pour l’argument unit des fonctions add/diff datetime
  • [SPARK-43794] [SC-132561][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1335
  • [SPARK-43511] [SC-134749][connect][SS]Mise en œuvre des API MapGroupsWithState et FlatMapGroupsWithState pour Spark Connect
  • [SPARK-43529] [SQL] Prise en charge des expressions CREATE/REPLACE TABLE OPTIONS + nettoyage du code
  • [SPARK-44106] [SC-134750][python][CONNECT] Ajouter __repr__ pour GroupedData
  • [SPARK-42299] [SC-133190] Attribution d’un nom à _LEGACY_ERROR_TEMP_2206
  • [SPARK-43290] [SC-134388][sql] Ajoute la prise en charge de aes_encrypt IVs et AAD
  • [SPARK-43932] [SC-134138][sql][PYTHON][connect] Ajouter des current fonctions similaires à Scala et Python
  • [SPARK-43934] [SC-134108][sql][PYTHON][connect] Ajouter des fonctions regexp_* à Scala et Python
  • [SPARK-44107] [SC-134746][connect][PYTHON] Masquer les méthodes column non prises en charge de la saisie semi-automatique
  • [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde au format JSON
  • [SPARK-43773] [SC-132659][connect][PYTHON] Implémenter les fonctions « levenshtein(str1, str2[, seuil]) » dans le client Python
  • [SPARK-44125] [SC-134745][r] Prise en charge de Java 21 dans SparkR
  • [SPARK-43919] [SC-133374][sql] Extraire la fonctionnalité JSON du Row
  • [SPARK-43769] [SC-132520][connect] Implémenter les fonctions « levenshtein(str1, str2[, seuil]) »
  • [SPARK-44012] [SC-134662][ss] KafkaDataConsumer pour imprimer un état de lecture
  • [SPARK-43876] [SC-134603][sql] Activer le hachage rapide pour les requêtes distinctes
  • [SPARK-44024] [SC-134497][sql] Modifier pour utiliser map lorsque unzip est utilisé uniquement pour extraire un seul élément
  • [SPARK-43928] [SC-134467][sql][PYTHON][connect] Ajouter des opérations de bits à Scala, Python et Connect API
  • [SPARK-44092] [SC-134506][core] Ajouter Utils.isJavaVersionAtLeast21 et créer core une passe de module avec Java 21
  • [SPARK-44018] [SC-134512][sql] Améliorer le code de hachage et la méthode toString pour certaines expressions de la DS V2.
  • [SPARK-44105] [SC-134582][sql] LastNonNull doit être résolu de façon paresseuse
  • [SPARK-44081] [SC-134434] Simplifier un peu l’API PartitionedFileUtil
  • [SPARK-43791] [SC-132531][sql] Affecter un nom à la classe d’erreur _LEGACY_ERROR_TEMP_1336
  • [SPARK-44071] [SC-134435] Définir et utiliser non résolu[Feuille|Unary]Node traits.
  • [SPARK-43852] [SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] Affecter des noms à la classe d’erreur _LEGACY_ERROR_TEMP_2418-2425
  • [SPARK-43742] [SC-132684][sql] Refactoriser la résolution des valeurs de colonne par défaut
  • [SPARK-43493] [SC-132063][sql] Ajouter un argument de distance maximale à la fonction levenshtein()
  • [SPARK-44075] [SC-134382][connect] Rendre transformStatCorr paresseux
  • [SPARK-43925] [SC-134381][sql][PYTHON][connect] Ajouter certaines fonctions, bool_or, bool_and, every à Scala, Python et Connect
  • [SPARK-43931] [SC-134158][sql][PYTHON][connect] Ajouter des fonctions make_* à Scala et Python
  • [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] Affecter des noms à la classe d’erreur _LEGACY_ERROR_TEMP_24[06-10]
  • [SPARK-43962] [SC-133367][sql] Améliorer les messages d’erreur : CANNOT_DECODE_URL, , CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE, CANNOT_PARSE_DECIMAL, CANNOT_READ_FILE_FOOTER. CANNOT_RECOGNIZE_HIVE_TYPE
  • [SPARK-43938] [SC-133887][connect][PYTHON] Ajouter des fonctions to_* à Scala et Python
  • [SPARK-44055] [SC-134321][core] Supprimer les fonctions redondantes override de CheckpointRDD
  • [SPARK-43802] [SC-132597][sql] Correction du codegen pour unhex et unbase64 avec failOnError=true
  • [SPARK-43798] [SC-133990][sql][PYTHON] Prise en charge des fonctions de table définies par l’utilisateur Python
  • [SPARK-43941] [SC-134286][sql][PYTHON][connect] Ajouter any_value, approx_percentile, count_if, first_value, histogram_numeric, last_value, reduce à l'API Scala, Python et Connect.
  • [SPARK-43380] [SC-133100][sql] Correction des problèmes de conversion de type de données Avro pour éviter de produire des résultats incorrects
  • [SPARK-43803] [SC-133729] [SS] [CONNECT] Amélioration d’awaitTermination() pour gérer les déconnexions du client
  • [SPARK-43179] [SC-129070][shuffle] Autoriser les applications à contrôler si leurs métadonnées sont enregistrées dans la base de données par le service de shuffle externe

Prise en charge du pilote ODBC/JDBC Databricks

Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Veuillez télécharger les pilotes récemment publiés et mettre à niveau (téléchargez ODBC, téléchargez JDBC).

Consultez les mises à jour de maintenance databricks Runtime 13.3.

Environnement du système

  • Système d’exploitation : Ubuntu 22.04.2 LTS
    • Remarque : Il s’agit de la version Ubuntu utilisée par les conteneurs Databricks Runtime. Les conteneurs DBR s’exécutent sur les machines virtuelles du fournisseur de cloud, qui peuvent utiliser une autre version Ubuntu ou une distribution Linux.
  • Java : Zulu 8.70.0.23-CA-linux64
  • Scala : 2.12.15
  • Python : 3.10.12
  • R : 4.2.2
  • Delta Lake : 2.4.0

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
appdirs 1.4.4 cfp2-cffi 21.3.0 cfc2-cffi-bindings 21.2.0
asttokens 2.2.1 attributs 21.4.0 appel de retour 0.2.0
bellesoupe4 4.11.1 noir 22.6.0 blanchir 4.1.0
clignotant 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 cliquez 8.0.4 chiffrement 37.0.1
cycliste 0.11.0 Cython 0.29.32 Kit de développement logiciel Databricks (SDK) 0.1.6
dbus-python 1.2.18 debugpy 1.6.0 décorateur 5.1.1
defusedxml 0.7.1 distlib 0.3.7 Conversion de docstring en markdown 0,12
points d’entrée 0,4 en cours d’exécution 1.2.0 aperçu des facettes 1.0.3
validation rapide des schémas JSON (fastjsonschema) 2.18.0 verrou de fichier 3.12.2 outils de police 4.25.0
googleapis-common-protos 1.56.4 grpcio 1.48.1 grpcio-status 1.48.1
httplib2 0.20.2 idna 3.3 importlib-metadata 4.6.4
ipykernel 6.17.1 ipython 8.10.0 ipython-genutils 0.2.0
ipywidgets (un outil de widgets interactifs pour Python) 7.7.2 Jedi 0.18.1 Jeepney (véhicule de transport public philippin) 0.7.1
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.2.0
jsonschema 4.16.0 jupyter-client 7.3.4 jupyter_core 4.11.2
jupyterlab-pygments 0.1.2 jupyterlab-widgets (widgets pour JupyterLab) 1.0.0 porte-clés 23.5.0
kiwisolver 1.4.2 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 MarkupSafe 2.0.1 matplotlib 3.5.2
matplotlib-inline 0.1.6 Mccabe 0.7.0 désaccorder 0.8.4
more-itertools 8.10.0 mypy-extensions 0.4.3 nbclient 0.5.13
nbconvert 6.4.4 nbformat 5.5.0 nest-asyncio 1.5.5
nodeenv 1.8.0 carnet de notes 6.4.12 numpy 1.21.5
oauthlib 3.2.0 empaquetage 21,3 Pandas 1.4.4
pandocfilters 1.5.0 parso 0.8.3 spécification de chemin 0.9.0
dupe 0.5.2 pexpect 4.8.0 pickleshare 0.7.5
Oreiller 9.2.0 pépin 22.2.2 platformdirs 2.5.2
tracé 5.9.0 enfiché 1.0.0 prometheus-client 0.14.1
prompt-toolkit 3.0.36 protobuf 3.19.4 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 8.0.0 pycparser 2.21 pydantic 1.10.6
pyflakes 3.0.1 Pygments 2.11.2 PyGObject 3.42.1
PyJWT 2.3.0 pyodbc 4.0.32 pyparsing 3.0.9
pyright 1.1.294 pyrsistent 0.18.0 python-dateutil 2.8.2
python-lsp-jsonrpc 1.0.0 python-lsp-server 1.7.1 pytoolconfig 1.2.2
pytz 2022.1 pyzmq 23.2.0 requêtes 2.28.1
corde 1.7.0 s3transfer 0.6.0 scikit-learn 1.1.1
scipy (bibliothèque Python pour le calcul scientifique) 1.9.1 seaborn 0.11.2 SecretStorage 3.3.1
Send2Trash 1.8.0 setuptools 63.4.1 Six 1.16.0
Soupsieve 2.3.1 ssh-import-id 5.11 données en pile 0.6.2
statsmodels, une bibliothèque Python pour la modélisation statistique 0.13.2 ténacité 8.1.0 terminé 0.13.1
chemin de test 0.6.0 threadpoolctl 2.2.0 tokenize-rt 4.2.1
tomli 2.0.1 tornade 6.1 Traitlets 5.1.1
typing_extensions 4.3.0 ujson 5.4.0 mises à niveau automatiques 0.1
urllib3 1.26.11 virtualenv 20.16.3 wadllib 1.3.6
wcwidth 0.2.5 webencodings 0.5.1 c’est quoi le patch 1.0.2
roue 0.37.1 widgetsnbextension 3.6.1 yapf 0.31.0
zipp 1.0.0

Bibliothèques R installées

Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit sur 2023-02-10 : https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
flèche 10.0.1 Askpass 1.1 assertthat 0.2.1
rétroportage 1.4.1 base 4.2.2 base64enc 0.1-3
morceau 4.0.5 bit 64 4.0.5 objet BLOB 1.2.3
botte 1.3-28 brasser 1,0-8 brio 1.1.3
balai 1.0.3 bslib 0.4.2 cachemire 1.0.6
appelant 3.7.3 caret 6.0-93 cellranger 1.1.0
Chron 2.3-59 classe 7.3-21 Cli 3.6.0
Presse-papiers 0.8.0 horloge 0.6.1 Grappe 2.1.4
codetools 0.2-19 espace colorimétrique 2.1-0 commonmark 1.8.1
compilateur 4.2.2 config 0.3.1 cpp11 0.4.3
pastel 1.5.2 Références 1.3.2 friser 5.0.0
data.table 1.14.6 jeux de données 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 digérer 0.6.31 éclairage vers le bas 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
ellipse 0.3.2 évaluer 0.20 fans 1.0.4
couleurs 2.1.1 carte rapide 1.1.0 fontawesome 0.5.0
condamnés 1.0.0 foreach 1.5.2 étranger 0.8-82
forger 0.2.0 Fs 1.6.1 futur 1.31.0
future.apply 1.10.0 se gargariser 1.3.0 produits génériques 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globales 0.16.2
colle 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 graphisme 4.2.2 grDevices 4.2.2
grille 4.2.2 gridExtra 2.3 gsubfn 0,7
gt ;pouvant être 0.3.1 casque de sécurité 1.2.0 havre 2.5.1
supérieur 0.10 Hms 1.1.2 outils HTML 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Id 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 itérateurs 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2,23-20 knitr 1.42
étiquetage 0.4.2 plus tard 1.3.0 treillis 0.20-45
lave 1.7.1 cycle de vie 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 Markdown 1,5
MASSE 7.3-58.2 Matrice 1.5-1 mémorisation 2.0.1
méthodes 4.2.2 mgcv 1.8-41 mime 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modèleur 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 parallèle 4.2.2
parallèlement 1.34.0 pilier 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr (un package logiciel pour le traitement de données) 1.8.8 éloge 1.0.0
joliesunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 progrès 1.2.2
progresseur 0.13.0 promesses 1.2.0.1 proto 1.0.0
mandataire 0,4-27 p.s. 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest (algorithme d'apprentissage automatique) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 recettes 1.0.4
match retour 1.0.1 revanche2 2.1.2 Télécommandes 2.4.2
exemple reproductible 2.0.2 remodeler2 1.4.4 rlang 1.0.6
rmarkdown 2.20 RODBC 1,3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 écailles 1.2.1
sélecteur 0,4-2 informations sur la session 1.2.2 forme 1.4.6
brillant 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.1 spatial 7.3-15 Cannelures 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 Statistiques 4.2.2
statistiques4 4.2.2 chaine 1.7.12 stringr 1.5.0
survie 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 mise en forme de texte 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 changement d'heure 0.2.0 date-heure 4022.108
tinytex 0.44 outils 4.2.2 tzdb 0.3.0
vérificateur d'URL 1.0.1 Utilise ça 2.1.6 utf8 1.2.3
utils 4.2.2 Identifiant unique universel (UUID) 1.1:0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
vibrisse 0.4.1 flétrir 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 fermeture éclair 2.2.2

Bibliothèques Java et Scala installées (version de cluster Scala 2.12)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) 1.12.390
com.amazonaws aws-java-sdk-millisecondes 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws Outil de support aws-java-sdk 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics flux 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.2.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb plugin de compilation_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Camarade de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.caféine caféine 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 natifs
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib système_natif-java 1.1 natifs
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 natifs
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1 natifs
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone annotations_sujettes_aux_erreurs 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava goyave 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger profileur 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf (compression utilisant l'algorithme LZF) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentilles_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-analyseurs 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections (bibliothèque de collections communes) commons-collections (bibliothèque de collections communes) 3.2.2
commons-dbcp commons-dbcp 1.4
téléchargement de fichiers communs téléchargement de fichiers communs 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresseur d'air 0,21
io.delta delta-sharing-spark_2.12 0.7.1
io.dropwizard.metrics métriques de base 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics métriques-vérifications de santé 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics Metrics-JMX 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics servlets de métriques 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty transport-netty-natif-commun-unix 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collecteur 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine conserve 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk (module d'ingestion de Snowflake) 0.9.6
net.snowflake snowflake-jdbc 3.13.33
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant fourmi 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow format de flèche 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow vecteur-flèche 11.0.0
org.apache.avro Avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons texte commun 1.10.0
org.apache.curator curateur-client 2.13.0
org.apache.curator curateur-framework 2.13.0
org.apache.curator curateur-recettes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory (mémoire de croquis de données) 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop environnement d'exécution du client Hadoop 3.3.4
org.apache.hive hive-beeline (outil de ligne de commande d'Apache Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Composant commun de hive-shims 2.3.9
org.apache.hive.shims programmeur de cales de hive 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy lierre 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.4-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.4-shaded-protobuf
org.apache.orc orc-shims 1.8.4
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,22
org.apache.yetus annotations du public 0.13.0
org.apache.zookeeper gardien de zoo 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilateur commun 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.51.v20230217
org.eclipse.jetty jetty-continuation 9.4.51.v20230217
org.eclipse.jetty jetty-http 9.4.51.v20230217
org.eclipse.jetty jetty-io 9.4.51.v20230217
org.eclipse.jetty jetty-jndi 9.4.51.v20230217
org.eclipse.jetty jetty-plus 9.4.51.v20230217
org.eclipse.jetty jetty-proxy 9.4.51.v20230217
org.eclipse.jetty jetty-security (sécurité de quai) 9.4.51.v20230217
org.eclipse.jetty serveur jetty 9.4.51.v20230217
org.eclipse.jetty jetty-servlet 9.4.51.v20230217
org.eclipse.jetty jetty-servlets 9.4.51.v20230217
org.eclipse.jetty jetty-util 9.4.51.v20230217
org.eclipse.jetty jetty-util-ajax 9.4.51.v20230217
org.eclipse.jetty jetty-webapp 9.4.51.v20230217
org.eclipse.jetty jetty-xml 9.4.51.v20230217
org.eclipse.jetty.websocket WebSocket-API 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-client 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-common 9.4.51.v20230217
org.eclipse.jetty.websocket serveur websocket 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-servlet 9.4.51.v20230217
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de conteneur jersey 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2,36
org.glassfish.jersey.core jersey-commun 2,36
org.glassfish.jersey.core jersey-server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator hibernate-validateator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Annotations 17.0.0
org.joda joda-convert 1.7
org.joddd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenèse 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Cales 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatible avec scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel chats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly.openssl 1.1.3.Finale
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.1
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1