Partager via


Databricks Runtime 9.0 (EoS)

Remarque

La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 9.0 et Databricks Runtime 9.0 Photon, avec Apache Spark 3.1.2. Databricks a publié cette version en août 2021. Photon est en préversion publique.

Correction

Une version précédente de ces notes de mise à jour indiquait à tort que les dépendances d’Apache Parquet avaient été mises à niveau de la version 1.10 à la version 1.12. En fait, les dépendances de Parquet restent à la version 1.10. La note de publication incorrecte a été supprimée.

Améliorations et nouvelles fonctionnalités

Nouvelle API pour les statistiques récapitulatives des jeux de données (préversion publique)

La nouvelle commande dbutils.data.summarize de Databricks Utilities vous permet de lancer une tâche Spark qui calcule automatiquement des statistiques de résumé sur les colonnes d’un DataFrame Spark, puis affiche les résultats de manière interactive. Cette fonction est disponible dans Scala et Python. Consultez Utilitaire de données (dbutils.data).

Configuration de source de données externe plus facile pour le connecteur Azure Synapse

La nouvelle option externalDataSource du connecteur Interroger des données dans Azure Synapse Analytics vous permet d’utiliser une source de données externe préconfigurée pour effectuer des lectures depuis une base de données Azure Synapse. L’option externalDataSource supprime la nécessité de l’autorisation CONTROL qui était requise précédemment.

Lorsque vous définissez externalDataSource, la source de données externe et l’option tempDir utilisées pour configurer le stockage temporaire doivent référencer le même conteneur dans le compte de stockage.

Limiter éventuellement la session à une durée spécifiée pour le connecteur Amazon Redshift

La nouvelle option fs.s3a.assumed.role.session.duration dans la Query Amazon Redshift à l’aide du connecteur Azure Databricks vous permet de paramétrer éventuellement une durée pour la session lorsque Redshift accède au compartiment S3 temporaire avec un rôle supposé.

Chargeur automatique

Liste des fichiers optimisés

Les optimisations du chargeur automatique offrent des améliorations des performances et des économies de coûts lors de la liste des répertoires imbriqués dans le stockage cloud, notamment AWS S3, Azure Data Lake Storage (ADLS) et Google Cloud Storage (GCS).

Par exemple, si vous aviez des fichiers chargés en tant que /some/path/YYYY/MM/DD/HH/fileName, pour trouver tous les fichiers dans ces répertoires, le chargeur automatique effectuait une énumération parallèle de tous les sous-répertoires, ce qui provoquait 365 (par jour) * 24 (par heure) = 8760 appels d'API de répertoire LIST au stockage sous-jacent pour chaque répertoire annuel. En recevant une réponse aplatie de ces systèmes de stockage, Auto Loader réduit le nombre d'appels API au nombre de fichiers du système de stockage divisé par le nombre de résultats retournés par chaque appel API (1000 pour S3, 5000 pour ADLS et 1024 pour GCS), réduisant considérablement vos coûts de cloud.

Stockage des données image optimisé

Le chargeur automatique peut désormais détecter automatiquement les données d’image qui sont ingérées et optimiser son stockage dans les tables Delta pour améliorer les performances de lecture et d’écriture. Voir Ingérer des données image ou binaires dans Delta Lake pour l'apprentissage automatique.

Images miniatures pour les fichiers binaires (Aperçu public)

Les images au format binaryFile chargées ou enregistrées en tant que tables Delta à l’aide d’Auto Loader sont associées à des annotations afin que les miniatures d’image s’affichent lorsque vous affichez la table dans un notebook Azure Databricks. Pour plus d’informations, consultez Images.

Les événements DirectoryRename activent le traitement atomique de plusieurs fichiers

Les flux de chargement automatique créés dans Databricks Runtime 9.0 et versions ultérieures sur Azure Data Lake Storage configurent les notifications d’événements de fichier pour inclure le renommage de répertoire et écouter les événements RenameDirectory. Vous pouvez utiliser des renommages de répertoires pour que plusieurs fichiers apparaissent de manière atomique dans Auto Loader.

SQL

Exclure des colonnes dans SELECT * (Aperçu Public)

SELECT * prend désormais en charge un mot clé EXCEPT , qui vous permet d’exclure des colonnes de niveau supérieur spécifiées de l’expansion. Par exemple, à partir d’une table avec un schéma SELECT * EXCEPT (b) FROM tbl, (a, b, c) s’étend à (a, c).

Fonctions scalaires SQL (Aperçu public)

CREATE FUNCTION prend désormais en charge les fonctions scalaires SQL. Vous pouvez créer des fonctions scalaires qui acceptent un ensemble d’arguments et retournent une valeur de type scalaire unique. Le corps de la fonction SQL peut être n’importe quelle expression. Par exemple :

CREATE FUNCTION square(x DOUBLE) RETURNS DOUBLE RETURN x * x;
SELECT square(2);

Pour plus d’informations, consultez CREATE FUNCTION (SQL et Python).

Référencer les alias et les colonnes précédents dans les sous-requêtes FROM (préversion publique)

Les sous-requêtes dans la clause FROM d’une requête peuvent désormais être précédées du mot clé LATERAL, ce qui leur permet de référencer des alias et des colonnes dans les éléments FROM précédents. Par exemple :

SELECT * FROM t1, LATERAL (SELECT * FROM t2 WHERE t1.c1 = t2.c1)

Le mot clé LATERAL prend en charge INNER, CROSS et LEFT (OUTER) JOIN.

Consultez Paramètres et Paramètres.

Support R

Bibliothèques R délimitées aux notebooks (Préversion publique)

Les bibliothèques Python délimitées au notebook vous permettent d’installer des bibliothèques Python et de créer un environnement délimité à une session de notebook. Ces bibliothèques n’affectent pas les autres notebooks s’exécutant sur le même cluster. Les bibliothèques sont disponibles sur le pilote et sur les nœuds Worker, ce qui vous permet de les référencer dans les fonctions définies par l’utilisateur. Voir Bibliothèques R délimitées aux notebooks.

Messages d’avertissement dans les notebooks R

La valeur par défaut de l’option warn est désormais définie sur 1 dans les notebooks R. Par conséquent, tous les avertissements sont désormais exposés dans le cadre du résultat de la commande. Pour en savoir plus sur l’option warn, consultez Paramètres des options.

Éviter la phase de restauration par progression en spécifiant l’état initial pour le traitement avec état de streaming structuré

Vous pouvez maintenant indiquer un état initial défini par l’utilisateur pour le traitement avec état de la diffusion en continu structurée à l’aide de l’opérateur [flat]MapGroupsWithState.

Consultez Spécifier l’état initial pour mapGroupsWithState.

Une implémentation de faible lecture aléatoire de la commande MERGE INTO de Delta est désormais disponible (préversion publique)

La commande Delta MERGE INTO bénéficie d'une nouvelle implémentation qui réduit le déplacement des lignes non modifiées. Cela améliore les performances de la commande et permet de préserver les regroupements existants sur la table, comme l'ordre Z. Pour activer la fusion faible aléatoire, définissez spark.databricks.delta.merge.enableLowShuffle sur true. Consultez Fusion faible et aléatoire sur Azure Databricks.

Résolution des bogues

  • Vous ne pouvez plus remplacer un affichage en créant un affichage portant le même nom.

Mises à niveau de la bibliothèque

  • Bibliothèques Python mises à niveau :
    • certifi de 2021.5.30 à 2020.12.5
    • chardet de 3.0.4 à 4.0.0
    • Cython de 0.29.21 à 0.29.23
    • élément décoratif de 4.4.2 à 5.0.6
    • ipython de 7.19.0 à 7.22.0
    • joblib de 0.17.0 à 1.0.1
    • jupyter-client de 6.1.7 à 6.1.12
    • jupyter-core de 4.6.3 à 4.7.1
    • kiwisolver de 1.3.0 à 1.3.1
    • matplotlib de 3.2.2 à 3.4.2
    • pandas de 1.1.5 à 1.2.4
    • pip de 20.2.4 à 21.0.1
    • prompt-toolkit de 3.0.8 à 3.0.17
    • protobuf de 3.17.3 à 3.17.2
    • ptyprocess de 0.6.0 à 0.7.0
    • pyarrow de 1.0.1 à 4.0.0
    • Pygments de 2.7.2 à 2.8.1
    • pyzmq de 19.0.2 à 20.0.0
    • requêtes de 2.24.0 à 2.25.1
    • s3transfer de 0.3.6 à 0.3.7
    • scikit-learn de 0.23.2 à 0.24.1
    • scipy de 1.5.2 à 1.6.2
    • seaborn 0.10.0 à 0.11.1
    • setuptools de 50.3.1 à 52.0.0
    • statsmodels de 0.12.0 à 0.12.2
    • tornade de 6.0.4 à 6,1
    • virtualenv de 20.2.1 à 20.4.1
    • wheel de 0.35.1 à 0.36.2
  • Bibliothèques R mises à niveau :
    • Matrix de 1.3-3 à 1.3-4

Apache Spark

Databricks Runtime 9.0 comprend Apache Spark 3.1.2. Cette version comprend l’ensemble des correctifs et améliorations Spark figurant dans Databricks Runtime 8.4 (EoS) ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :

  • [SPARK-35886] [SQL][3.1] PromotePrecision ne doit pas remplacer genCodePromotePrecision ne doit pas remplacer genCode
  • [SPARK-35879] [CORE][shuffle] Correction du ralentissement des performances provoqué par collectFetchRequests
  • [SPARK-35817] [SQL][3.1] Restaurer les performances des requêtes sur les tables Avro larges
  • [SPARK-35841] [ SQL] La conversion d'une chaîne en type décimal ne fonctionne pas si le...
  • [SPARK-35783] [SQL] Définir la liste des colonnes de lecture dans la configuration de la tâche afin de réduire la lecture des données ORC
  • [SPARK-35576] [SQL][3.1] Biffer les informations sensibles dans le résultat de la commande Set
  • [SPARK-35449] [SQL][3.1] Extraire uniquement les expressions communes à partir de valeurs CaseWhen si elseValue est défini
  • [SPARK-35288] [SQL] StaticInvoke doit trouver la méthode sans correspondance exacte des classes d’arguments
  • [SPARK-34794] [SQL] Résoudre les problèmes de nom de variable lambda dans les fonctions tableau imbriquées
  • [SPARK-35278] [SQL] Invoke doit trouver la méthode avec le nombre correct de paramètres
  • [SPARK-35226] [SQL] Prise en charge de l’option refreshKrb5Config dans les sources de données JDBC
  • [SPARK-35244] [SQL] Invoke doit lever l’exception d’origine
  • [SPARK-35213] [SQL] Conserver l’ordre correct des structs imbriqués dans les opérations withField chaînées
  • [Spark-35087] [UI] Certaines colonnes de la table des métriques agrégées par l’exécuteur de la page phase-detail ne sont pas correctes.
  • [SPARK-35168] [SQL] mapred.reduce.tasks doit être shuffle.partitions et non pas adaptive.coalescePartitions.initialPartitionNum
  • [Spark-35127] [UI] Lorsque nous passons d'une page de détail d'étape à une autre, l'élément d'entrée de la page nouvellement ouverte peut être vide.
  • [SPARK-35142] [PYTHON][ml] Corriger le type de retour incorrect pour rawPredictionUDF dans OneVsRestModel
  • [SPARK-35096] [SQL] SchemaPruning doit respecter la configuration spark.sql.caseSensitive
  • [SPARK-34639] [SQL][3.1] RelationalGroupedDataset.alias ne doit pas créer UnresolvedAlias
  • [SPARK-35080] [SQL] Autoriser uniquement un sous-ensemble de prédicats d’égalité corrélés lorsqu’une sous-requête est agrégée
  • [SPARK-35117] [UI] Modifiez la barre de progression pour mettre en surbrillance le ratio des tâches en cours
  • [SPARK-35136] Supprimer la valeur null initiale de LiveStage.info
  • [SPARK-34834] [NETWORK] Résoudre une fuite de mémoire Netty potentielle dans TransportResponseHandler
  • [SPARK-35045] [SQL] Ajouter une option interne pour contrôler la mémoire tampon d’entrée dans univocity
  • [SPARK-35014] Corriger le modèle PhysicalAggregation pour ne pas réécrire les expressions pliables
  • [SPARK-35019] [PYTHON][sql] Corriger les incompatibilités des indicateurs de type dans pyspark.sql.*
  • [SPARK-34926] [SQL][3.1] PartitioningUtils.getPathFragment() doit tenir compte du fait que la valeur de la partition est nulle.
  • [SPARK-34630] [PYTHON] Ajout de typehint pour pyspark.version
  • [SPARK-34963] [SQL] Corriger le nettoyage de colonne imbriqué pour l’extraction d’un champ struct ne respectant pas la casse d’un tableau de struct
  • [SPARK-34988] [CORE][3.1] Mise à niveau de Jetty pour CVE-2021-28165
  • [SPARK-34922] [SQL][3.1] Utilisation d’une fonction de comparaison des coûts relative dans la CBO
  • [SPARK-34970] [SQL][security][3.1] Réactez les options de type de carte dans la sortie d’explain()
  • [SPARK-34923] [SQL] La sortie des métadonnées doit être vide pour un plus grand nombre de plans
  • [SPARK-34949] [CORE] Empêcher le réenregistrement BlockManager lors de l’arrêt d’Exécuteur
  • [SPARK-34939] [CORE] Exception de l’échec de l’extraction levée lorsqu’il est impossible de désérialiser les états du mappage diffusé
  • [SPARK-34909] [SQL] Correction de la conversion de negative en unsigned dans conv()
  • [SPARK-34845] [CORE] ProcfsMetricsGetter ne doit pas retourner les métriques procfs partielles
  • [SPARK-34814] [SQL] LikeSimplification doit gérer la valeur NULL
  • [SPARK-34876] [SQL] Remplissage de defaultResult des agrégats n’acceptant pas les valeurs null
  • [SPARK-34829] [SQL] Correction des résultats des fonctions d’ordre supérieur
  • [SPARK-34840] [SHUFFLE] Corrige les cas d’altération dans la lecture aléatoire fusionnée...
  • [SPARK-34833] [SQL] Appliquer correctement le remplissage à droite pour les sous-requêtes corrélées
  • [SPARK-34630] [PYTHON][sql] Ajout de typehint pour pyspark.sql.Column.contains
  • [SPARK-34763] [SQL] col(), $"name" et df("name") doivent gérer les noms de colonnes entre guillemets correctement
  • [SPARK-33482][SPARK-34756] [SQL] Correction de la vérification de l’égalité FileScan
  • [SPARK-34790] [CORE] Désactiver la récupération des blocs aléatoires dans le lot quand le chiffrement des E/S est activé
  • [SPARK-34803] [PYSPARK] Transmettre le ImportError déclenché en cas d’échec de l’importation de pandas ou de pyarrow
  • [SPARK-34225] [CORE] Ne pas encoder plus loin lorsqu’une chaîne de formulaire URI est passée à addFile ou addJar
  • [SPARK-34811] [CORE] Biffer fs.s3a.access.key comme le secret et le jeton
  • [SPARK-34796] [SQL][3.1] Initialiser la variable de compteur pour LIMIT code-gen dans doProduce()
  • [SPARK-34128] [SQL] Supprimer les avertissements TTransportException indésirables impliqués dans THRIFT-4805
  • [SPARK-34776] [SQL] Le nettoyage de colonne imbriqué ne doit pas nettoyer les attributs générés par la fenêtre
  • [SPARK-34087] [3.1][sql] Corriger la fuite de mémoire d’ExecutionListenerBus
  • [SPARK-34772] [SQL] RebaseDateTime loadRebaseRecords doit utiliser le chargeur de classe Apache Spark au lieu du contexte
  • [SPARK-34719] [SQL][3.1] Résolution correcte de la requête d’affichage avec des noms de colonnes dupliqués
  • [SPARK-34766] [SQL][3.1] Ne pas capturer la configuration maven pour les affichages
  • [SPARK-34731] [CORE] Éviter l’exception ConcurrentModificationException lors de la rédaction de propriétés dans EventLoggingListener
  • [SPARK-34737] [SQL][3.1] Caster l’entrée float en double dans TIMESTAMP_SECONDS
  • [SPARK-34749] [SQL][3.1] Simplification de ResolveCreateNamedStruct
  • [SPARK-34768] [SQL] Respecte la taille par défaut de la mémoire tampon d’entrée dans Univocity
  • [SPARK-34770] [SQL] InMemoryCatalog.tableExists ne doit pas échouer si la base de données n’existe pas
  • [SPARK-34504] [SQL] Éviter la résolution inutile de vues temporaires SQL pour les commandes DDL
  • [SPARK-34727] [SQL] Correction de l’écart dans la conversion de type float en timestamp
  • [SPARK-34723] [SQL] Type de paramètre correct pour l’élimination de sous-expression sous whole-stage
  • [SPARK-34724] [SQL] Correction de l’évaluation interprétée à l’aide de getMethod à la place de getDeclaredMethod
  • [SPARK-34713] [SQL] Correction du groupe par CreateStruct avec ExtractValue
  • [SPARK-34697] [SQL] Autoriser DESCRIBE FUNCTION et SHOW FUNCTIONS de expliquer || (opérateur de concaténation de chaîne)
  • [SPARK-34682] [SQL] Utiliser PrivateMethodTester au lieu de la réflexion
  • [SPARK-34682] [SQL] Correction de la régression dans la vérification des erreurs de canonicalisation dans CustomShuffleReaderExec
  • [SPARK-34681] [SQL] Corrige le bogue lié à une jointure hachée aléatoire externe complète lors de la création du côté gauche avec une condition non égale
  • [SPARK-34545] [SQL] Résolution des problèmes liés à la fonctionnalité valueCompare de pyrolite
  • [SPARK-34607] [SQL][3.1] Ajouter Utils.isMemberClass pour corriger une erreur de nom de classe malformé sur jdk8u
  • [SPARK-34596] [SQL] Utiliser Utils.getSimpleName pour éviter de tomber sur un nom de classe malformé dans NewInstance.doGenCode
  • [SPARK-34613] [SQL] Correction de l’affichage ne capturant pas la configuration du conseil de désactivation
  • [SPARK-32924] [WEBUI] Faire en sorte que la colonne de durée dans l’interface maître soit triée dans le bon ordre
  • [SPARK-34482] [SS] Correction du SparkSession actif pour StreamExecution.logicalPlan
  • [SPARK-34567] [SQL] CreateTableAsSelect doit également mettre à jour les métriques
  • [SPARK-34599] [ SQL] Correction du problème selon lequel INSERT INTO OVERWRITE ne prend pas en charge les colonnes de partition contenant des points pour DSv2
  • [SPARK-34577] [SQL] Correction de la suppression/de l’ajout de colonnes vers un jeu de données de DESCRIBE NAMESPACE
  • [SPARK-34584] [SQL] La partition statique doit également suivre StoreAssignmentPolicy lors de l’insertion dans les tables v2
  • [SPARK-34555] [SQL] Résoudre la sortie des métadonnées de DataFrame
  • [SPARK-34534] Correction de l’ordre des blockIds lors de l’utilisation de FetchShuffleBlocks pour extraire des blocs
  • [SPARK-34547] [SQL] Utilisez uniquement des colonnes de métadonnées pour la résolution en dernier recours
  • [SPARK-34417] [SQL] org.apache.spark.sql.DataFrameNaFunctions.fillMap échoue pour le nom de colonne comportant un point
  • [SPARK-34561] [SQL] Correction de la suppression/de l’ajout de colonnes à partir de/vers un jeu de données de v2 DESCRIBE TABLE
  • [SPARK-34556] [SQL] La vérification des colonnes de partition statiques dupliquées doit respecter la configuration sensible à la casse
  • [SPARK-34392][SQL] Support de +h:mm pour ZoneOffset dans DateTimeUtils. getZoneId
  • [SPARK-34550] [SQL] Omission de la valeur null dans le filtre push pour le metastore Hive
  • [SPARK-34543][SQL] Respect de la configuration spark.sql.caseSensitive lors de la résolution des spécifications de partition dans version 1SET LOCATION
  • [SPARK-34436][SQL] DPP prend en charge l’expression LIKE ANY/ALL
  • [SPARK-34531] [CORE] Suppression de la balise d’API expérimentale dans PrometheusServlet
  • [SPARK-34497] [SQL] Correction des fournisseurs de connexion JDBC intégrés afin de restaurer les modifications du contexte de sécurité JVM
  • [SPARK-34515] [SQL] Corriger le NPE si InSet contient une valeur nulle lors de l'appel de getPartitionsByFilter
  • [SPARK-34490] [SQL] L’analyse doit échouer si l’affichage fait référence à une table supprimée
  • [SPARK-34473] [SQL] Éviter un NPE dans DataFrameReader.schema(StructType)
  • [SPARK-34384] [CORE] Ajouter des documents manquants pour les API ResourceProfile
  • [SPARK-34373] [SQL] HiveThriftServer2 startWithContext peut se bloquer avec un problème de course
  • [SPARK-20977] [CORE] Utiliser un champ non final pour l’état de CollectionAccumulator
  • [SPARK-34421] [SQL] Résoudre les fonctions et les affichages temporaires dans les affichages avec des expressions de table commune
  • [SPARK-34431] [CORE] Ne charger hive-site.xml qu’une fois
  • [SPARK-34405] [CORE] Correction de la valeur moyenne de timersLabels dans la classe PrometheusServlet
  • [SPARK-33438] [SQL] Initialiser rapidement les objets avec des configurations SQL définies pour la commande set -v
  • [Spark-34158] URL incorrecte du seul développeur Matei dans pom.xml
  • [SPARK-34346] [CORE][sql][3.1] o.file.buffer.size défini par spark.buffer.size est remplacé par le chargement accidentel de hive-site.xml, ce qui peut entraîner une régression de la performance
  • [SPARK-34359] [SQL][3.1] Ajouter une configuration héritée pour restaurer le schéma de sortie de SHOW DATABASES
  • [SPARK-34331] [SQL] Accélérer la résolution des colonnes de métadonnées DS v2
  • [SPARK-34318] [SQL][3.1] Dataset.colRegex doit fonctionner avec les noms de colonne et les qualificateurs qui contiennent des nouvelles lignes
  • [SPARK-34326] [CORE][sql] Correction des UT ajoutées dans SPARK-31793 en fonction de la longueur du chemin d’accès temporaire
  • [SPARK-34319] [SQL] Résoudre les attributs en double pour FlatMapCoGroupsInPandas/MapInPandas
  • [SPARK-34310] [CORE][sql] Remplace le mappage et l’aplatissement avec flatMap
  • [SPARK-34083] [SQL][3.1] Utilisation des définitions d’origine TPCDS pour les colonnes char/varchar
  • [SPARK-34233] [SQL] [3,1] Correction du fichier NPE pour le remplissage des caractères dans la comparaison binaire
  • [SPARK-34270] [SS] Combine StateStoreMetrics ne doit pas se substituer à StateStoreCustomMetric
  • [SPARK-34144] [SQL] Exception levée lors de la tentative d’écriture de valeurs LocalDate et instantanées dans une relation JDBC
  • [SPARK-34273] [CORE] Ne pas réinscrire BlockManager lorsque SparkContext est arrêté
  • [SPARK-34262] [SQL][3.1] Actualiser les données mises en cache de la table v1 dans ALTER TABLE .. SET LOCATION
  • [SPARK-34275] [CORE][sql][MLLIB] Remplace le filtre et la taille par le nombre
  • [SPARK-34260] [SQL] Correction de UnresolvedException lors de la création d’une vue temporaire à deux reprises
  • [SPARK-33867] [ SQL] Les valeurs Instant et LocalDate ne sont pas gérées lors de la génération de requêtes SQL
  • [Spark-34193] [CORE] Gestionnaire de blocs TorrentBroadcast désaffectant le correctif de concurrence
  • [SPARK-34221] [WEBUI] S’assurer que si une étape échoue dans la page de l’interface utilisateur, le message d’erreur correspondant peut être affiché correctement
  • [SPARK-34236] [SQL] Correction d’Overwrite v2 avec une partition statique null – Impossible de traduire l’expression en filtre source : null
  • [SPARK-34212] [SQL] Correction d'une lecture incorrecte des nombres décimaux depuis les fichiers Parquet
  • [SPARK-34244] [SQL] Suppression de la version Scala de la fonction regexp_extract_all
  • [SPARK-34235] [SS] Créer spark.sql.hive en tant que package privé
  • [SPARK-34232] [CORE] Expurger l’événement SparkListenerEnvironmentUpdate dans le journal
  • [SPARK-34229] [SQL] Avro doit lire les valeurs décimales avec le schéma de fichier
  • [SPARK-34223] [SQL] Correction du NPE pour la partition statique avec valeur null dans InsertIntoHadoopFsRelationCommand
  • [SPARK-34192] [SQL] Déplacer le remplissage des caractères vers le côté écriture et supprimer le contrôle de longueur côté lecture
  • [SPARK-34203] [SQL] Convertir les valeurs de partition null en __HIVE_DEFAULT_PARTITION__ dans le catalogue In-Memory v1
  • [SPARK-33726] [SQL] Correction des noms de champ en double lors de l’agrégation
  • [SPARK-34133] [AVRO] Respect de la casse lors de l’exécution de la correspondance des champs de Catalyst à Avro
  • [SPARK-34187] [SS] Utiliser la plage de décalage disponible obtenue durant l’interrogation lors de la vérification de la validation de décalage
  • [SPARK-34052] [SQL][3.1] stockez du texte SQL pour une vue temporaire créée à l’aide de «CACHE TABLE .. AS SELECT … »
  • [SPARK-34213] [SQL] Actualiser les données mises en cache de la table v1 dans LOAD DATA
  • [SPARK-34191] [PYTHON] [sql] Ajouter le typage de la surcharge de fonction définie par l’utilisateur
  • [SPARK-34200] [SQL] Une référence de colonne ambiguë doit prendre en compte la disponibilité des attributs
  • [SPARK-33813] [SQL][3.1] Correction du problème que la source JDBC ne peut pas traiter les types spatiaux de MS SQL Server
  • [SPARK-34178] [SQL] Copier les balises pour le nouveau nœud créé par MultiInstanceRelation. newInstance
  • [SPARK-34005] [CORE][3.1] Mettre à jour les métriques de mémoire maximale pour chaque exécuteur à la fin de la tâche
  • [SPARK-34115] [CORE] Vérifier SPARK_TESTING comme valeur différée pour éviter le ralentissement
  • [SPARK-34153] [SQL][3.1][3.0] Supprimer getRawTable()inutilisé dans HiveExternalCatalog.alterPartitions()
  • [SPARK-34130] [SQL] Amélioration des performances pour le remplissage et la vérification de la longueur de char varchar avec StaticInvoke
  • [SPARK-34027] [SQL][3.1] Actualiser le cache dans ALTER TABLE .. RECOVER PARTITIONS
  • [SPARK-34151] [SQL] Remplace java.io.File.toURL par java.io.File.toURI.toURL
  • [SPARK-34140] [SQL][3.1] Déplacer QueryCompilationErrors.scala vers org/apache/spark/sql/errors
  • [SPARK-34080] [ML][python] Ajouter UnivariateFeatureSelector
  • [SPARK-33790] [CORE][3.1] Réduire l’appel RPC de getFileStatus dans SingleFileEventLogFileReader
  • [SPARK-34118] [CORE][sql][3.1] Remplace le filtre et vérifie la présence de vide dans exists ou forall
  • [SPARK-34114] [SQL] ne doit pas découper vers la droite pour la vérification et le remplissage de caractères côté lecture
  • [SPARK-34086] [SQL][3.1] RaiseError génère trop de code et peut échouer dans le contrôle de longueur de données char varchar
  • [SPARK-34075] [SQL][core] Les répertoires masqués sont répertoriés pour l’inférence de partition
  • [SPARK-34076] [SQL] SQLContext.dropTempTable échoue si le cache n’est pas vide
  • [SPARK-34084] [SQL][3.1] Correction de la mise à jour automatique des statistiques de table dans ALTER TABLE .. ADD PARTITION
  • [SPARK-34090] [SS] Mettre en cache le résultat de HadoopDelegationTokenManager.isServiceEnabled utilisé dans KafkaTokenUtil.needTokenUpdate
  • [SPARK-34069] [CORE] Tuer des tâches de cloisonnement doit respecter SPARK_JOB_INTERRUPT_ON_CANCEL
  • [SPARK-34091] [SQL] Le processus de shuffle d'ensembles devrait pouvoir être désactivé après avoir été activé.
  • [SPARK-34059] [SQL][core][3.1] Utiliser for/foreach plutôt que map pour s’assurer de l’exécuter de façon dynamique
  • [SPARK-34002] [SQL] Correction de l’utilisation de l’encodeur dans ScalaUDF
  • [SPARK-34060] [SQL][3.1] Correction de la mise en cache de la table Hive lors de la mise à jour des statistiques par ALTER TABLE .. DROP PARTITION
  • [SPARK-31952] [SQL] Correction de la métrique de débordement de mémoire incorrecte lors de l’agrégation
  • [SPARK-33591] [SQL][3.1] Reconnaître null dans les valeurs de spécifications de partition
  • [SPARK-34055] [SQL][3.1] Actualiser le cache dans ALTER TABLE .. ADD PARTITION
  • [SPARK-34039] [SQL][3.1] ReplaceTable doit invalider le cache
  • [SPARK-34003] [SQL] Correction de conflits de règles entre PaddingAndLengthCheckForCharVarchar et ResolveAggregateFunctions
  • [SPARK-33938] [SQL][3.1] Optimiser Like Any/All par LikeSimplification
  • [SPARK-34021] [R] Correction des liens hypertexte dans la documentation SparkR pour la soumission CRAN
  • [SPARK-34011] [SQL][3.1][3.0] Actualiser le cache dans ALTER TABLE .. RENAME TO PARTITION
  • [SPARK-33948] [SQL] Correction de l’erreur CodeGen de la méthode MapObjects.doGenCode dans Scala 2.13
  • [SPARK-33635] [SS] Ajustement de l’ordre de vérification dans KafkaTokenUtil.needTokenUpdate pour remédier à une régression des performances
  • [SPARK-33029] [CORE][webui] Correction de la page de l’exécuteur d’interface utilisateur marquant incorrectement le driver comme exclu
  • [SPARK-34015] [R] Correction du minutage des entrées dans gapply
  • [SPARK-34012] [SQL] Maintien de la cohérence de comportement quand conf spark.sql.legacy.parser.havingWithoutGroupByAsWhere est vrai avec le guide de migration
  • [SPARK-33844] [SQL][3.1] La commande InsertIntoHiveDir doit également vérifier le nom de la colonne
  • [SPARK-33935] [SQL] Correction de la fonction de coût CBO
  • [SPARK-33100] [SQL] Ignorer un point-virgule à l’intérieur d’un commentaire entre crochets dans spark-sql
  • [SPARK-34000] [CORE] Corriger stageAttemptToNumSpeculativeTasks java.util.NoSuchElementException
  • [SPARK-33992] [SQL] Remplacer transformUpWithNewOutput pour ajouter allowInvokingTransformsInAnalyzer
  • [SPARK-33894] [SQL] Modification de la visibilité des classes privées de cas dans mllib pour éviter les erreurs de compilation au moment de l’exécution avec Scala 2.13
  • [SPARK-33950] [SQL][3.1][3.0] Actualiser le cache dans ALTER TABLE .. DROP PARTITION v1
  • [SPARK-33980] [SS] Invalider CHAR/VARCHAR dans spark.readStream.schema
  • [SPARK-33945] [SQL][3.1] Gère une valeur seed aléatoire composée d’une arborescence expr
  • [SPARK-33398] Correction du chargement des modèles d’arborescence avant Spark 3.0
  • [SPARK-33963] [SQL] Canonicaliser HiveTableRelation sans les statistiques de table
  • [SPARK-33906] [WEBUI] Corriger le bogue de la page UI Executor bloquée en raison d’un peakMemoryMetrics non défini
  • [SPARK-33944] [SQL] Journalisation incorrecte pour les clés de l’entrepôt dans les options SharedState
  • [SPARK-33936] [SQL][3.1] Ajouter la version lorsque les interfaces du connecteur ont été ajoutées
  • [SPARK-33916] [CORE] Correction du décalage de stockage de secours et amélioration de la couverture de test du codec de compression
  • [SPARK-33899] [SQL][3.1] Correction de l’échec d’assertion dans SHOW TABLES/VIEWS v1 sur spark_catalog
  • [SPARK-33901] [SQL] Correction des erreurs d’affichage Char et Varchar après les langages de définition de données (DDL)
  • [SPARK-33897] [SQL] Impossible de définir l’option 'cross' dans la méthode de jointure
  • [SPARK-33907] [SQL][3.1] Nettoie uniquement les colonnes de JsonToStructs si les options d’analyse syntaxique sont vides
  • [SPARK-33621][SPARK-33784] [SQL][3.1] Ajouter un moyen d’injecter des règles de réécriture de la source de données
  • [SPARK-33900] [WEBUI] Affichage correct de la taille de lecture aléatoire ou des enregistrements lorsque seul remotebytesread est disponible
  • [SPARK-33892] [SQL] Afficher char/varchar dans DESC et SHOW CREATE TABLE
  • [SPARK-33895] [SQL] Char et Varchar échouent dans MetaOperation de ThriftServer
  • [SPARK-33659] [SS] Documenter le comportement actuel de l’API DataStreamWriter.toTable
  • [SPARK-33893] [CORE] Exclure le gestionnaire de bloc de secours de executorList
  • [SPARK-33277] [PYSPARK][sql] Utiliser ContextAwareIterator pour arrêter la consommation après la fin de la tâche
  • [SPARK-33889] [SQL][3.1] Corriger NPE à partir de SHOW PARTITIONS sur les tables V2
  • [SPARK-33879] [SQL] Les valeurs Varchar Char échouent avec une erreur de correspondance en tant que colonnes de partition
  • [SPARK-33877] [SQL] documents de référence SQL pour INSERT avec une liste de colonnes
  • [SPARK-33876] [SQL] Ajout d’un contrôle de longueur pour la lecture de char/varchar à partir de tables avec un emplacement externe
  • [SPARK-33846] [SQL] Inclure des commentaires pour un schéma imbriqué dans StructType.toDDL
  • [SPARK-33860] [SQL] Faire en sorte que CatalystTypeConverters.convertToCatalyst corresponde à la valeur spéciale de Array
  • [SPARK-33834] [SQL] Vérifier ALTER TABLE CHANGE COLUMN avec Char et Varchar
  • [SPARK-33853] [SQL] EXPLAIN CODEGEN et BenchmarkQueryTest n’affichent pas de code de sous-requête
  • [SPARK-33836] [SS][python] Exposer DataStreamReader.table et DataStreamWriter.toTable
  • [SPARK-33829] [SQL][3.1] Le changement de nom des tables v2 doit recréer le cache
  • [SPARK-33756] [SQL] Rendre l'itérateur de la carte BytesToBytesMap idempotent
  • [SPARK-33850] [ SQL] EXPLAIN FORMATTED n’affiche pas le plan pour les sous-requêtes si AQE est activé
  • [SPARK-33841] [CORE][3.1] Correction d’un problème de tâches disparaissant par intermittence du SHS en cas de forte charge
  • [SPARK-33593][SQL] Le lecteur de vecteurs a reçu des données incorrectes avec une valeur de partition binaire
  • [SPARK-26341] [WEBUI] Exposition des métriques de mémoire de l’exécuteur au niveau de l’étape, sous l’onglet Étapes
  • [SPARK-33831] [UI] Mise à jour vers jetty 9.4.34
  • [SPARK-33822] [SQL] Utilisation de la méthode CastSupport.cast dans HashJoin
  • [SPARK-33774] [UI][core] « Retour au maître » retourne 500 erreur dans le cluster autonome
  • [SPARK-26199][SPARK-31517] [R] Correction de la stratégie de gestion... noms dans la mutation
  • [SPARK-33819] [CORE][3.1] SingleFileEventLogFileReader/RollingEventLogFilesFileReader doit être package private
  • [SPARK-33697] [SQL] RemoveRedundantProjects doit exiger un classement des colonnes par défaut
  • [SPARK-33752] [SQL][3.1] Éviter que le getSimpleMessage de AnalysisException ajoute un point-virgule à plusieurs reprises
  • [SPARK-33788] [SQL][3.1][3.0][2.4] Lever l’exception NoSuchPartitionsException depuis HiveExternalCatalog.dropPartitions()
  • [SPARK-33803] [SQL] Trier les propriétés de table par clé dans DESCRIBE TABLE commande
  • [SPARK-33786] [SQL] Le niveau de stockage d’un cache doit être respecté lorsqu’un nom de table est modifié
  • [SPARK-33273] [SQL] Résoudre une condition de concurrence lors de l’exécution d’une sous-requête
  • [SPARK-33653] [SQL][3.1] DSv2 : REFRESHREFRESH TABLE doit mettre à jour la table elle-même
  • [SPARK-33777] [SQL] Tri de la sortie de SHOW PARTITIONS V2
  • [SPARK-33733] [SQL] PullOutNondeterministic doit vérifier et collecter un champ déterministe
  • [SPARK-33764] [SS] Définir l’intervalle de maintenance du magasin d’état comme configuration SQL
  • [SPARK-33729] [SQL] Lors de l’actualisation du cache, Apache Spark ne doit pas utiliser le plan mis en cache lors de la remise en cache des données.
  • [SPARK-33742] [SQL][3.1] Lancer l’exception PartitionsAlreadyExistException depuis HiveExternalCatalog.createPartitions()
  • [SPARK-33706] [SQL] Requiert un identificateur de partition complètement spécifié dans partitionExists()
  • [SPARK-33740] [SQL] Des configurations Hadoop dans hive-site.xml peuvent remplacer des configurations Hadoop préexistantes
  • [SPARK-33692] [SQL] L’affichage doit utiliser le catalogue et l’espace de noms capturés pour la fonction de recherche
  • [SPARK-33669] Message d’erreur incorrect du moniteur d’état de l’application YARN lorsque sc.stop est utilisé en mode client YARN.
  • [SPARK-32110] [SQL] Normalisation des nombres flottants spéciaux dans HyperLogLog++
  • [SPARK-33677] [SQL] Ignore la règle LikeSimplification si le modèle contient un escapeChar
  • [SPARK-33693] [SQL] Déconseille l’utilisation de spark.sql.hive.convertCTAS
  • [SPARK-33641] [SQL] Invalidation des nouveaux types char/varchar dans des API publiques qui produisent des résultats incorrects
  • [SPARK-32680] [SQL] Ne pas prétraiter V2 CTAS avec une requête non résolue
  • [SPARK-33676] [SQL] Exiger une correspondance exacte entre la spécification de la partition et le schéma dans ALTER TABLE .. ADD/DROP PARTITION V2
  • [SPARK-33670] [SQL] Vérifier que le fournisseur de partitions est Hive dans la version 1 SHOW TABLE EXTENDED
  • [SPARK-33663] [SQL] Le dé-cachage ne doit pas être exécuté sur des vues temporaires non existantes
  • [SPARK-33667][SQL] Respect de la configuration spark.sql.caseSensitive lors de la résolution des spécifications de partition dans version 1 SHOW PARTITIONS
  • [SPARK-33652] [SQL] DSv2 : DeleteFrom doit actualiser le cache

Mises à jour de maintenance

Consultez Mises à jour de maintenance de Databricks Runtime 9.0.

Environnement du système

  • Système d’exploitation : Ubuntu 20.04.2 LTS
  • Java : Zulu 8.54.0.21-CA-linux64
  • Scala : 2.12.10
  • Python : 3.8.10
  • R : 4.1.0 (2021-05-18)
  • Delta Lake 1.0.0

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
Antergos Linux 2015,10 (ISO-Rolling) appdirs 1.4.4 appel de retour 0.2.0
boto3 1.16.7 botocore 1.19.7 certifi 2020.12.5
chardet 4.0.0 cycliste 0.10.0 Cython 0.29.23
dbus-python 1.2.16 décorateur 5.0.6 distlib 0.3.2
distro-infos 0.23ubuntu1 aperçu des aspects 1.0.0 verrou de fichier 3.0.12
idna 2.10 ipykernel 5.3.4 ipython 7.22.0
ipython-genutils 0.2.0 Jedi 0.17.2 jmespath 0.10.0
joblib 1.0.1 jupyter-client 6.1.12 jupyter-core 4.7.1
kiwisolver 1.3.1 Koalas 1.8.1 matplotlib 3.4.2
numpy 1.19.2 Pandas 1.2.4 parso 0.7.0
dupe 0.5.1 pexpect 4.8.0 pickleshare 0.7.5
Oreiller 8.2.0 pépin 21.0.1 tracé 4.14.3
prompt-toolkit 3.0.17 protobuf 3.17.2 psycopg2 2.8.5
ptyprocess 0.7.0 pyarrow 4.0.0 Pygments 2.8.1
PyGObject 3.36.0 pyparsing 2.4.7 python-apt 2.0.0+ubuntu0.20.4.5
python-dateutil 2.8.1 pytz 2020.5 pyzmq 20.0.0
requêtes 2.25.1 requests-unixsocket 0.2.0 réessayer 1.3.3
s3transfer 0.3.7 scikit-learn 0.24.1 scipy (bibliothèque Python pour le calcul scientifique) 1.6.2
seaborn 0.11.1 setuptools 52.0.0 Six 1.15.0
ssh-import-id 5.10 statsmodels, une bibliothèque Python pour la modélisation statistique 0.12.2 threadpoolctl 2.1.0
tornade 6.1 Traitlets 5.0.5 mises à niveau automatiques 0.1
urllib3 1.25.11 virtualenv 20.4.1 wcwidth 0.2.5
roue 0.36.2

Bibliothèques R installées

Les bibliothèques R sont installées à partir de l’instantané Microsoft CRAN du 28/07/2021.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
Askpass 1.1 assertthat 0.2.1 rétroportage 1.2.1
base 4.1.0 base64enc 0.1-3 BH 1.72.0-3
morceau 4.0.4 bit 64 4.0.5 objet BLOB 1.2.1
botte 1.3-28 brasser 1.0-6 brio 1.1.0
balai 0.7.2 appelant 3.5.1 caret 6.0-86
cellranger 1.1.0 Chron 2.3-56 classe 7.3-19
Cli 2.2.0 Presse-papiers 0.7.1 Grappe 2.1.2
codetools 0.2-18 espace colorimétrique 2.0-0 commonmark 1.7
compilateur 4.1.0 config 0,3 covr 3.5.1
cpp11 0.2.4 pastel 1.3.4 Références 1.3.0
diaphonie 1.1.0.1 friser 4.3 data.table 1.13.4
ensembles de données 4.1.0 DBI 1.1.0 dbplyr 2.0.0
Desc 1.2.0 devtools 2.3.2 diffobj 0.3.2
digérer 0.6.27 dplyr 1.0.2 DT 0,16
ellipse 0.3.1 évaluer 0.14 fans 0.4.1
couleurs 2.0.3 carte rapide 1.0.1 condamnés 0.5.0
foreach 1.5.1 étranger 0.8-81 forger 0.2.0
Fs 1.5.0 futur 1.21.0 produits génériques 0.1.0
Gert 1.0.2 ggplot2 3.3.2 Gh 1.2.0
gitcreds 0.1.1 glmnet 4.0-2 globales 0.14.0
colle 1.4.2 Gower 0.2.2 graphisme 4.1.0
grDevices 4.1.0 grille 4.1.0 gridExtra 2.3
gsubfn 0,7 gt ;pouvant être 0.3.0 havre 2.3.1
supérieur 0,8 Hms 0.5.3 outils HTML 0.5.0
htmlwidgets 1.5.3 httpuv 1.5.4 httr 1.4.2
hwriter 1.3.2 hwriterPlus 1.0-3 ini 0.3.1
ipred 0.9-9 isoband 0.2.3 itérateurs 1.0.13
jsonlite 1.7.2 KernSmooth 2,23-20 knitr 1.30
étiquetage 0.4.2 plus tard 1.1.0.1 treillis 0.20-44
lave 1.6.8.1 lazyeval 0.2.2 cycle de vie 0.2.0
listenv 0.8.0 lubridate 1.7.9.2 magrittr 2.0.1
Markdown 1.1 MASSE 7.3-54 Matrice 1.3-4
mémorisation 1.1.0 méthodes 4.1.0 mgcv 1.8-36
mime 0.9 ModelMetrics 1.2.2.2 modèleur 0.1.8
munsell 0.5.0 nlme 3.1-152 nnet 7.3-16
numDeriv 2016.8-1.1 openssl 1.4.3 parallèle 4.1.0
parallèlement 1.22.0 pilier 1.4.7 pkgbuild 1.1.0
pkgconfig 2.0.3 pkgload 1.1.0 plogr 0.2.0
plyr (un package logiciel pour le traitement de données) 1.8.6 louange 1.0.0 joliesunits 1.1.1
Proc 1.16.2 processx 3.4.5 prodlim 2019.11.13
progrès 1.2.2 promesses 1.1.1 proto 1.0.0
p.s. 1.5.0 purrr 0.3.4 r2d3 0.2.3
R6 2.5.0 randomForest (algorithme d'apprentissage automatique) 4.6-14 rappdirs 0.3.1
rcmdcheck 1.3.3 RColorBrewer 1.1-2 Rcpp 1.0.5
readr 1.4.0 readxl 1.3.1 recettes 0.1.15
match retour 1.0.1 revanche2 2.1.2 Télécommandes 2.2.0
exemple reproductible 0.3.0 remodeler2 1.4.4 Rex 1.2.0
rlang 0.4.9 rmarkdown 2.6 RODBC 1.3-17
roxygen2 7.1.1 rpart 4.1-15 rprojroot 2.0.2
Rserve 1.8-8 RSQLite 2.2.1 rstudioapi 0,13
rversions 2.0.2 rvest 0.3.6 écailles 1.1.1
sélecteur 0,4-2 informations sur la session 1.1.1 forme 1.4.5
brillant 1.5.0 sourcetools 0.1.7 sparklyr 1.5.2
SparkR 3.1.1 spatial 7.3-11 Cannelures 4.1.0
sqldf 0.4-11 SQUAREM 2020.5 statistiques 4.1.0
statistiques4 4.1.0 chaine 1.5.3 stringr 1.4.0
survie 3.2-11 sys 3.4 tcltk 4.1.0
Démos Pédagogiques 2.10 testthat 3.0.0 tibble 3.0.4
tidyr 1.1.2 tidyselect 1.1.0 tidyverse 1.3.0
date-heure 3043.102 tinytex 0,28 outils 4.1.0
utilisez ceci 2.0.0 utf8 1.1.4 utils 4.1.0
identifiant unique universel (UUID) 0.1-4 vctrs 0.3.5 viridisLite 0.3.0
Waldo 0.2.3 vibrisse 0,4 flétrir 2.3.0
xfun 0.19 xml2 1.3.2 xopen 1.0.0
xtable 1.8-4 yaml 2.2.1 fermeture éclair 2.1.1

Bibliothèques Java et Scala installées (version de cluster Scala 2.12)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.11.655
com.amazonaws aws-java-sdk-cloudformation 1.11.655
com.amazonaws aws-java-sdk-cloudfront 1.11.655
com.amazonaws aws-java-sdk-cloudhsm 1.11.655
com.amazonaws aws-java-sdk-cloudsearch 1.11.655
com.amazonaws aws-java-sdk-cloudtrail 1.11.655
com.amazonaws aws-java-sdk-cloudwatch 1.11.655
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.655
com.amazonaws aws-java-sdk-codedeploy 1.11.655
com.amazonaws aws-java-sdk-cognitoidentity 1.11.655
com.amazonaws aws-java-sdk-cognitosync 1.11.655
com.amazonaws aws-java-sdk-config 1.11.655
com.amazonaws aws-java-sdk-core 1.11.655
com.amazonaws aws-java-sdk-datapipeline 1.11.655
com.amazonaws aws-java-sdk-directconnect 1.11.655
com.amazonaws aws-java-sdk-directory 1.11.655
com.amazonaws aws-java-sdk-dynamodb 1.11.655
com.amazonaws aws-java-sdk-ec2 1.11.655
com.amazonaws aws-java-sdk-ecs 1.11.655
com.amazonaws aws-java-sdk-efs 1.11.655
com.amazonaws aws-java-sdk-elasticache 1.11.655
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.11.655
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.655
com.amazonaws aws-java-sdk-elastictranscoder 1.11.655
com.amazonaws aws-java-sdk-emr 1.11.655
com.amazonaws aws-java-sdk-glacier 1.11.655
com.amazonaws aws-java-sdk-glue 1.11.655
com.amazonaws aws-java-sdk-iam 1.11.655
com.amazonaws aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) 1.11.655
com.amazonaws aws-java-sdk-millisecondes 1.11.655
com.amazonaws aws-java-sdk-kms 1.11.655
com.amazonaws aws-java-sdk-lambda 1.11.655
com.amazonaws aws-java-sdk-logs 1.11.655
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.11.655
com.amazonaws aws-java-sdk-marketplacecommerceanalytics 1.11.655
com.amazonaws aws-java-sdk-marketplacemeteringservice 1.11.655
com.amazonaws aws-java-sdk-opsworks 1.11.655
com.amazonaws aws-java-sdk-rds 1.11.655
com.amazonaws aws-java-sdk-redshift 1.11.655
com.amazonaws aws-java-sdk-route53 1.11.655
com.amazonaws aws-java-sdk-s3 1.11.655
com.amazonaws aws-java-sdk-ses 1.11.655
com.amazonaws aws-java-sdk-simpledb 1.11.655
com.amazonaws aws-java-sdk-simpleworkflow 1.11.655
com.amazonaws aws-java-sdk-sns 1.11.655
com.amazonaws aws-java-sdk-sqs 1.11.655
com.amazonaws aws-java-sdk-ssm 1.11.655
com.amazonaws aws-java-sdk-storagegateway 1.11.655
com.amazonaws aws-java-sdk-sts 1.11.655
com.amazonaws Outil de support aws-java-sdk 1.11.655
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.655
com.amazonaws jmespath-java 1.11.655
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics flux 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb plugin de compilation_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml camarade de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.10.0
com.fasterxml.jackson.core jackson-core 2.10.0
com.fasterxml.jackson.core jackson-databind 2.10.0
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.10.0
com.fasterxml.jackson.datatype jackson-datatype-joda 2.10.0
com.fasterxml.jackson.module jackson-module-paranamer 2.10.0
com.fasterxml.jackson.module jackson-module-scala_2.12 2.10.0
com.github.ben-manes.caféine caféine 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib cœur 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-autochtones 1.1
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.joshelser dropwizard-metrics-hadoop-metrics2-reporter 0.1.2
com.github.luben zstd-jni 1.4.8-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.2.4
com.google.flatbuffers flatbuffers-java 1.9.0
com.google.guava goyave 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 1.4.195
com.helger profileur 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf (compression utilisant l'algorithme LZF) 1.0.3
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentilles_2.12 0.4.12
com.twitter chill-java 0.9.5
com.twitter chill_2.12 0.9.5
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.univocity univocity-analyseurs 2.9.1
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.4
commons-cli commons-cli 1,2
commons-codec commons-codec 1,10
commons-collections (bibliothèque de collections communes) commons-collections (bibliothèque de collections communes) 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
Commons-Digester Commons-Digester 1.8
téléchargement de fichiers communs téléchargement de fichiers communs 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
hive-2.3__hadoop-2.7 jets3t-0.7 liball_deps_2.12
hive-2.3__hadoop-2.7 zookeeper-3.4 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresseur d'air 0.10
io.delta delta-sharing-spark_2.12 0.1.0
io.dropwizard.metrics métriques de base 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics métriques-vérifications de santé 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics Metrics-JMX 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics servlets de métriques 4.1.1
io.netty netty-all 4.1.51.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collectionneur 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.5
log4j apache-log4j-suppléments 1.2.17
log4j log4j 1.2.17
maven-trees hive-2.3__hadoop-2.7 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine pyrolite (roche pyrolitique) 4 h 30
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk (module d'ingestion de Snowflake) 0.9.6
net.snowflake snowflake-jdbc 3.13.3
net.snowflake spark-snowflake_2.12 2.9.0-spark_3.1
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8-1
org.antlr stringtemplate 3.2.1
org.apache.ant fourmi 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format de flèche 2.0.0
org.apache.arrow arrow-memory-core 2.0.0
org.apache.arrow arrow-memory-netty 2.0.0
org.apache.arrow vecteur-flèche 2.0.0
org.apache.avro Avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.commons commons-compress 1.20
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.10
org.apache.commons commons-math3 3.4.1
org.apache.commons texte commun 1.6
org.apache.curator curateur-client 2.7.1
org.apache.curator curateur-framework 2.7.1
org.apache.curator curateur-recettes 2.7.1
org.apache.derby derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop annotations 2.7.4
org.apache.hadoop hadoop-auth 2.7.4
org.apache.hadoop hadoop-client 2.7.4
org.apache.hadoop hadoop-common 2.7.4
org.apache.hadoop hadoop-hdfs 2.7.4
org.apache.hadoop hadoop-mapreduce-client-app 2.7.4
org.apache.hadoop hadoop-mapreduce-client-common 2.7.4
org.apache.hadoop hadoop-mapreduce-client-core 2.7.4
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.4
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.4
org.apache.hadoop hadoop-yarn-api 2.7.4
org.apache.hadoop hadoop-yarn-client 2.7.4
org.apache.hadoop hadoop-yarn-common 2.7.4
org.apache.hadoop hadoop-yarn-server-common 2.7.4
org.apache.hive hive-beeline (outil de ligne de commande d'Apache Hive) 2.3.7
org.apache.hive hive-cli 2.3.7
org.apache.hive hive-jdbc 2.3.7
org.apache.hive hive-llap-client 2.3.7
org.apache.hive hive-llap-common 2.3.7
org.apache.hive hive-serde 2.3.7
org.apache.hive hive-shims 2.3.7
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.7
org.apache.hive.shims Composant commun de hive-shims 2.3.7
org.apache.hive.shims programmeur de cales de hive 2.3.7
org.apache.htrace htrace-core 3.1.0-incubant
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.12
org.apache.ivy lierre 2.4.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.5.12
org.apache.orc orc-mapreduce 1.5.12
org.apache.orc orc-shims 1.5.12
org.apache.parquet colonne de parquet 1.10.1-databricks9
org.apache.parquet parquet-common 1.10.1-databricks9
org.apache.parquet encodage parquet 1.10.1-databricks9
org.apache.parquet parquet-format 2.4.0
org.apache.parquet parquet-hadoop 1.10.1-databricks9
org.apache.parquet parquet-jackson 1.10.1-databricks9
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm7-shaded 4.15
org.apache.yetus annotations du public 0.5.0
org.apache.zookeeper gardien de zoo 3.4.14
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino compilateur commun 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.36.v20210114
org.eclipse.jetty jetty-continuation 9.4.36.v20210114
org.eclipse.jetty jetty-http 9.4.36.v20210114
org.eclipse.jetty jetty-io 9.4.36.v20210114
org.eclipse.jetty jetty-jndi 9.4.36.v20210114
org.eclipse.jetty jetty-plus 9.4.36.v20210114
org.eclipse.jetty jetty-proxy 9.4.36.v20210114
org.eclipse.jetty jetty-security (sécurité de quai) 9.4.36.v20210114
org.eclipse.jetty serveur jetty 9.4.36.v20210114
org.eclipse.jetty jetty-servlet 9.4.36.v20210114
org.eclipse.jetty jetty-servlets 9.4.36.v20210114
org.eclipse.jetty jetty-util 9.4.36.v20210114
org.eclipse.jetty jetty-util-ajax 9.4.36.v20210114
org.eclipse.jetty jetty-webapp 9.4.36.v20210114
org.eclipse.jetty jetty-xml 9.4.36.v20210114
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de conteneur jersey 2.30
org.glassfish.jersey.containers jersey-container-servlet-core 2.30
org.glassfish.jersey.core jersey-client 2.30
org.glassfish.jersey.core jersey-commun 2.30
org.glassfish.jersey.core jersey-server 2.30
org.glassfish.jersey.inject jersey-hk2 2.30
org.glassfish.jersey.media jersey-media-jaxb 2.30
org.hibernate.validator hibernate-validateator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.joda joda-convert 1.7
org.joddd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M5
org.json4s json4s-core_2.12 3.7.0-M5
org.json4s json4s-jackson_2.12 3.7.0-M5
org.json4s json4s-scalap_2.12 3.7.0-M5
org.lz4 lz4-java 1.7.1
org.mariadb.jdbc mariadb-java-client 2.2.5
org.objenesis objenèse 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.9.14
org.roaringbitmap Cales 0.9.14
org.rocksdb rocksdbjni 6.20.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.10
org.scala-lang scala-library_2.12 2.12.10
org.scala-lang scala-reflect_2.12 2.12.10
org.scala-lang.modules scala-collection-compat_2.12 2.1.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,0
org.scalanlp breeze_2.12 1,0
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.30
org.slf4j jul-to-slf4j 1.7.30
org.slf4j slf4j-api 1.7.30
org.slf4j slf4j-log4j12 1.7.30
org.spark-project.spark.spark inutilisé 1.0.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework test de printemps 4.1.4.RELEASE
org.threeten threeten-extra 1.5.0
org.tukaani xz 1,5
org.typelevel algebra_2.12 2.0.0-M2
org.typelevel chats-kernel_2.12 2.0.0-M4
org.typelevel machiniste_2.12 0.6.8
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0-M1
org.typelevel spire-platform_2.12 0.17.0-M1
org.typelevel spire-util_2.12 0.17.0-M1
org.typelevel spire_2.12 0.17.0-M1
org.wildfly.openssl wildfly.openssl 1.0.7.Version Finale
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.2
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0.52