Compartir a través de


Databricks Runtime 11.0 (EoS)

Nota:

El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.

Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 11.0, con tecnología de Apache Spark 3.3.0. Databricks publicó esta versión en junio de 2022.

Nuevas características y mejoras

Nueva versión de Apache Spark

Databricks Runtime 11.0 y Databricks Runtime 11.0 Photon incluyen Apache Spark 3.3.0. Para más información, consulte Apache Spark.

Los cuadernos de Python ahora usan el kernel de IPython

En Databricks Runtime 11.0 y versiones posteriores, los cuadernos de Python usan el kernel de IPython para ejecutar código de Python. Consulte Kernel de IPython.

Compatibilidad con ipywidgets

Ahora puede usar ipywidgets para que los cuadernos de Python de Databricks sean interactivos. Consulte ipywidgets.

El conector de Synapse ahora escribe datos de Parquet en modo no heredado

El conector de Azure Synapse ahora escribe datos de Parquet en modo no heredado. Conserva el formato de marca de tiempo INT96 al usar PolyBase y comandos COPY para cargas de trabajo por lotes y de streaming.

Ahora se exige el esquema HTTPS cuando el cliente ABFS usa el token de SAS

Cuando el cliente de Azure Blob File System (ABFS) usa un token de firma de acceso compartido (SAS), ahora se aplica el esquema HTTPS.

SQL: DESC ahora es un alias de DESCRIBE

Ahora puede usar DESC como alias de DESCRIBE cuando describa ubicaciones externas o credenciales de almacenamiento. Por ejemplo:

-- Describe an external location.
DESC EXTERNAL LOCATION location_name;

-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;

SQL: la versión nueva función current_version muestra los detalles de la versión

La nueva función current_version muestra la versión actual de Databricks Runtime si está disponible, la versión actual de Databricks SQL si está disponible y otros detalles relacionados con la versión. Use esta nueva función para consultar información relacionada con la versión. Consulte la current_version función.

La anulación de una restricción de tabla de Delta que falta ahora genera un error

Si ahora intenta anular una restricción de tabla de Delta por nombre y esa restricción no existe, recibirá un error. Para obtener el comportamiento anterior, que no produce un error si la restricción no existe, ahora tiene que usar la instrucción IF EXISTS. Consulte ALTER TABLE.

SQL: la nueva cláusula EXCEPT de la instrucción SELECT excluye las columnas de la selección

Las instrucciones SELECT ahora admiten la cláusula EXCEPT para excluir columnas de la selección. Por ejemplo, SELECT * EXCEPT (x) FROM table devuelve todas las columnas de table excepto x. También se permiten columnas anidadas. Por ejemplo, SELECT * EXCEPT (x.a) FROM table devuelve todas las columnas de tablepero omite el campo a de la estructura x.

Compatibilidad con la anulación de columnas en tablas de Delta (versión preliminar pública)

Puede usar ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name> o ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *) anular una columna o una lista de columnas, respectivamente, de una tabla de Delta como operación de solo metadatos. Las columnas se "eliminan temporalmente", ya que todavía están en los archivos de Parquet subyacentes, pero ya no son visibles para la tabla de Delta.

Puede usar REORG TABLE <table-name> APPLY (PURGE) para desencadenar una reescritura de archivo en los archivos que contienen datos eliminados temporalmente, como columnas anuladas.

Puede usar VACUUM para quitar los archivos eliminados del almacenamiento físico, incluidos los archivos antiguos que contienen columnas anuladas y que se han reescrito mediante REORG TABLE.

Mejoras de COPY INTO

Ahora puede crear tablas Delta con marcador de posición vacío para que el esquema se infiera más adelante durante un comando COPY INTO:

CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');

La instrucción SQL anterior es idempotente y se puede programar para que se ejecute para ingerir datos exactamente una vez en una tabla Delta.

Nota:

La tabla Delta vacía no se puede usar fuera de COPY INTO. No pueden usar INSERT INTO y MERGE INTO para escribir datos en tablas Delta sin esquema. Una vez insertados los datos en la tabla con COPY INTO, se puede consultar la tabla.

Si los datos que ingiere no se pueden leer debido a algún problema de daños, puede omitir los archivos dañados; para ello, establezca ignoreCorruptFiles en true en FORMAT_OPTIONS:

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')

El comando COPY INTO devuelve el número de archivos que se omitieron debido a daños en la columna num_skipped_corrupt_files. Esta métrica también aparece en la columna operationMetrics, en numSkippedCorruptFiles después de ejecutar DESCRIBE HISTORY en la tabla Delta.

COPY INTO no realiza un seguimiento de los archivos dañados, por lo que se pueden volver a cargar en una ejecución posterior si se corrigen los daños. Para ver qué archivos están dañados, ejecute COPY INTO en modo VALIDATE.

Ahora se admite CONVERT TO DELTA en entornos habilitados para el catálogo de Unity (versión preliminar pública)

En entornos habilitados para el uso de Unity Catalog, puede usar CONVERT TO DELTA para lo siguiente:

  • Convertir archivos Parquet de ubicaciones externas en Delta Lake.
  • Convertir tablas Parquet externas en tablas Delta.

Cambios de comportamiento

SQL: las funciones lpad y rpad ahora admiten secuencias de bytes

Las funciones lpad y rpad se han actualizado para agregar compatibilidad con secuencias de bytes además de con cadenas.

El formato de cadena en format_string y printf ya no permite %0$

La especificación del formato %0$ en las funciones format_string y printf ahora produce un error de manera predeterminada. Este cambio consiste en conservar el comportamiento esperado con versiones anteriores de Databricks Runtime y bases de datos comunes de terceros. El primer argumento siempre debe hacer referencia a %1$ al usar un índice de argumentos para indicar la posición del argumento en la lista de argumentos.

Los valores NULL de los archivos CSV ahora se escriben como cadenas vacías sin comillas de manera predeterminada

Los valores NULL de los archivos CSV se escribían previamente como cadenas vacías entre comillas. Con esta versión, los valores NULL de los archivos CSV ahora se escriben como cadenas vacías sin comillas de manera predeterminada. Para volver al comportamiento anterior, establezca la opción nullValue en "" para las operaciones de escritura.

La propiedad de tabla external ahora está reservada

La propiedad external es ahora una propiedad de tabla reservada de manera predeterminada. Ahora se producen excepciones cuando se usa la propiedad external con las cláusulas CREATE TABLE ... TBLPROPERTIES y ALTER TABLE ... SET TBLPROPERTIES.

Log4j se actualizó de Log4j 1 a Log4j 2

Log4j 1 se está actualizando a Log4j 2. Se están quitando las dependencias de Log4j 1 heredadas.

Si usa las clases de Log4j 1 que se antes estaban incluidas en Databricks Runtime, esas clases ya no existen. Tiene que actualizar las dependencias a Log4j 2.

Si tiene complementos personalizados o archivos de configuración que se basan en Log4j 2, es posible que ya no funcionen con la versión de Log4j 2 en esta versión. Para obtener ayuda, póngase en contacto con el equipo de la cuenta de Azure Databricks.

Las bibliotecas instaladas desde Maven ahora se resuelven en el plano de proceso de forma predeterminada

Las bibliotecas de Maven ahora se resuelven en el plano de proceso de forma predeterminada al instalar bibliotecas en un clúster. El clúster debe tener acceso a Maven Central. Como alternativa, puede establecer la propiedad de configuración de Spark para revertir el comportamiento al anterior:

spark.databricks.libraries.enableMavenResolution false

Corrección de errores

  • Se ha corregido la compatibilidad binaria de LeafNode, UnaryNode y BinaryNode entre Apache Spark y Databricks Runtime, y las clases ahora son compatibles con Apache Spark 3.3.0 y versiones posteriores. Si encuentra el siguiente mensaje o similar al usar un paquete de terceros con Databricks Runtime, vuelva a generar el paquete con Apache Spark 3.3.0 o posterior: Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:
    • platformdirs de 2.5.1 a 2.5.2
    • protobuf de 3.20.0 a 3.20.1
  • Bibliotecas de R actualizadas:
    • blob de 1.2.2 a 1.2.3
    • broom de 0.7.12 a 0.8.0
    • caret de 6.0-91 a 6.0-92
    • cli de 3.2.0 a 3.3.0
    • dplyr de 1.0.8 a 1.0.9
    • future de 1.24.0 a 1.25.0
    • future.apply de 1.8.1 a 1.9.0
    • gert de 1.5.0 a 1.6.0
    • ggplot2 de 3.3.5 a 3.3.6
    • glmnet de 4.1-3 a 4.1-4
    • haven de 2.4.3 a 2.5.0
    • httr de 1.4.2 a 1.4.3
    • knitr de 1.38 a 1.39
    • magrittr de 2.0.2 a 2.0.3
    • parallelly de 1.30.0 a 1.31.1
    • ps de 1.6.0 a 1.7.0
    • RColorBrewer de 1.1-2 a 1.1-3
    • RcppEigen de 0.3.3.9.1 a 0.3.3.9.2
    • readxl de 1.3.1 a 1.4.0
    • rmarkdown de 2.13 a 2.14
    • rprojroot de 2.0.2 a 2.0.3
    • RSQLite de 2.2.11 a 2.2.13
    • scales de 1.1.1 a 1.2.0
    • testthat de 3.1.2 a 3.1.4
    • tibble de 3.1.6 a 3.1.7
    • tinytex de 0.37 a 0.38
    • tzdb de 0.2.0 a 0.3.0
    • uuid de 1.0-4 a 1.1-0
    • vctrs de 0.3.8 a 0.4.1
  • Bibliotecas de Java actualizadas:
    • com.fasterxml.jackson.core.jackson-annotations de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-core de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-databind de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.0 a 2.13.3
    • com.google.crypto.tink.tink de 1.6.0 a 1.6.1
    • com.ning.compress-lzf de 1.0.3 a 1.1
    • dev.ludovic.netlib.arpack de 2.2.0 a 2.2.1
    • dev.ludovic.netlib.blas de 2.2.0 a 2.2.1
    • dev.ludovic.netlib.lapack de 2.2.0 a 2.2.1
    • io.netty.netty-all de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-buffer de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-codec de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-common de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-handler de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-resolver de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-tcnative-classes de 2.0.46.Final a 2.0.48.Final
    • io.netty.netty-transport de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-epoll de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-kqueue de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-aarch_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-x86_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-aarch_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-x86_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-unix-common de 4.1.73.Final a 4.1.74.Final
    • joda-time.joda-time de 2.10.12 a 2.10.13
    • org.apache.commons.commons-math3 de 3.4.1 a 3.6.1
    • org.apache.httpcomponents.httpcore de 4.4.12 a 4.4.14
    • org.apache.orc.orc-core de 1.7.3 a 1.7.4
    • org.apache.orc.orc-mapreduce de 1.7.3 a 1.7.4
    • org.apache.orc.orc-shims de 1.7.3 a 1.7.4
    • org.eclipse.jetty.jetty-client de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-continuation de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-http de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-io de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-jndi de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-plus de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-proxy de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-security de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-server de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlets de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util-ajax de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-webapp de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-xml de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-api de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-client de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-common de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-server de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.mariadb.jdbc.mariadb-java-client de 2.2.5 a 2.7.4
    • org.postgresql.postgresql de 42.2.19 a 42.3.3
    • org.roaringbitmap.RoaringBitmap de 0.9.23 a 0.9.25
    • org.roaringbitmap.shims de 0.9.23 a 0.9.25
    • org.rocksdb.rocksdbjni de 6.20.3 a 6.24.2
    • org.slf4j.jcl-over-slf4j de 1.7.32 a 1.7.36
    • org.slf4j.jul-to-slf4j de 1.7.32 a 1.7.36
    • org.slf4j.slf4j-api de 1.7.30 a 1.7.36

Apache Spark

Databricks Runtime 11.0 incluye Apache Spark 3.3.0.

En esta sección:

Spark SQL y Core

Modo ANSI

  • Nuevas reglas de sintaxis de conversión explícitas en modo ANSI (SPARK-33354)
  • Elt() debe devolver NULL si index es NULL en el modo ANSI (SPARK-38304)
  • Opcionalmente, se devuelve un resultado NULL si el elemento no existe en la matriz o el mapa (SPARK-37750)
  • Se permite la conversión entre tipo numérico y tipo de marca de tiempo (SPARK-37714)
  • Deshabilitación de palabras clave reservadas ANSI de manera predeterminada (SPARK-37724)
  • Uso de reglas de asignación de almacén para resolver la invocación de funciones (SPARK-37438)
  • Adición de una configuración para permitir la conversión entre Datetime y Numeric (SPARK-37179)
  • Adición de una configuración para aplicar opcionalmente palabras clave reservadas ANSI (SPARK-37133)
  • No permitir operaciones binarias entre el Interval y String literal (SPARK-36508)

Mejoras de las características

  • Compatibilidad con los tipos ANSI SQL INTERVAL (SPARK-27790)
  • Mejoras en los mensajes de error (SPARK-38781)
  • Compatibilidad con metadatos de archivo ocultos para Spark SQL (SPARK-37273)
  • Compatibilidad con literales de cadena sin formato (SPARK-36371)
  • Clase auxiliar para batch Dataset.observe() (SPARK-34806)
  • Compatibilidad con la especificación del número de partición inicial para el reequilibrio (SPARK-38410)
  • Compatibilidad con el modo en cascada para la API dropNamespace (SPARK-37929)
  • Permitir la asignación de almacén y la conversión implícita entre tipos datetime (SPARK-37707)
  • Recopilar, primero y último deben ser funciones de agregado deterministas (SPARK-32940)
  • Adición de ExpressionBuilder para funciones con sobrecargas complejas (SPARK-37164)
  • Adición de compatibilidad con matrices a unionByName (SPARK-36546)
  • Adición de df.withMetadata, una sugerencia de sintaxis para actualizar los metadatos de un dataframe (SPARK-36642)
  • Compatibilidad con literales de cadena sin formato (SPARK-36371)
  • Uso de CAST en el análisis de fechas y marcas de tiempo con el patrón predeterminado (SPARK-36418)
  • Compatibilidad con la clase de valor en el esquema anidado para Dataset (SPARK-20384)
  • Adición de compatibilidad con la sintaxis AS OF (SPARK-37219)
  • Agregar REPEATABLE en TABLESAMPLE para especificar la semilla (SPARK-37165)
  • Adición de la sintaxis ANSI set catalog xxx para cambiar el catálogo actual (SPARK-36841)
  • Compatibilidad con ILIKE (ALL | ANY | SOME): LIKE sin distinción entre mayúsculas y minúsculas (SPARK-36674, SPARK-36736, SPARK-36778)
  • La fase de consulta de soporte muestra estadísticas en tiempo de ejecución en modo de explicación con formato (SPARK-38322)
  • Adición de métricas de tamaño de volcado para sort merge join (SPARK-37726)
  • Actualización de la sintaxis SQL de SHOW FUNCTIONS (SPARK-37777)
  • Compatibilidad con la sintaxis DROP COLUMN [IF EXISTS] (SPARK-38939)
  • Nuevas funciones integradas y sus extensiones (SPARK-38783)
    • Fecha y hora
    • Funciones de AES (SPARK-12567)
      • Adición de las funciones integradas aes_encrypt y aes_decrypt (SPARK-12567)
      • Compatibilidad con el modo GCM mediante aes\_encrypt()/aes\_decrypt() (SPARK-37591)
      • Establecimiento de GCM como modo predeterminado en aes\_encrypt()/aes\_decrypt() (SPARK-37666)
      • Adición de los argumentos mode y padding a aes\_encrypt()/aes\_decrypt() (SPARK-37586)
    • Función de agregación de ANSI (SPARK-37671)
      • Compatibilidad con la función de agregado de ANSI: regr_count (SPARK-37613)
      • Compatibilidad con la función de agregado de ANSI: regr_avgx y regr_avgy (SPARK-37614)
      • Compatibilidad con la función de agregación de ANSI: percentile_cont (SPARK-37676, SPARK-38219)
      • Compatibilidad con la función de agregación de ANSI: percentile_disc (SPARK-37691)
      • Compatibilidad con la función de agregado de ANSI: regr_count (SPARK-37613)
      • Compatibilidad con la función de agregado de ANSI: array_agg (SPARK-27974)
      • Compatibilidad con la función de agregado de ANSI: regr_r2 (SPARK-37641)
      • Nueva función de SQL: try_avg (SPARK-38589)
    • Colecciones
    • Formato
    • Cadena/binario
      • Adición de la función de cadena CONTAINS() (SPARK-37508)
      • Adición de las funciones de cadena startswith() y endswith() (SPARK-37520)
      • Adición de las funciones lpad y rpad para cadenas binarias (SPARK-37047)
      • Compatibilidad con la función split_part (SPARK-38063)
    • Adición del parámetro de escala a las funciones floor y ceil (SPARK-37475)
    • Nuevas funciones de SQL: try_subtract y try_multiply (SPARK-38164)
    • Implementación de la función de agregación histogram_numeric, que admite la agregación parcial (SPARK-16280)
    • Adición de max_by/min_by a sql.functions (SPARK-36963)
    • Adición de nuevas funciones de SQL integradas: SEC y CSC (SPARK-36683)
    • array_intersect controla duplicados Double.NaN y Float.NaN (SPARK-36754)
    • Adición de cotangente como funciones de Scala y Python (SPARK-36660)

Mejoras de rendimiento

  • Generación de código whole stage
    • Adición de code-gen para sort aggregate sin agrupar las claves (SPARK-37564)
    • Adición de code-gen para la combinación de fusión de ordenación externa completa (SPARK-35352)
    • Adición de code-gen para la combinación hash aleatoria externa completa (SPARK-32567)
    • Adición de code-gen para existence sort merge join (SPARK-37316)
  • Delegación (filtros)
    • Delegación de filtros mediante RebalancePartitions (SPARK-37828)
    • Delegación del filtro de columna booleana (SPARK-36644)
    • Delegación del límite 1 para el lado derecho de la semi/anti combinación izquierda si la condición de combinación está vacía (SPARK-37917)
    • Traducción de más funciones de agregado estándar para la delegación (SPARK-37527)
    • Compatibilidad con la propagación de relaciones vacías a través de agregado/combinación (SPARK-35442)
    • Filtrado en tiempo de ejecución de nivel de fila (SPARK-32268)
    • Compatibilidad con la combinación semi izquierda en filtros de tiempo de ejecución de nivel de fila (SPARK-38565)
    • Compatibilidad con la delegación de predicado y aplicación de predicado y eliminación de columnas para CTE desduplicados (SPARK-37670)
  • Vectorización
    • Implementación de ConstantColumnVector y mejora del rendimiento de los metadatos de archivos ocultos (SPARK-37896)
    • Habilitación de la lectura vectorizada para VectorizedPlainValuesReader.readBooleans (SPARK-35867)
  • Combinación, eliminación o reemplazo de nodos
    • Combinación de uniones si hay un proyecto entre ellas (SPARK-37915)
    • Combinación en una conversión si es posible convertir de forma segura dos conversiones (SPARK-37922)
    • Eliminación de la ordenación si es el elemento secundario de RepartitionByExpression (SPARK-36703)
    • Quita la combinación externa si solo tiene DISTINCT en el lado transmitido con alias (SPARK-37292)
    • Reemplazo del valor hash por el agregado de ordenación si el elemento secundario ya está ordenado (SPARK-37455)
    • Solo contrae los proyectos si no duplicamos expresiones costosas (SPARK-36718)
    • Eliminación de alias redundantes después de RewritePredicateSubquery (SPARK-36280)
    • Combinación de subconsultas escalares no correlacionadas (SPARK-34079)
  • Creación de particiones
    • No se agrega la eliminación de particiones dinámicas si existe la eliminación de particiones estáticas (SPARK-38148)
    • Mejora de RebalancePartitions en las reglas del optimizador (SPARK-37904)
    • Adición de un factor de partición pequeño para volver a equilibrar las particiones (SPARK-37357)
  • Unirse
    • Se ha ajustado la lógica para disminuir la combinación hash de difusión en DynamicJoinSelection (SPARK-37753)
    • Omitir las claves de combinación duplicadas al crear una relación para la combinación hash aleatoria SEMI/ANTI (SPARK-36794)
    • Compatibilidad con la optimización de la combinación sesgada incluso si introduce una ordenación aleatoria adicional (SPARK-33832)
  • AQE
    • Compatibilidad con la eliminación de límites en el optimizador de AQE (SPARK-36424)
    • Optimización de un plan de fila en el optimizador normal y AQE (SPARK-38162)
  • Aggregate.groupOnly admite expresiones plegables (SPARK-38489)
  • ByteArrayMethods arrayEquals debe omitir rápidamente la comprobación de alineación con la plataforma no alineada (SPARK-37796)
  • Adición de la eliminación del patrón de árbol a la regla CTESubstitution (SPARK-37379)
  • Adición de más simplificaciones del operador Not (SPARK-36665)
  • Compatibilidad con BooleanType en UnwrapCastInBinaryComparison (SPARK-36607)
  • Fusión quita todas las expresiones después de la primera expresión que no acepta valores NULL (SPARK-36359)
  • Adición de un visitante de plan lógico para propagar los atributos distintos (SPARK-36194)

Mejoras del conector integrado

  • General
    • Serialización Lenient de datetime desde el origen de datos (SPARK-38437)
    • Tratamiento de la ubicación de la tabla como absoluta cuando la primera letra de su ruta de acceso está en la barra diagonal de create/alter table (SPARK-38236)
    • Eliminación de ceros iniciales de la partición de tipo de número estático vacía (SPARK-35561)
    • Compatibilidad con ignoreCorruptFiles y ignoreMissingFiles en las opciones del origen de datos (SPARK-38767)
    • Adición del comando SHOW CATALOGS (SPARK-35973)
  • Parquet
    • Habilitación de los nombres de columna de esquema coincidentes por identificadores de campo (SPARK-38094)
    • Eliminación del nombre del campo de comprobación al leer o escribir datos en Parquet (SPARK-27442)
    • Compatibilidad con valores booleanos de lectura vectorizados que usan la codificación RLE con Parquet DataPage V2 (SPARK-37864)
    • Compatibilidad con la codificación de páginas de datos de Parquet v2 (DELTA_BINARY_PACKED) para la ruta de acceso vectorizada (SPARK-36879)
    • Fusión mediante cambio de base de marcas de tiempo en la zona horaria de sesión guardada en los metadatos de Parquet/Avro (SPARK-37705)
    • Delegación agrupada por columna de partición para la agregación (SPARK-36646)
    • Delegación de agregado (mínimo/máximo/recuento) para Parquet (SPARK-36645)
    • Parquet: habilitación de las columnas de esquema coincidentes por identificador de campo (SPARK-38094)
    • Reducción del tamaño de página predeterminado por LONG_ARRAY_OFFSET si se usan G1GC y ON_HEAP (SPARK-37593)
    • Implementación de codificaciones vectorizadas DELTA_BYTE_ARRAY y DELTA_LENGTH_BYTE_ARRAY para compatibilidad con Parquet V2 (SPARK-37974)
    • Compatibilidad con tipos complejos para lector vectorizado de Parquet (SPARK-34863)
  • ORCO
    • Eliminación del nombre del campo de comprobación al leer o escribir datos existentes en Orc (SPARK-37965)
    • Delegación de agregado para ORC (SPARK-34960)
    • Compatibilidad con la lectura y escritura de intervalos ANSI en orígenes de datos ORC (SPARK-36931)
    • Compatibilidad con nombres de columna solo numéricos en orígenes de datos ORC (SPARK-36663)
  • JSON (JavaScript Object Notation)
    • Respetar allowNonNumericNumbers al analizar valores NaN e Infinity entre comillas en el lector JSON (SPARK-38060)
    • Uso de CAST para datetime en CSV/JSON de forma predeterminada (SPARK-36536)
    • Alineación del mensaje de error para los tipos de clave no admitidos en MapType en el lector JSON (SPARK-35320)
  • CSV
    • Corrección que hace referencia a la columna de registro dañada de CSV (SPARK-38534)
    • Los valores NULL se deben guardar como nada en lugar de cadenas vacías entrecomilladas ("") de manera predeterminada (SPARK-37575)
  • JDBC
    • Adición de la instrucción IMMEDIATE a la implementación de truncamiento del dialecto DB2 (SPARK-30062)
  • Colmena
    • Compatibilidad con la escritura de tablas en cubo de Hive (formatos de archivo de Hive con hash de Hive) (SPARK-32712)
    • Uso de expresiones para filtrar particiones de Hive en el lado cliente (SPARK-35437)
    • Compatibilidad con la eliminación de particiones dinámicas para HiveTableScanExec (SPARK-36876)
    • InsertIntoHiveDir debe usar el origen de datos si es convertible (SPARK-38215)
    • Compatibilidad con la escritura de tablas en cubo de Hive (formato de Parquet/ORC con hash de Hive) (SPARK-32709)

Retirada de nodos

  • FallbackStorage no debe intentar resolver el nombre de host "remoto" arbitrario (SPARK-38062)
  • ExecutorMonitor.onExecutorRemoved debe controlar ExecutorDecommission como finalizado (SPARK-38023)

Otros cambios importantes

  • Adición de bloqueo específico a BlockInfoManager (SPARK-37356)
  • Compatibilidad con la asignación de tipos de recursos de gpu/fpga de Spark a un tipo de recurso de YARN personalizado (SPARK-37208)
  • Informe del tamaño preciso del bloque de orden aleatorio si está sesgado (SPARK-36967)
  • Compatibilidad con el registro de Netty en la capa de red (SPARK-36719)

Transmisión Estructurada

Características principales

  • Presentación de Trigger.AvailableNow para ejecutar consultas de streaming como Trigger.Once en varios lotes (SPARK-36533)

Otros cambios importantes

  • Se utiliza StatefulOpClusteredDistribution para los operadores con estado respetando la compatibilidad con versiones anteriores (SPARK-38204)
  • Se ha corregido el tiempo de espera de flatMapGroupsWithState del lote con datos para la clave (SPARK-38320)
  • Se ha solucionado el problema de corrección en la combinación externa de flujo a flujo con el proveedor del almacén de estado de RocksDB (SPARK-38684)
  • Compatibilidad con Trigger.AvailableNow en el origen de datos de Kafka (SPARK-36649)
  • Optimización de la ruta de acceso de escritura en el proveedor del almacén de estado RocksDB (SPARK-37224)
  • Presentación de un nuevo origen de datos para proporcionar un conjunto coherente de filas por microlote (SPARK-37062)
  • Uso de StatefulOpClusteredDistribution para los operadores con estado y respetando la compatibilidad con versiones anteriores (SPARK-38204)

PySpark

Pandas API en Spark

Mejoras principales
  • Optimización de índices de "secuencia distribuida" con el valor predeterminado (SPARK-36559, SPARK-36338)
    • Compatibilidad para especificar el tipo de índice y el nombre en API de Pandas en Spark (SPARK-36709)
    • Visualización del tipo de índice predeterminado en planes de SQL para API de Pandas en Spark (SPARK-38654)
Características principales
  • Implementación de ps.merge_asof nativo de SparkSQL (SPARK-36813)
  • Compatibilidad con TimedeltaIndex en API de Pandas en Spark (SPARK-37525)
  • Compatibilidad con timedelta de Python (SPARK-37275, SPARK-37510)
  • Implementación de funciones en CategoricalAccessor/CategoricalIndex (SPARK-36185)
  • Usa el formateador de cadenas estándar de Python para la API de SQL en pandas API en Spark (SPARK-37436)
  • Compatibilidad con operaciones básicas de Series/Index de timedelta (SPARK-37510)
  • Compatibilidad con MultiIndex.dtypes (SPARK-36930)
  • Implementación de Index.map (SPARK-36469)
  • Implementación de Series.xor y Series.rxor (SPARK-36653)
  • Implementación del operador unario invert de ps.Series/Index integral (SPARK-36003)
  • Implementación de DataFrame.cov (SPARK-36396)
  • Compatibilidad con cadena y marca de tiempo para (Series|DataFrame).describe() (SPARK-37657)
  • Compatibilidad con el parámetro lambda column de DataFrame.rename(SPARK-38763)

Otros cambios importantes

Últimos cambios
  • Anulación de la compatibilidad de referencias a Python 3.6 en documentos y python/docs (SPARK-36977)
  • Eliminación del hack namedtuple al reemplazar el pickle integrado por cloudpickle (SPARK-32079)
  • La versión mínima de Pandas ha aumentado a 1.0.5 (SPARK-37465)
  • Mejoras principales
    • Proporcionar un generador de perfiles para UDF de Python/Pandas (SPARK-37443)
    • Usa el formateador de cadenas estándar de Python para la API de SQL en PySpark (SPARK-37516)
    • Exposición de estado y clase de error de SQL en excepciones de PySpark (SPARK-36953)
    • Intento de capturar faulthanlder cuando se bloquea un trabajo de Python (SPARK-36062)
Características principales
  • Implementación de DataFrame.mapInArrow en Python (SPARK-37228)
  • Usa el formateador de cadenas estándar de Python para la API de SQL en PySpark (SPARK-37516)
  • Adición de la API df.withMetadata de pyspark (SPARK-36642)
  • Compatibilidad con timedelta de Python (SPARK-37275)
  • Exposición de tableExists en pyspark.sql.catalog (SPARK-36176)
  • Exposición de databaseExists en pyspark.sql.catalog (SPARK-36207)
  • Exposición de functionExists en pyspark.sql.catalog (SPARK-36258)
  • Adición de Dataframe.observation a PySpark (SPARK-36263)
  • Adición de la API max_by o min_by a PySpark (SPARK-36972)
  • Compatibilidad para deducir el dict anidado como estructura al crear un dataframe (SPARK-35929)
  • Adición de las API bit/octet_length a Scala, Python y R (SPARK-36751)
  • Compatibilidad con la API ILIKE en Python (SPARK-36882)
  • Adición del método isEmpty para la API DataFrame de Python (SPARK-37207)
  • Adición de varias columnas que agregan compatibilidad (SPARK-35173)
  • Adición de SparkContext.addArchive en PySpark (SPARK-38278)
  • Hacer que los representantes de tipos de SQL puedan evaluarse (SPARK-18621)
  • Sugerencias de tipo insertadas para fpm.py en python/pyspark/mllib (SPARK-37396)
  • Implementación del parámetro dropna de SeriesGroupBy.value_counts (SPARK-38837)

MLlib

Características principales

  • Adición del parámetro distanceMeasure a trainKMeansModel (SPARK-37118)
  • Exposición de LogisticRegression.setInitialModel, como KMeans et al do (SPARK-36481)
  • Compatibilidad con CrossValidatorModel para obtener la desviación estándar de las métricas para cada paramMap (SPARK-36425)

Mejoras principales

  • Optimización de algunos treeAggregates en MLlib al retrasar las asignaciones (SPARK-35848)
  • Reescritura de _shared_params_code_gen.py en sugerencias de tipo insertadas para ml/param/shared.py (SPARK-37419)

Otros cambios importantes

SparkR

  • Migración de documentos de SparkR a pkgdown (SPARK-37474)
  • Exposición de make_date expresión en R (SPARK-37108)
  • Incorporación de la API max_by o min_by a SparkR (SPARK-36976)
  • Compatibilidad con la API ILIKE en R (SPARK-36899)
  • Adición de secante y cosecante como funciones de R (SPARK-36824)
  • Adición de las API bit/octet_length a Scala, Python y R (SPARK-36751)
  • Adición de cotangente como función de R (SPARK-36688)

Interfaz de usuario

  • Resumen de métricas de especulación a nivel de fase (SPARK-36038)
  • Tiempo de bloqueo de lectura aleatorio unificado para ordenar aleatoriamente el tiempo de espera de captura de lectura en StagePage (SPARK-37469)
  • Adición de configuraciones modificadas para la ejecución de SQL en la UI (SPARK-34735)
  • Hacer que ThriftServer reconozca spark.sql.redaction.string.regex (SPARK-36400)
  • Asociación e inicio del controlador después de iniciar la aplicación en la UI (SPARK-36237)
  • Agregar duración de confirmación al gráfico del nodo de la pestaña SQL (SPARK-34399)
  • Compatibilidad con el back-end de RocksDB en el servidor de historial de Spark (SPARK-37680)
  • Visualización de opciones para API de Pandas en Spark en la UI (SPARK-38656)
  • Cambie el nombre de "SQL" a "SQL/ DataFrame" en la página de la interfaz de usuario de SQL (SPARK-38657)

Construir

Actualizaciones de mantenimiento

Consulte Databricks Runtime 11.0.

Entorno del sistema

  • Sistema operativo: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.1.3
  • Delta Lake: 1.2.1

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
Antergos Linux 2015.10 (ISO-Rolling) argon2-cffi 20.1.0 generador asíncrono 1.10
atributos 21.2.0 llamada de retorno 0.2.0 backports.entry-points-selectable 1.1.1
blanquear 4.0.0 boto3 1.21.18 botocore 1.24.18
certifi 2021.10.8 cffi 1.14.6 chardet 4.0.0
charset-normalizer 2.0.4 ciclista 0.10.0 Cython 0.29.24
dbus-python 1.2.16 debugpy 1.4.1 decorador 5.1.0
defusedxml 0.7.1 distlib 0.3.4 distro-info 0.23ubuntu1
puntos de entrada 0,3 visión general de las facetas 1.0.0 bloqueo de archivos 3.6.0
idna 3.2 ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets 7.7.0 Jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.0.1
jsonschema 3.2.0 Cliente Jupyter 6.1.12 jupyter-core 4.8.1
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib-inline 0.1.2
Mal sintonizado 0.8.4 nbclient 0.5.3 nbconvert 6.1.0
nbformat 5.1.3 nest-asyncio 1.5.1 cuaderno 6.4.5
numpy 1.20.3 empaquetado 21,0 Pandas 1.3.4
PandocFiltros 1.4.3 parso 0.8.2 chivo expiatorio 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Almohada 8.4.0
pepita 21.2.4 platformdirs 2.5.2 trazado 5.6.0
Cliente-Prometeo 0.11.0 prompt-toolkit 3.0.20 protobuf 3.20.1
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-apt 2.0.0+ubuntu0.20.4.7 Python-dateutil 2.8.2
pytz 2021.3 pyzmq 22.2.1 Solicitudes 2.26.0
requests-unixsocket 0.2.0 s3transfer 0.5.2 scikit-learn 0.24.2
scipy 1.7.1 biblioteca de visualización de datos de Python llamada seaborn 0.11.2 Send2Trash 1.8.0
setuptools 58.0.4 six (seis) 1.16.0 ssh-import-id 5.10
statsmodels (paquete de Python para análisis estadístico) 0.12.2 tenacidad 8.0.1 terminado 0.9.4
ruta de prueba 0.5.0 threadpoolctl 2.2.0 tornado 6.1
traitlets 5.1.0 actualizaciones desatendidas 0,1 urllib3 1.26.7
virtualenv 20.8.0 wcwidth 0.2.5 codificaciones web 0.5.1
rueda 0.37.0 widgetsnbextension 3.6.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN desde el 06-05-2022.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
askpass 1.1 asegúrate de que 0.2.1 retroportaciones 1.4.1
base 4.1.3 base64enc 0.1-3 poco 4.0.4
bit 64 4.0.5 mancha 1.2.3 bota 1.3-28
fermentar 1.0-7 Brio 1.1.3 escoba 0.8.0
bslib 0.3.1 cachemir 1.0.6 callr 3.7.0
cursor 6.0-92 cellranger (herramienta de análisis de datos celulares) 1.1.0 Chron 2.3-56
clase 7.3-20 Cli 3.3.0 clipr 0.8.0
conglomerado 2.1.3 codetools 0.2-18 espacio de colores 2.0-3
commonmark 1.8.0 compilador 4.1.3 configuración 0.3.1
cpp11 0.4.2 crayón 1.5.1 credenciales 1.3.2
rizo 4.3.2 tabla de datos 1.14.2 conjuntos de datos 4.1.3
DBI 1.1.2 dbplyr 2.1.1 Descripción 1.4.1
devtools 2.4.3 diffobj 0.3.5 digerir 0.6.29
dplyr 1.0.9 dtplyr 1.2.1 e1071 1.7-9
elipsis 0.3.2 evaluar 0,15 fans 1.0.3
colores 2.1.0 mapa rápido 1.1.0 fontawesome 0.2.2
convictos 0.5.1 foreach 1.5.2 extranjero 0.8-82
fragua 0.2.0 Fs 1.5.2 futuro 1.25.0
aplicación futura 1.9.0 hacer gárgaras 1.2.0 genéricos 0.1.2
Gert 1.6.0 ggplot2 3.3.6 Gh 1.3.0
gitcreds 0.1.1 glmnet 4.1-4 globales 0.14.0
pegamento 1.6.2 googledrive 2.0.0 googlesheets4 1.0.0
Gower 1.0.0 elementos gráficos 4.1.3 grDevices 4.1.3
rejilla 4.1.3 gridExtra 2.3 gsubfn 0,7
gtable 0.3.0 Casco 0.2.0 refugio 2.5.0
más alto 0.9 HMS 1.1.1 herramientas de HTML 0.5.2
htmlwidgets 1.5.4 httpuv 1.6.5 httr 1.4.3
Identificadores 1.0.1 ini 0.3.1 ipred 0.9-12
isoband 0.2.5 Iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.0 KernSmooth 2.23-20 tejido 1,39
etiquetado 0.4.2 más tarde 1.3.0 retícula 0.20-45
lava 1.6.10 ciclo de vida 1.0.1 listenv 0.8.0
lubridate 1.8.0 magrittr 2.0.3 Formato Markdown 1.1
MASA 7.3-56 Matriz 1.4-1 memorizar 2.0.1
métodos 4.1.3 mgcv 1.8-40 mimo 0,12
ModelMetrics 1.2.2.2 modelr 0.1.8 munsell 0.5.0
nlme 3.1-157 nnet 7.3-17 numDeriv 2016.8-1.1
openssl (software de cifrado) 2.0.0 paralelo 4.1.3 Paralelamente 1.31.1
pilar 1.7.0 pkgbuild 1.3.1 pkgconfig 2.0.3
pkgload 1.2.4 plogr 0.2.0 plyr 1.8.7
elogio 1.0.0 prettyunits 1.1.1 Proc 1.18.0
processx 3.5.3 prodlim 2019.11.13 progreso 1.2.2
progressr 0.10.0 promesas 1.2.0.1 prototipo 1.0.0
intermediario 0.4-26 P.D 1.7.0 ronroneo 0.3.4
r2d3 0.2.6 R6 2.5.1 Bosque Aleatorio (randomForest) 4.7-1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.8.3 RcppEigen 0.3.3.9.2 readr 2.1.2
readxl 1.4.0 recetas 0.2.0 partido de revancha 1.0.1
segunda revancha 2.1.2 Telecontroles 2.4.2 ejemplo reproducible 2.0.1
reshape2 1.4.4 rlang 1.0.2 rmarkdown 2.14
RODBC 1.3-19 roxygen2 7.1.2 rpart 4.1.16
rprojroot 2.0.3 Rserve 1.8-10 RSQLite 2.2.13
rstudioapi 0,13 rversions 2.1.1 rvest 1.0.2
Sass 0.4.1 balanzas 1.2.0 selectr 0.4-2
información de sesión 1.2.2 forma 1.4.6 brillante 1.7.1
sourcetools 0.1.7 sparklyr 1.7.5 SparkR 3.3.0
espacial 7.3-11 Tiras 4.1.3 sqldf 0.4-11
SQUAREM 2021.1 Estadísticas 4.1.3 estadísticas4 4.1.3
stringi 1.7.6 stringr 1.4.0 supervivencia 3.2-13
sys 3.4 tcltk 4.1.3 testthat 3.1.4
tibble 3.1.7 tidyr 1.2.0 tidyselect 1.1.2
tidyverse 1.3.1 fechaHora 3043.102 tinytex 0,38
herramientas 4.1.3 tzdb 0.3.0 usa esto 2.1.5
utf8 1.2.2 utilidades 4.1.3 Identificador Único Universal (UUID) 1.1-0
vctrs 0.4.1 viridisLite 0.4.0 Vroom 1.5.7
Waldo 0.4.0 bigotes 0,4 withr 2.5.0
xfun 0,30 xml2 1.3.3 xopen 1.0.0
xtable 1.8-4 yaml 2.3.5 cremallera 2.2.0

Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)

Identificador de grupo Identificador de artefacto Versión
antlr antlr 2.7.7
com.amazonaws cliente de Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config (configuración del SDK de Java de AWS) 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs (registros del SDK de AWS para Java) 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws SDK de AWS para Java - Soporte 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.3
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guayaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger perfilador 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuración 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.univocity analizadores de univocidad 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
hive-2.3__hadoop-3.2 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 0,21
io.delta delta-sharing-spark_2.12 0.4.0
io.dropwizard.metrics núcleo de métricas 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics métricas y verificaciones de salud 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus cliente_simple_común 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recopilador 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activación 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.11
javolución javolución 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
maven-trees hive-2.3__hadoop-3.2 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine escabeche 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.snowflake spark-snowflake_2.12 2.10.0-spark_3.1
net.sourceforge.f2j arpack_combinado_todo 0,1
org.acplt.remotetea remotetea-oncrpc (servicio de comunicación remota) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr plantilla de cadenas 3.2.1
org.apache.ant hormiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lanzador de aplicaciones Ant 1.9.2
org.apache.arrow formato de flecha 7.0.0
org.apache.arrow núcleo de memoria de flecha 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow vector de flecha 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.9
org.apache.curator curador-cliente 2.13.0
org.apache.curator marco de trabajo para curadores 2.13.0
org.apache.curator curador-recetas 2.13.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop-cliente-api 3.3.2-databricks
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de almacenamiento de hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims planificador-de-adaptadores-hive 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy hiedra 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.4
org.apache.orc orc-mapreduce 1.7.4
org.apache.orc calzos de orco 1.7.4
org.apache.parquet parquet-columna 1.12.0-databricks-0004
org.apache.parquet parquet-common 1.12.0-databricks-0004
org.apache.parquet codificación de parquet 1.12.0-databricks-0004
org.apache.parquet estructuras-de-formato-parquet 1.12.0-databricks-0004
org.apache.parquet parquet-hadoop 1.12.0-databricks-0004
org.apache.parquet parquet-jackson 1.12.0-databricks-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.20
org.apache.yetus anotaciones de audiencia 0.5.0
org.apache.zookeeper guardián de zoológico 3.6.2
org.apache.zookeeper Zookeeper-Jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty Seguridad de Jetty 9.4.46.v20220331
org.eclipse.jetty servidor Jetty 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Aplicación web de Jetty 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-API 9.4.46.v20220331
org.eclipse.jetty.websocket cliente de websocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket servidor de websocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de contenedor de Jersey 2,34
org.glassfish.jersey.containers jersey-container-servlet-core 2,34
org.glassfish.jersey.core jersey-client 2,34
org.glassfish.jersey.core jersey-common 2,34
org.glassfish.jersey.core jersey-server 2,34
org.glassfish.jersey.inject jersey-hk2 2,34
org.hibernate.validator validador de hibernación 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotaciones 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Cuñas 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaz de prueba 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark no utilizado 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1