Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.
Databricks publicó esta versión en diciembre de 2020.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 7.5, con tecnología Apache Spark 3.0.
Nuevas características
Característica y mejoras de Delta Lake
En esta versión se proporcionan las siguientes características y mejoras de Delta Lake:
- Los puntos de comprobación asincrónicos eliminan los picos de duración de microlotes de streaming
- La información de tabla más reciente ahora se propaga a los catálogos
-
MERGE INTOLa operación ahora admite la evolución del esquema de las columnas anidadas -
MERGE INTOLa operación ahora usa automáticamente las escrituras optimizadas - Las operaciones
MERGE INTOyUPDATEahora resuelven las columnas struct anidadas por nombre -
CLONEestá disponible de forma general y ahora puede invalidar las propiedades de tabla -
RESTOREestá disponible de forma general - Los implícitos de Scala simplifican las API de lectura y escritura de Spark
-
Mejora del rendimiento de streaming con la opción de conector
fetchParallelism - Seguimiento del progreso de streaming con nuevas métricas de Auto Loader
Los puntos de comprobación asincrónicos eliminan los picos de duración de microlotes de streaming
Delta Lake realiza puntos de comprobación cada 10 confirmaciones de forma predeterminada. En las cargas de trabajo de streaming, los puntos de comprobación pueden provocar picos menores en la duración del microlote cada 10 confirmaciones. Los puntos de comprobación asincrónicos eliminan estos picos.
Los puntos de comprobación asincrónicos están habilitados de forma predeterminada para todas las cargas de trabajo de streaming que no son de desencadenador de un uso. Con los puntos de control asincrónicos, los escritores de streaming también escriben puntos de control mejorados, por lo que no es necesario participar explícitamente en puntos de control mejorados.
Para deshabilitar los puntos de comprobación asincrónicos, establezca la configuración SQL spark.databricks.delta.checkpoint.async.enabled false.
Las cargas de trabajo por lotes siguen escribiendo puntos de comprobación de forma sincrónica y se recomienda no habilitar los puntos de comprobación asincrónicos para las cargas de trabajo por lotes.
La información de tabla más reciente ahora se propaga a los catálogos
Delta Lake ahora propaga la información de tabla más reciente, como las propiedades de esquema y tabla, a catálogos como el metastore de Hive, siguiendo una estrategia de máximo esfuerzo. Esta información puede ayudarle a aprovechar las herramientas de catalogación para comprender el esquema de las tablas Delta.
Delta Lake no depende internamente de esta información, pero intenta mantenerla actualizada. Además, Delta Lake almacena las propiedades de tabla delta.lastUpdateVersion y delta.lastCommitTimestamp para indicar la versión y la marca de tiempo de la confirmación que insertó por última vez un cambio en el metastore. El metastore solo se actualiza cuando el esquema de la tabla o las propiedades de la tabla no coinciden.
Por lo tanto, las propiedades de tabla mencionadas anteriormente no reflejan necesariamente la versión más reciente de la tabla.
Si la información de la tabla y la información del metastore no están sincronizadas, puede ejecutar un comando como DESCRIBE <table> para actualizar el metastore.
Nota:
Dado que Hive no permite cambiar las columnas de partición, pero las tablas Delta sí pueden cambiar su particionamiento, las tablas Delta no se muestran como particionadas en Hive.
La operación MERGE INTO ahora admite la evolución del esquema de las columnas anidadas
La evolución del esquema de las columnas anidadas ahora tiene la misma semántica que la de las columnas de nivel superior. Por ejemplo, las nuevas columnas anidadas se pueden agregar automáticamente a una columna StructType. Consulte Evolución automática del esquema en combinación para obtener más información.
La operación MERGE INTO ahora usa automáticamente las escrituras optimizadas
Las escrituras optimizadas pueden proporcionar un rendimiento mucho mejor para MERGE INTO de serie, especialmente para MERGE INTO en las tablas con particiones. Para deshabilitar las escrituras optimizadas, establezca la configuración de Spark spark.databricks.delta.optimizeWrite.enabled en false.
Las operaciones MERGE INTO y UPDATE ahora resuelven las columnas struct anidadas por nombre
Los comandos UPDATE y MERGE INTO de las operaciones de actualización resuelven las columnas struct anidadas por nombre. Es decir, al comparar o asignar columnas de tipo StructType, el orden de las columnas anidadas no importa (exactamente de la misma manera que el orden de las columnas de nivel superior). Para revertir a la resolución por posición, establezca la configuración de Spark spark.databricks.delta.resolveMergeUpdateStructsByName.enabled en false.
CLONE está disponible de forma general y ahora puede invalidar las propiedades de tabla
El comando CLONE ahora está disponible con carácter general. Consulte CREATE TABLE CLONE. Además, ahora puede especificar invalidaciones de propiedades de tabla al usar CLONE. Para ver ejemplos, consulte Clonación de una tabla en Azure Databricks.
RESTORE está disponible de forma general
El comando RESTORE ahora está disponible con carácter general. Consulte RESTORE.
Los implícitos de Scala simplifican las API de lectura y escritura de Spark
Puede importar io.delta.implicits._ para usar el método delta con las API de lectura y escritura de Spark.
import io.delta.implicits._
spark.read.delta("/my/table/path")
df.write.delta("/my/table/path")
spark.readStream.delta("/my/table/path")
df.writeStream.delta("/my/table/path")
Mejora del rendimiento de streaming con la opción de conector fetchParallelism
El conector de AQS ahora admite una nueva opción fetchParallelism para especificar el paralelismo para capturar mensajes de Queue service.
Seguimiento del progreso de streaming con nuevas métricas de Auto Loader
Auto Loader ahora notifica cuántos archivos existen en el trabajo pendiente y el tamaño del trabajo pendiente después de cada lote. Puede usar estas métricas para hacer un seguimiento del progreso de streaming. Para obtener más información sobre cómo ver las métricas, consulte ¿Qué es Auto Loader?.
Mejoras
Compatibilidad más amplia con bibliotecas de ámbito de cuaderno mediante los comandos magic %pip y %conda
Ahora puede instalar bibliotecas con ámbito de cuaderno mediante los comandos magic %pip y %conda en clústeres de alta simultaneidad con listas de control de acceso de tabla o acceso directo a credenciales habilitado.
Visualización precisa de Spark SQL DECIMAL
El tipo de datos de SQL Spark DECIMAL se muestra ahora en tablas sin pérdida de precisión ni escala.
Conector de almacenamiento de ADLS Gen 2 basado en Hadoop 3.3 para ABFS
Una versión actualizada del conector de almacenamiento de ADLS Gen 2 se basa en Hadoop 3.3 para ABFS. El conector actualizado contiene muchas mejoras de estabilidad (consulte Estabilidad de Hadoop) e incluye compatibilidad con la Autenticación de tokens de SAS.
Otras correcciones
Se ha quitado el conector de Kafka de Databricks para Spark Streaming. Use el conector de Apache Spark.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- Koalas se ha actualizado de 1.3.0 a 1.4.0.
- Se han actualizado varias bibliotecas de R instaladas. Consulte Bibliotecas de R instaladas.
- Compilación de OpenJDK 8 actualizada a Zulu 8.50.0.51-CA-linux64 (compilación 1.8.0_275-b01).
Apache Spark
Databricks Runtime 7.5 incluye Apache Spark 3.0.1. En esta versión, se incluyen todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 7.4 (EoS), junto con las siguientes correcciones de errores y mejoras de Spark:
- [SPARK-33611] [UI] Evitar la codificación dos veces en el parámetro de consulta de la dirección URL de proxy reescrita
- [SPARK-33587][CORE] Terminación del ejecutor en errores irrecuperables anidados (7.x)
- [SPARK-33140] [SQL] Reversión del código que no usa SparkSession pasado para obtener SQLConf.
- [SPARK-33472] [SQL] Ajuste del orden de regla RemoveRedundantSorts
- [SPARK-33422] [DOC] Corrección de la visualización correcta del elemento de menú izquierdo
- [SPARK-27421] [SQL] Corrección del filtro para la columna int y la clase de valor java.lang.String al eliminar la columna de partición
- [SPARK-33483] [INFRA][tests] Corregir patrones de exclusión de ratas y agregar una LICENCIA
- [SPARK-33464] [INFRA] Agregar o quitar memoria caché (in)necesaria y reestructurar las acciones yaml de GitHub
- [SPARK-33407] [PYTHON][7.x] Simplificación del mensaje de excepción de UDF de Python (deshabilitado de forma predeterminada)
- [SPARK-33435] [SQL] DSv2: REFRESHREFRESH TABLE debe invalidar las cachés que hacen referencia a la tabla.
- [SPARK-33358] [SQL] Código de retorno cuando se ha generado un error en el proceso de comando
- [SPARK-33183] [DBCONNECT] Adición de RemoveRedundantSorts.scala a ALLOW_LIST.txt
- [SPARK-33290] [SQL] REFRESHREFRESH TABLE debe invalidar la caché aunque la propia tabla no se almacene en caché.
- [SPARK-33140] [SQL] Corrección de la compilación delta
- [SPARK-33316] [SQL] Adición de pruebas unitarias para from_avro y to_avro con el Registro de esquema y el esquema de Avro que admite un valor NULL proporcionado por el usuario
-
[SPARK-33404] [SQL] Corrección de resultados incorrectos en la expresión
date_trunc - [SPARK-33339] [PYTHON] Bloqueo de la aplicación Pyspark debido a un error que no es de excepción
- [SPARK-33412] [SQL] OverwriteByExpression debe resolver su condición de eliminación en función de la relación de tabla y no de la consulta de entrada
- [SPARK-33391] [SQL] Incumplimiento de un índice basado por parte de element_at con CreateArray
- [SPARK-33316] [SQL] El usuario de soporte ha proporcionado un esquema de Avro que acepta valores NULL para el esquema de Catalyst que no acepta valores NULL en la escritura de Avro
- [SPARK-33372] [SQL] Corrección de la eliminación de cubos InSet
- [SPARK-33371] [PYTHON] Actualización de setup.py y pruebas para Python 3.9
- [SPARK-33140] [SQL] Eliminación de SQLConf y SparkSession en todas las subclases de Rule[QueryPlan]
- [SPARK-33338] [SQL] GROUP BY el uso de un mapa literal no debería fallar
- [SPARK-33306] [SQL] Zona horaria necesaria al convertir fecha en cadena
- [SPARK-33284] [WEB-UI] En la página de interfaz de usuario de Storage, al hacer clic en cualquier campo para ordenar la tabla, se perderá el contenido del encabezado.
- [SPARK-33362] [SQL] skipSchemaResolution todavía debería requerir que se resuelva la consulta
- [SPARK-32257] [ SQL] Notifica errores explícitos para el uso no válido de SET/RESET command
- [SPARK-32406] [SQL] Hacer que RESET la sintaxis admita el restablecimiento de configuración único
- [SPARK-32376] [SQL] Hacer que el comportamiento de unionByName con relleno nulo funcione con columnas struct
- [SPARK-32308] [SQL] Mover la lógica de resolución por nombre de unionByName del código de API a la fase de análisis
- [SPARK-20044] [UI] Compatibilidad con la interfaz de usuario de Spark situada detrás del proxy inverso de front-end mediante una URL proxy de reversión de prefijo de ruta de acceso
- [SPARK-33268] [SQL][python] Corrección de errores para convertir datos desde y hacia PythonUserDefinedType
- [SPARK-33292] [SQL] Desambiguación de la representación de cadena de ArrayBasedMapData literal
- [SPARK-33183] [SQL] Corrección de la regla del optimizador EliminateSorts y adición de una regla física para quitar las ordenaciones redundantes
- [SPARK-33272] [SQL] Eliminación de la asignación de atributos en QueryPlan.transformUpWithNewOutput
- [SPARK-32090] [SQL] Mejora de UserDefinedType.equal() para que sea simétrico
- [SPARK-33267] [SQL] Corrección del problema de NPE en el filtro "In" cuando uno de los valores contiene null
- [SPARK-33208] [SQL] Actualización del documento de SparkSession#sql
- [SPARK-33260] [SQL] Corrección de resultados incorrectos de SortExec cuando sortOrder es Stream
- [SPARK-33230] [SQL] Los confirmadores de Hadoop para obtener un identificador de trabajo único en "spark.sql.sources.writeJobUUID"
- [SPARK-33197] [SQL] Los cambios en spark.sql.analyzer.maxIterations se hacen efectivos en tiempo de ejecución
- [SPARK-33228] [SQL] No quite la caché de datos al reemplazar una vista que tenga el mismo plan lógico
- [SPARK-32557] [CORE] Registro e ingesta de la excepción por entrada en el servidor de historial
- [SPARK-32436] [CORE] Inicialización de numNonEmptyBlocks en HighlyCompressedMapStatus.readExternal
- [SPARK-33131] [SQL] Corregir conjuntos de agrupación con cláusula having no puede resolver el nombre col completo
- [SPARK-32761] [SQL] Permitir la agregación de varias expresiones distintas que se pueden plegar
- [SPARK-33094] [SQL] Hacer que el formato ORC propague la configuración de Hadoop desde las opciones de DS hata el sistema de archivos HDFS subyacente
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 7.5.
Entorno del sistema
- Sistema operativo: Ubuntu 18.04.5 LTS
- Java: Zulu 8.50.0.51-CA-linux64 (compilación 1.8.0_275-b01)
- Scala: 2.12.10
- Python: 3.7.5
- R: Versión R 3.6.3 (29-02-2020)
- Delta Lake 0.7.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| asn1crypto | 1.3.0 | llamada de retorno | 0.1.0 | boto3 | 1.12.0 |
| botocore | 1.15.0 | certifi | 2020.6.20 | cffi | 1.14.0 |
| chardet | 3.0.4 | criptografía | 2.8 | ciclista | 0.10.0 |
| Cython | 0.29.15 | decorador | 4.4.1 | docutils | 0.15.2 |
| puntos de entrada | 0,3 | idna | 2.8 | ipykernel | 5.1.4 |
| ipython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.17.2 |
| jmespath | 0.10.0 | joblib | 0.14.1 | Cliente Jupyter | 5.3.4 |
| jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | Koalas | 1.4.0 |
| matplotlib | 3.1.3 | numpy | 1.18.1 | Pandas | 1.0.1 |
| parso | 0.7.0 | chivo expiatorio | 0.5.1 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | pepita | 20.0.2 | prompt-toolkit | 3.0.3 |
| psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | pyarrow | 1.0.1 |
| pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
| pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
| python-apt | 1.6.5+ubuntu0.3 | Python-dateutil | 2.8.1 | pytz | 2019.3 |
| pyzmq | 18.1.1 | Solicitudes | 2.22.0 | s3transfer | 0.3.3 |
| scikit-learn | 0.22.1 | scipy | 1.4.1 | biblioteca de visualización de datos de Python llamada seaborn | 0.10.0 |
| setuptools | 45.2.0 | six (seis) | 1.14.0 | ssh-import-id | 5.7 |
| statsmodels (paquete de Python para análisis estadístico) | 0.11.0 | tornado | 6.0.3 | traitlets | 4.3.3 |
| actualizaciones desatendidas | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
| wcwidth | 0.1.8 | rueda | 0.34.2 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN del 02-11-2020.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| askpass | 1.1 | asegúrate de que | 0.2.1 | retroportaciones | 1.1.10 |
| base | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
| poco | 4.0.4 | bit 64 | 4.0.5 | mancha | 1.2.1 |
| bota | 1.3-25 | fermentar | 1.0-6 | Brio | 1.1.0 |
| escoba | 0.7.2 | callr | 3.5.1 | cursor | 6.0-86 |
| cellranger (herramienta de análisis de datos celulares) | 1.1.0 | Chron | 2.3-56 | clase | 7.3-17 |
| Cli | 2.1.0 | clipr | 0.7.1 | conglomerado | 2.1.0 |
| codetools | 0.2-18 | espacio de colores | 1.4-1 | commonmark | 1.7 |
| compilador | 3.6.3 | configuración | 0,3 | cubierta | 3.5.1 |
| cpp11 | 0.2.3 | crayón | 1.3.4 | diafonía | 1.1.0.1 |
| rizo | 4.3 | tabla de datos | 1.13.2 | conjuntos de datos | 3.6.3 |
| DBI | 1.1.0 | dbplyr | 1.4.4 | Descripción | 1.2.0 |
| devtools | 2.3.2 | diffobj | 0.3.2 | digerir | 0.6.27 |
| dplyr | 0.8.5 | DIRECTOR TÉCNICO | 0,16 | elipsis | 0.3.1 |
| evaluar | 0.14 | fans | 0.4.1 | colores | 2.0.3 |
| mapa rápido | 1.0.1 | convictos | 0.5.0 | foreach | 1.5.1 |
| extranjero | 0.8-76 | fragua | 0.2.0 | Fs | 1.5.0 |
| genéricos | 0.1.0 | ggplot2 | 3.3.2 | Gh | 1.1.0 |
| git2r | 0.27.1 | glmnet | 3.0-2 | globales | 0.13.1 |
| pegamento | 1.4.2 | Gower | 0.2.2 | elementos gráficos | 3.6.3 |
| grDevices | 3.6.3 | rejilla | 3.6.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtable | 0.3.0 | refugio | 2.3.1 |
| más alto | 0.8 | HMS | 0.5.3 | herramientas de HTML | 0.5.0 |
| htmlwidgets | 1.5.2 | httpuv | 1.5.4 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| ipred | 0.9-9 | isoband | 0.2.2 | Iteradores | 1.0.13 |
| jsonlite | 1.7.1 | KernSmooth | 2.23-18 | tejido | 1,30 |
| etiquetado | 0.4.2 | más tarde | 1.1.0.1 | retícula | 0.20-41 |
| lava | 1.6.8 | evaluación diferida | 0.2.2 | ciclo de vida | 0.2.0 |
| lubridate | 1.7.9 | magrittr | 1.5 | Formato Markdown | 1.1 |
| MASA | 7.3-53 | Matriz | 1.2-18 | memorizar | 1.1.0 |
| métodos | 3.6.3 | mgcv | 1.8-33 | mimo | 0.9 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.8 | munsell | 0.5.0 |
| nlme | 3.1-150 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
| openssl (software de cifrado) | 1.4.3 | paralelo | 3.6.3 | pilar | 1.4.6 |
| pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
| plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.16.2 | processx | 3.4.4 |
| prodlim | 2019.11.13 | progreso | 1.2.2 | promesas | 1.1.1 |
| prototipo | 1.0.0 | P.D | 1.4.0 | ronroneo | 0.3.4 |
| r2d3 | 0.2.3 | R6 | 2.5.0 | Bosque Aleatorio (randomForest) | 4.6-14 |
| rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
| Rcpp | 1.0.5 | readr | 1.4.0 | readxl | 1.3.1 |
| recetas | 0.1.14 | partido de revancha | 1.0.1 | segunda revancha | 2.1.2 |
| Telecontroles | 2.2.0 | ejemplo reproducible | 0.3.0 | reshape2 | 1.4.4 |
| Rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.8 |
| rmarkdown | 2,5 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
| rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
| RSQLite | 2.2.1 | rstudioapi | 0,11 | rversions | 2.0.2 |
| rvest | 0.3.6 | balanzas | 1.1.1 | selectr | 0.4-2 |
| información de sesión | 1.1.1 | forma | 1.4.4 | brillante | 1.5.0 |
| sourcetools | 0.1.7 | sparklyr | 1.4.0 | SparkR | 3.0.0 |
| espacial | 7.3-11 | Tiras | 3.6.3 | sqldf | 0.4-11 |
| SQUAREM | 2020.5 | Estadísticas | 3.6.3 | estadísticas4 | 3.6.3 |
| stringi | 1.5.3 | stringr | 1.4.0 | supervivencia | 3.2-7 |
| sys | 3.4 | tcltk | 3.6.3 | TeachingDemos | 2,10 |
| testthat | 3.0.0 | tibble | 3.0.4 | tidyr | 1.1.2 |
| tidyselect | 1.1.0 | tidyverse | 1.3.0 | fechaHora | 3043.102 |
| tinytex | 0,27 | herramientas | 3.6.3 | usa esto | 1.6.3 |
| utf8 | 1.1.4 | utilidades | 3.6.3 | Identificador Único Universal (UUID) | 0.1-4 |
| vctrs | 0.3.4 | viridisLite | 0.3.0 | Waldo | 0.2.2 |
| bigotes | 0,4 | withr | 2.3.0 | xfun | 0,19 |
| xml2 | 1.3.2 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.2.1 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | flujo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.4-3 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | perfilador | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuración | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | analizadores de univocidad | 2.9.0 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| commons-collections | commons-collections | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0,10 |
| io.dropwizard.metrics | núcleo de métricas | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | netty-all | 4.1.47.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | cliente_simple_común | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recopilador | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolución | javolución | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | pyrolita | 4,30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.12.8 |
| net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.7.1 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.9.2 |
| org.apache.arrow | formato de flecha | 0.15.1 |
| org.apache.arrow | memoria de flecha | 0.15.1 |
| org.apache.arrow | vector de flecha | 0.15.1 |
| org.apache.avro | avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.9 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | commons-text | 1.6 |
| org.apache.curator | curador-cliente | 2.7.1 |
| org.apache.curator | marco de trabajo para curadores | 2.7.1 |
| org.apache.curator | curador-recetas | 2.7.1 |
| org.apache.derby | derbi | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | anotaciones de Hadoop | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | hadoop-cliente | 2.7.4 |
| org.apache.hadoop | hadoop-common | 2.7.4 |
| org.apache.hadoop | Hadoop-HDFS | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
| org.apache.hive | hive-beeline | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-common | 2.3.7 |
| org.apache.hive | hive-exec-core | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | hive-llap-client | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | hive-metastore | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | Hive-shims | 2.3.7 |
| org.apache.hive | API de almacenamiento de hive | 2.7.1 |
| org.apache.hive | Generador de código vectorial Hive | 2.3.7 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | hive-shims-common | 2.3.7 |
| org.apache.hive.shims | planificador-de-adaptadores-hive | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0-incubación |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | hiedra | 2.4.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.5.10 |
| org.apache.orc | orc-mapreduce | 1.5.10 |
| org.apache.orc | calzos de orco | 1.5.10 |
| org.apache.parquet | parquet-columna | 1.10.1-databricks6 |
| org.apache.parquet | parquet-common | 1.10.1-databricks6 |
| org.apache.parquet | codificación de parquet | 1.10.1-databricks6 |
| org.apache.parquet | formato parquet | 2.4.0 |
| org.apache.parquet | parquet-hadoop | 1.10.1-databricks6 |
| org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | velocidad | 1.5 |
| org.apache.xbean | xbean-asm7 sombreado | 4.15 |
| org.apache.yetus | anotaciones de audiencia | 0.5.0 |
| org.apache.zookeeper | guardián de zoológico | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-continuation | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | servidor Jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2,30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
| org.glassfish.jersey.core | jersey-client | 2,30 |
| org.glassfish.jersey.core | jersey-common | 2,30 |
| org.glassfish.jersey.core | jersey-server | 2,30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,30 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
| org.hibernate.validator | validador de hibernación | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.6.6 |
| org.json4s | json4s-core_2.12 | 3.6.6 |
| org.json4s | json4s-jackson_2.12 | 3.6.6 |
| org.json4s | json4s-scalap_2.12 | 3.6.6 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | Cuñas | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | no utilizado | 1.0.0 |
| org.springframework | spring-core | 4.1.4.LANZAMIENTO |
| org.springframework | Prueba de primavera | 4.1.4.LANZAMIENTO |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.5 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0,52 |