Compartir a través de


Databricks Runtime 10.1 (EoS)

Nota:

El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.

Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 10.1 y Databricks Runtime 10.1 Photon, con tecnología de Apache Spark 3.2.0. Databricks publicó esta versión en noviembre de 2021. Photon se encuentra en versión preliminar pública.

Nuevas características y mejoras

Nueva configuración de tablas de Delta para compactar archivos pequeños

La propiedad delta.autoOptimize.autoCompact de las tablas de Delta ahora acepta los nuevos valores de auto y legacy, además de los valores actuales de true y false. Cuando se establece en auto (recomendado), la compactación automática usa mejores valores predeterminados, como el establecimiento de 32 MB como tamaño del archivo de destino (aunque los comportamientos predeterminados están sujetos a cambios en el futuro). Cuando se establece en legacy o true, la compactación automática usa 128 MB como tamaño del archivo de destino.

En lugar de establecer esta propiedad para una tabla individual, puede establecer la configuración de spark.databricks.delta.autoCompact.enabled en auto, legacy o true para habilitar la compactación automática para todas las tablas de Delta. Esta configuración tiene prioridad sobre la propiedad de tabla relacionada durante la sesión actual.

El tamaño del archivo de destino para la compactación automática se puede controlar con la configuración de spark.databricks.delta.autoCompact.maxFileSize.

Para más información sobre la compactación automática, consulte Compactación automática para Delta Lake en Azure Databricks.

Nuevas métricas de grupo de filas para exámenes de consultas de Parquet

Las consultas con exámenes de Parquet ahora presentan métricas de grupo de filas en la interfaz de usuario de Spark. Estas métricas de grupo de filas son:

  • Número total de grupos de filas de Parquet.
  • Número de grupos de filas de Parquet leídos.

Trigger.AvailableNow para consultas de streaming del origen Delta

Este cambio permite un nuevo tipo de desencadenador para las consultas de streaming del origen Delta en Scala: Trigger.AvailableNow. Es como Trigger.Once, que procesa todos los datos disponibles y, después, detiene la consulta. Sin embargo, Trigger.AvailableNow proporciona una mejor escalabilidad, porque los datos se pueden procesar en varios lotes en lugar de uno solo. Este cambio no introduce una nueva interfaz, sino que implementa una API actual de Spark. Este desencadenador también admite todas las opciones de limitación de frecuencia que ya son compatibles con Delta como origen.

Ejemplo:

spark.readStream
  .format("delta")
  .option("maxFilesPerTrigger", "1")
  .load(inputDir)
  .writeStream
  .trigger(Trigger.AvailableNow)
  .option("checkpointLocation", checkpointDir)
  .start()

Consulte cobertura de Trigger.AvailableNow en ¿Qué es el cargador automático?.

Trigger.AvailableNow para Auto Loader

Trigger.AvailableNow es un nuevo modo de desencadenador de streaming similar a Trigger.Once. Trigger.Once procesa todos los datos disponibles y, después, detiene la consulta. Trigger.AvailableNow proporciona una mejor escalabilidad, porque los datos se pueden procesar en varios lotes en lugar de uno solo. Auto Loader ahora admite Trigger.AvailableNow tanto en la lista de directorios como en los modos de notificación de archivos para Scala. Consulte cobertura de Trigger.AvailableNow en ¿Qué es el cargador automático?.

Compatibilidad de Delta con configuraciones de sistema de archivos de Hadoop que se pasan a través de las opciones de DataFrame

Al igual que Parquet, Delta ahora admite la lectura de configuraciones de sistema de archivos de Hadoop de las opciones DataFrameReader y DataFrameWriter cuando se lee o escribe una tabla, mediante DataFrameReader.load(path) o DataFrameWriter.save(path). Consulte Configuración de las credenciales de almacenamiento de Delta

Ahora se admiten puntos de control del estado asincrónicos en los trabajos de streaming con estado (versión preliminar pública)

Los puntos de control del estado asincrónicos son una nueva característica que puede reducir la latencia de los microlotes de un extremo a otro en los trabajos de streaming con estado con actualizaciones de estado de gran tamaño. Consulte Puntos de comprobación de estado asincrónico para consultas con estado.

Sparklyr con credenciales transferidas

Ahora puede usar las API de Sparklyr para leer y escribir datos en el almacenamiento en la nube usando credenciales transferidas. Esta funcionalidad está limitada a los clústeres estándar con acceso de usuario único. Acceso a Azure Data Lake Storage mediante el paso directo de credenciales de Microsoft Entra ID (heredado)

Control de precisión del resumen de datos de Databricks Utilities (versión preliminar pública)

El nuevo parámetro precise para dbutils.data.summarize controla la precisión de los resultados de resumen. Cuando precise está establecido en false (valor predeterminado), el resumen devuelve resultados aproximados para el recuento de valores únicos, el percentil y el recuento de elementos frecuentes. Cuando precise está establecido en true, los resúmenes ahora se calculan con valores exactos para el recuento de valores únicos y el recuento de elementos frecuentes, con estimaciones de percentil más precisas. Vea Comando summarize (dbutils.data.summarize).

Ahora se pueden usar los cuadernos de Azure Databricks con el kernel de IPython

Ahora se puede configurar un clúster de Azure Databricks para que use el kernel de IPython para ejecutar código de Python. El uso del kernel de IPython en Azure Databricks agrega compatibilidad con las herramientas de visualización y salida de IPython. Además, el kernel de IPython captura las salidas stdout y stderr de los procesos secundarios creados por un cuaderno, lo que permite incluir esa salida en los resultados del comando del cuaderno.

Para obtener más información, vea Kernel de IPython.

Nuevas funciones de Spark SQL

Se han agregado los siguientes objetos y comandos para trabajar con datos en Unity Catalog (versión preliminar):

Se han agregado los siguientes comandos para Delta Sharing (versión preliminar), que permite compartir datos de solo lectura con destinatarios ajenos a la organización:

Corrección de errores

  • Se ha corregido una condición de carrera que podía provocar un error de consulta con una excepción IOException, como No FileSystem for scheme, o modificar sparkContext.hadoopConfiguration para que no tuviera efecto en las consultas.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:
    • filelock: de 3.0.12 a 3.3.1
    • koalas: de 1.8.1 a 1.8.2
    • plotly: de 5.1.0 a 5.3.0
  • Bibliotecas de R actualizadas:
    • bslib: de 0.3.0 a 0.3.1
    • caret: de 6.0-88 a 6.0-90
    • cpp11: de 0.3.1 a 0.4.0
    • data.table: de 1.14.0 a 1.14.2
    • desc: de 1.3.0 a 1.4.0
    • diffobj: de 0.3.4 a 0.3.5
    • digest: de 0.6.27 a 0.6.28
    • generics: de 0.1.0 a 0.1.1
    • hms: de 1.1.0 a 1.1.1
    • knitr: de 1.34 a 1.36
    • lattice: de 0.20-44 a 0.20-45
    • lifecycle: de 1.0.0 a 1.0.1
    • lubridate: de 1.7.10 a 1.8.0
    • mgcv: de 1.8-37 a 1.8-38
    • mime: de 0.11 a 0.12
    • pkgload: de 1.2.2 a 1.2.3
    • progressr: de 0.8.0 a 0.9.0
    • rcmdcheck: de 1.3.3 a 1.4.0
    • readr: de 2.0.1 a 2.0.2
    • recipes: de 0.1.16 a 0.1.17
    • remotes: de 2.4.0 a 2.4.1
    • rlang: de 0.4.11 a 0.4.12
    • rvest: de 1.0.1 a 1.0.2
    • shiny: de 1.6.0 a 1.7.1
    • stringi: de 1.7.4 a 1.7.5
    • testthat: de 3.0.4 a 3.1.0
    • tidyr: de 1.1.3 a 1.1.4
    • tinytex: de 0.33 a 0.34
    • usethis: de 2.0.1 a 2.1.2
    • xfun: de 0.26 a 0.27
  • Bibliotecas de Java actualizadas:
    • com.zaxxer.HikariCP: de 3.1.0 a 4.0.3

Apache Spark

Databricks Runtime 10.1 incluye Apache Spark 3.2.0. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 10.0 (EoS), junto con las siguientes correcciones de errores y mejoras adicionales de Spark:

  • [SPARK-37037] [SQL] Mejorar la ordenación de la matriz de bytes unificando la función compareTo de UTF8String y ByteArray
  • [SPARK-37091] [R] SystemRequirements para incluir Java < 18
  • [SPARK-37041] [SQL] Backport HIVE-15025: compatibilidad con Capa de sockets seguros (SSL) para HMS
  • [SPARK-37098] [SQL] La modificación de las propiedades de una tabla debería invalidar la caché
  • [SPARK-36992] [SQL] Mejorar el rendimiento de la ordenación de matriz de bytes unificando la función getPrefix de UTF8String y ByteArray
  • [SPARK-37047] [SQL] Agregar las funciones lpad y rpad para cadenas binarias
  • [SPARK-37076] [SQL] Implementar StructType.toString explícitamente para Scala 2.13
  • [SPARK-37075] [SQL] Mover la creación de expresiones UDAF de sql/catalyst a sql/core
  • [SPARK-37084] [SQL] Establecer spark.sql.files.openCostInBytes en bytesConf
  • [SPARK-37088] [ PYSPARK][sql] El subproceso escritor no debe tener acceso a la entrada después de que el agente de escucha de finalización de la tarea devuelva
  • [SPARK-37069] [SQL] Ejecutar alternativa correctamente cuando Hive.getWithoutRegisterFns no está disponible
  • [SPARK-37050] [PYTHON] Actualizar las instrucciones de instalación de Conda
  • [SPARK-37067] [SQL] Usar ZoneId.of() para controlar la cadena de zona horaria en DatetimeUtils
  • [SPARK-35925] [SQL] Admitir DayTimeIntervalType en la función width-bucket
  • [SPARK-35926] [SQL] Agregar compatibilidad con YearMonthIntervalType para width_bucket
  • [SPARK-35973] [SQL] Agregar el comandoSHOW CATALOGS
  • [SPARK-36922] [SQL] Las funciones SIGN/SIGNUM deberían admitir intervalos ANSI
  • [SPARK-37078] [CORE] Admitir constructores Sink antiguos de 3 parámetros
  • [SPARK-37061] [SQL] Corregir CustomMetrics al usar clases internas
  • [SPARK-35918] [AVRO] Unificar el control de incoherencias de esquema de lectura/escritura y mejorar los mensajes de error
  • [SPARK-36871] [SQL]Migrar CreateViewStatement a la versión 2 del marco de comandos
  • [SPARK-36898] [SQL] Hacer configurable el factor de combinación hash aleatorio
  • [SPARK-36921] [SQL] Hacer que DIV admita intervalos ANSI
  • [SPARK-36794] [SQL] Omitir las claves de combinación duplicadas al crear una relación para la combinación hash aleatoria SEMI/ANTI
  • [SPARK-36867] [SQL] Corrección del mensaje de error con alias GROUP BY
  • [SPARK-36914] [SQL] Implementar dropIndex y listIndexes en JDBC (dialecto MySQL)
  • [SPARK-35531] [SQL] Pasar directamente la tabla de Hive a HiveClient cuando se llame a getPartitions para evitar la conversión innecesaria de HiveTable -> CatalogTable -> HiveTable
  • [SPARK-36718] [SQL] Contraiga proyectos solo si no duplicamos expresiones costosas
  • [SPARK-37046] [SQL]: alter view no mantiene las mayúsculas y minúsculas de las columnas
  • [SPARK-36978] [SQL] La regla InferConstraints debería crear restricciones IsNotNull en el campo anidado al que se accede en lugar del tipo anidado raíz
  • [SPARK-37052] [CORE] Spark solo debería pasar el argumento –verbose a la clase principal cuando es el shell SQL
  • [SPARK-37017] [SQL] Reducir el ámbito de sincronización para evitar posibles interbloqueos
  • [SPARK-37032] [SQL] Corregir el vínculo roto de la sintaxis de SQL en la página de referencia de SQL
  • [SPARK-36905][SQL] Corregir la lectura de vistas de subárbol sin nombres de columna explícitos
  • [SPARK-36678] Migración de SHOW TABLES para usar el comando V2 de manera predeterminada
  • [SPARK-36943] [SQL] Mejorar la redacción del mensaje de error de columna que falta
  • [SPARK-36980] [SQL] insert query para admitir CTE
  • [SPARK-37001] [SQL] Deshabilitar dos niveles de mapa para la agregación de hash final de forma predeterminada
  • [SPARK-36970] [SQL] Formato B de la función date_format deshabilitado manualmente para que Java 17 sea compatible con Java 8
  • [SPARK-36546] [SQL] Agregar compatibilidad con matrices a unionByName
  • [SPARK-36979] [SQL] Agregar regla RewriteLateralSubquery a nonExcludableRules
  • [SPARK-36949] [SQL] No permitir tablas del proveedor Hive con intervalos ANSI
  • [SPARK-36849] [SQL] Migrar CreateTableStatement a la versión 2 del marco de comandos
  • [SPARK-36868] [SQL] Migrar CreateTableStatement a la versión 2 del marco de comandos
  • [SPARK-36841] [SQL] Agregar la sintaxis ANSI set catalog xxx para cambiar el catálogo actual
  • [SPARK-36821] [SQL] Hacer que la clase ColumnarBatch sea ampliable (anexo)
  • [SPARK-36963] [SQL] Agregar max_by/min_by a sql.functions
  • [SPARK-36913] [SQL] Implementar createIndex e IndexExists en DS V2 JDBC (dialecto MySQL)
  • [SPARK-36848] [SQL] Migrar ShowCurrentNamespaceStatement a la versión 2 del marco de comandos
  • [SPARK-36526] [SQL] Compatibilidad con índices DSV2: agregar la interfaz supportsIndex
  • [SPARK-36960] [SQL] Delegar filtros con intervalos ANSI en ORC
  • [SPARK-36929] [SQL] Quitar el método EliminateSubqueryAliasesSuite#assertEquifirm, que no se utiliza
  • [SPARK-36931] [SQL] Admitir la lectura y escritura de intervalos ANSI en orígenes de datos ORC
  • [SPARK-34980] [SQL] Admitir fusión de particiones con Union en AQE
  • [SPARK-36809] [SQL] Quitar la variable de difusión de InSubqueryExec que se usa en DPP
  • [SPARK-36813] [SQL][python] Proponer una infraestructura de as-of unión e inlemento ps.merge_asof
  • [SPARK-36918] [SQL] Omitir tipos al comparar estructuras para unionByName
  • [SPARK-36891] [SQL] Refactorizar SpecificParquetRecordReaderBase y agregar más cobertura a la descodificación vectorizada de Parquet
  • [SPARK-36920] [SQL] Admitir intervalos ANSI en ABS()
  • [SPARK-36888] [SQL] Agregar casos de prueba para la función sha2
  • [SPARK-36889] [SQL] Respetar spark.sql.parquet.filterPushdown en ParquetScanBuilder v2
  • [SPARK-36830] [SQL] Admitir la lectura y escritura de intervalos ANSI en orígenes de datos JSON
  • [SPARK-36870] [SQL] Introducir la clase de error INTERNAL_ERROR
  • [SPARK-36831] [SQL] Admitir la lectura y escritura de intervalos ANSI en orígenes de datos CSV.
  • [SPARK-36550] [SQL] Causa de propagación cuando se produce un error en la reflexión de UDF
  • [SPARK-36866] [SQL] Delegar filtros con intervalos ANSI en Parquet
  • [SPARK-33832] [SQL] Forzar la simplificación y mejora del código de combinación de sesgo
  • [SPARK-36642] [SQL] Agregar la API df.withMetadata de pyspark
  • [SPARK-35765] [SQL] Las agregaciones de valores únicos no tienen en cuenta los duplicados
  • [SPARK-36825] [SQL] Leer/escribir dataframes con intervalos ANSI en archivos de Parquet
  • [SPARK-36829] [SQL] Refactorizar la comprobación de valores NULL para collectionOperators
  • [SPARK-32712] [SQL] Admitir la escritura de tablas en cubo de Hive (formatos de archivo de Hive con hash de Hive)
  • [SPARK-36797] [SQL] Union debería resolver las columnas anidadas como columnas de nivel superior
  • [SPARK-36838] [SQL] Mejorar el rendimiento del código generado por InSet
  • [SPARK-36683] [SQL] Agregar nuevas funciones de SQL integradas: SEC y CSC
  • [SPARK-36721] [SQL] Simplificar las igualdades booleanas si un lado es literal
  • [SPARK-36760] [SQL] Agregar la interfaz SupportsPushDownV2Filters
  • [SPARK-36652] [SQL] DynamicJoinSelection de AQE no debería aplicarse a NonEquiJoin
  • [SPARK-36745] [SQL] ExtractEquiJoinKeys debería devolver los predicados originales en las claves de combinación
  • [SPARK-36107] [SQL] Refactorizar el primer conjunto de 20 errores de ejecución de consultas para usar clases de error
  • [SPARK-32709] [SQL] Admitir la escritura de tablas en cubo de Hive (formato de Parquet/ORC con hash de Hive)
  • [SPARK-36735] [SQL] Ajustar la sobrecarga de la relación en caché para DPP
  • [SPARK-33832] [SQL] Admitir la optimización de la combinación sesgada incluso si introduce una ordenación aleatoria adicional
  • [SPARK-36822] [SQL] BroadcastNestedLoopJoinExec debería usar todas las condiciones en lugar de la condición nonEquiCond
  • [SPARK-35221] [SQL] Agregar la comprobación de sugerencias de combinación admitidas
  • [SPARK-36814] [SQL] Hacer que la clase ColumnarBatch sea ampliable
  • [SPARK-36663] [SQL] Admitir nombres de columna solo numéricos en orígenes de datos ORC
  • [SPARK-36751] [SQL][python][R] Agregar API de bit/octet_length a Scala, Python y R
  • [SPARK-36733] [SQL] Corregir un problema de rendimiento en SchemaPruning cuando una estructura tiene muchos campos
  • [SPARK-36724] [SQL] Admitir timestamp_ntz como tipo de columna de tiempo para SessionWindow
  • [SPARK-36556] [SQL] Agregar filtros de DSV2
  • [SPARK-36687] [SQL][core] Cambiar el nombre de las clases de error con _ERROR sufijo
  • [SPARK-35803] [SQL] Admitir DataSource V2 en CreateTempViewUsing
  • [SPARK-36642] [SQL] Agregar df.withMetadata, una sugerencia de sintaxis para actualizar los metadatos de un dataframe

Actualizaciones de mantenimiento

Consulte las actualizaciones de mantenimiento de Databricks Runtime 10.1.

Entorno del sistema

  • Sistema operativo: Ubuntu 20.04.3 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.8.10
  • R: 4.1.1
  • Delta Lake: 1.0.0

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
Antergos Linux 2015.10 (ISO-Rolling) directorios de aplicaciones 1.4.4 argon2-cffi 20.1.0
generador asíncrono 1.10 atributos 20.3.0 llamada de retorno 0.2.0
blanquear 3.3.0 boto3 1.16.7 botocore 1.19.7
certifi 2020.12.5 cffi 1.14.5 chardet 4.0.0
ciclista 0.10.0 Cython 0.29.23 dbus-python 1.2.16
decorador 5.0.6 defusedxml 0.7.1 distlib 0.3.3
distro-info 0.23ubuntu1 puntos de entrada 0,3 visión general de las facetas 1.0.0
bloqueo de archivos 3.3.1 idna 2.10 ipykernel 5.3.4
ipython 7.22.0 ipython-genutils 0.2.0 ipywidgets 7.6.3
Jedi 0.17.2 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 Cliente Jupyter 6.1.12
jupyter-core 4.7.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 Koalas 1.8.2 MarkupSafe 2.0.1
matplotlib 3.4.2 Mal sintonizado 0.8.4 nbclient 0.5.3
nbconvert 6.0.7 nbformat 5.1.3 nest-asyncio 1.5.1
cuaderno 6.3.0 numpy 1.19.2 empaquetado 20.9
Pandas 1.2.4 PandocFiltros 1.4.3 parso 0.7.0
chivo expiatorio 0.5.1 pexpect 4.8.0 pickleshare 0.7.5
Almohada 8.2.0 pepita 21.0.1 trazado 5.3.0
Cliente-Prometeo 0.10.1 prompt-toolkit 3.0.17 protobuf 3.17.2
psycopg2 2.8.5 ptyprocess 0.7.0 pyarrow 4.0.0
pycparser 2,20 Pygments 2.8.1 PyGObject 3.36.0
pyparsing 2.4.7 pyrsistent 0.17.3 python-apt 2.0.0+ubuntu0.20.4.6
Python-dateutil 2.8.1 pytz 2020.5 pyzmq 20.0.0
Solicitudes 2.25.1 requests-unixsocket 0.2.0 s3transfer 0.3.7
scikit-learn 0.24.1 scipy 1.6.2 biblioteca de visualización de datos de Python llamada seaborn 0.11.1
Send2Trash 1.5.0 setuptools 52.0.0 six (seis) 1.15.0
ssh-import-id 5.10 statsmodels (paquete de Python para análisis estadístico) 0.12.2 tenacidad 8.0.1
terminado 0.9.4 ruta de prueba 0.4.4 threadpoolctl 2.1.0
tornado 6.1 traitlets 5.0.5 actualizaciones desatendidas 0,1
urllib3 1.25.11 virtualenv 20.4.1 wcwidth 0.2.5
codificaciones web 0.5.1 rueda 0.36.2 widgetsnbextension 3.5.1

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN del 26-10-2021.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
askpass 1.1 asegúrate de que 0.2.1 retroportaciones 1.2.1
base 4.1.1 base64enc 0.1-3 poco 4.0.4
bit 64 4.0.5 mancha 1.2.2 bota 1.3-28
fermentar 1.0-6 Brio 1.1.2 escoba 0.7.9
bslib 0.3.1 cachemir 1.0.6 callr 3.7.0
cursor 6.0-90 cellranger (herramienta de análisis de datos celulares) 1.1.0 Chron 2.3-56
clase 7.3-19 Cli 3.0.1 clipr 0.7.1
conglomerado 2.1.2 codetools 0.2-18 espacio de colores 2.0-2
commonmark 1.7 compilador 4.1.1 configuración 0.3.1
cpp11 0.4.0 crayón 1.4.1 credenciales 1.3.1
rizo 4.3.2 tabla de datos 1.14.2 conjuntos de datos 4.1.1
DBI 1.1.1 dbplyr 2.1.1 Descripción 1.4.0
devtools 2.4.2 diffobj 0.3.5 digerir 0.6.28
dplyr 1.0.7 dtplyr 1.1.0 e1071 1.7-9
elipsis 0.3.2 evaluar 0.14 fans 0.5.0
colores 2.1.0 mapa rápido 1.1.0 fontawesome 0.2.2
convictos 0.5.1 foreach 1.5.1 extranjero 0.8-81
fragua 0.2.0 Fs 1.5.0 futuro 1.22.1
aplicación futura 1.8.1 hacer gárgaras 1.2.0 genéricos 0.1.1
Gert 1.4.1 ggplot2 3.3.5 Gh 1.3.0
gitcreds 0.1.1 glmnet 4.1-2 globales 0.14.0
pegamento 1.4.2 googledrive 2.0.0 googlesheets4 1.0.0
Gower 0.2.2 elementos gráficos 4.1.1 grDevices 4.1.1
rejilla 4.1.1 gridExtra 2.3 gsubfn 0,7
gtable 0.3.0 refugio 2.4.3 más alto 0.9
HMS 1.1.1 herramientas de HTML 0.5.2 htmlwidgets 1.5.4
httpuv 1.6.3 httr 1.4.2 hwriter 1.3.2
hwriterPlus 1.0-3 Identificadores 1.0.1 ini 0.3.1
ipred 0.9-12 isoband 0.2.5 Iteradores 1.0.13
jquerylib 0.1.4 jsonlite 1.7.2 KernSmooth 2.23-20
tejido 1,36 etiquetado 0.4.2 más tarde 1.3.0
retícula 0.20-45 lava 1.6.10 ciclo de vida 1.0.1
listenv 0.8.0 lubridate 1.8.0 magrittr 2.0.1
Formato Markdown 1.1 MASA 7.3-54 Matriz 1.3-4
memorizar 2.0.0 métodos 4.1.1 mgcv 1.8-38
mimo 0,12 ModelMetrics 1.2.2.2 modelr 0.1.8
munsell 0.5.0 nlme 3.1-152 nnet 7.3-16
numDeriv 2016.8-1.1 openssl (software de cifrado) 1.4.5 paralelo 4.1.1
Paralelamente 1.28.1 pilar 1.6.4 pkgbuild 1.2.0
pkgconfig 2.0.3 pkgload 1.2.3 plogr 0.2.0
plyr 1.8.6 elogio 1.0.0 prettyunits 1.1.1
Proc 1.18.0 processx 3.5.2 prodlim 2019.11.13
progreso 1.2.2 progressr 0.9.0 promesas 1.2.0.1
prototipo 1.0.0 intermediario 0.4-26 P.D 1.6.0
ronroneo 0.3.4 r2d3 0.2.5 R6 2.5.1
Bosque Aleatorio (randomForest) 4.6-14 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-2 Rcpp 1.0.7 readr 2.0.2
readxl 1.3.1 recetas 0.1.17 partido de revancha 1.0.1
segunda revancha 2.1.2 Telecontroles 2.4.1 ejemplo reproducible 2.0.1
reshape2 1.4.4 rlang 0.4.12 rmarkdown 2,11
RODBC 1.3-19 roxygen2 7.1.2 rpart 4.1-15
rprojroot 2.0.2 Rserve 1.8-8 RSQLite 2.2.8
rstudioapi 0,13 rversions 2.1.1 rvest 1.0.2
Sass 0.4.0 balanzas 1.1.1 selectr 0.4-2
información de sesión 1.1.1 forma 1.4.6 brillante 1.7.1
sourcetools 0.1.7 sparklyr 1.7.2 SparkR 3.2.0
espacial 7.3-11 Tiras 4.1.1 sqldf 0.4-11
SQUAREM 2021.1 Estadísticas 4.1.1 estadísticas4 4.1.1
stringi 1.7.5 stringr 1.4.0 supervivencia 3.2-13
sys 3.4 tcltk 4.1.1 TeachingDemos 2.10
testthat 3.1.0 tibble 3.1.5 tidyr 1.1.4
tidyselect 1.1.1 tidyverse 1.3.1 fechaHora 3043.102
tinytex 0.34 herramientas 4.1.1 tzdb 0.1.2
usa esto 2.1.2 utf8 1.2.2 utilidades 4.1.1
Identificador Único Universal (UUID) 0.1-4 vctrs 0.3.8 viridisLite 0.4.0
Vroom 1.5.5 Waldo 0.3.1 bigotes 0,4
withr 2.4.2 xfun 0,27 xml2 1.3.2
xopen 1.0.0 xtable 1.8-4 yaml 2.2.1
cremallera 2.2.0

Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)

Identificador de grupo Identificador de artefacto Versión
antlr antlr 2.7.7
com.amazonaws cliente de Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.11.655
com.amazonaws aws-java-sdk-cloudformation 1.11.655
com.amazonaws aws-java-sdk-cloudfront 1.11.655
com.amazonaws aws-java-sdk-cloudhsm 1.11.655
com.amazonaws aws-java-sdk-cloudsearch 1.11.655
com.amazonaws aws-java-sdk-cloudtrail 1.11.655
com.amazonaws aws-java-sdk-cloudwatch 1.11.655
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.655
com.amazonaws aws-java-sdk-codedeploy 1.11.655
com.amazonaws aws-java-sdk-cognitoidentity 1.11.655
com.amazonaws aws-java-sdk-cognitosync 1.11.655
com.amazonaws aws-java-sdk-config (configuración del SDK de Java de AWS) 1.11.655
com.amazonaws aws-java-sdk-core 1.11.655
com.amazonaws aws-java-sdk-datapipeline 1.11.655
com.amazonaws aws-java-sdk-directconnect 1.11.655
com.amazonaws aws-java-sdk-directory 1.11.655
com.amazonaws aws-java-sdk-dynamodb 1.11.655
com.amazonaws aws-java-sdk-ec2 1.11.655
com.amazonaws aws-java-sdk-ecs 1.11.655
com.amazonaws aws-java-sdk-efs 1.11.655
com.amazonaws aws-java-sdk-elasticache 1.11.655
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.655
com.amazonaws aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) 1.11.655
com.amazonaws aws-java-sdk-elastictranscoder 1.11.655
com.amazonaws aws-java-sdk-emr 1.11.655
com.amazonaws aws-java-sdk-glacier 1.11.655
com.amazonaws aws-java-sdk-glue 1.11.655
com.amazonaws aws-java-sdk-iam 1.11.655
com.amazonaws aws-java-sdk-importexport 1.11.655
com.amazonaws aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) 1.11.655
com.amazonaws aws-java-sdk-kms 1.11.655
com.amazonaws aws-java-sdk-lambda 1.11.655
com.amazonaws aws-java-sdk-logs (registros del SDK de AWS para Java) 1.11.655
com.amazonaws aws-java-sdk-machinelearning 1.11.655
com.amazonaws aws-java-sdk-opsworks 1.11.655
com.amazonaws aws-java-sdk-rds 1.11.655
com.amazonaws aws-java-sdk-redshift 1.11.655
com.amazonaws aws-java-sdk-route53 1.11.655
com.amazonaws aws-java-sdk-s3 1.11.655
com.amazonaws aws-java-sdk-ses 1.11.655
com.amazonaws aws-java-sdk-simpledb 1.11.655
com.amazonaws aws-java-sdk-simpleworkflow 1.11.655
com.amazonaws aws-java-sdk-sns 1.11.655
com.amazonaws aws-java-sdk-sqs 1.11.655
com.amazonaws aws-java-sdk-ssm 1.11.655
com.amazonaws aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) 1.11.655
com.amazonaws aws-java-sdk-sts 1.11.655
com.amazonaws SDK de AWS para Java - Soporte 1.11.655
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.655
com.amazonaws jmespath-java 1.11.655
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.12.2
com.fasterxml.jackson.core jackson-core 2.12.2
com.fasterxml.jackson.core jackson-databind 2.12.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.12.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.12.2
com.fasterxml.jackson.module jackson-module-paranamer 2.12.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.12.2
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.0-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.6
com.google.crypto.tink Tink 1.6.0
com.google.flatbuffers flatbuffers-java 1.9.0
com.google.guava guayaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 1.4.195
com.helger perfilador 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf 1.0.3
com.sun.istack istack-commons-runtime 3.0.8
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuración 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.univocity analizadores de univocidad 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.8.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 1.3.2
dev.ludovic.netlib Blas 1.3.2
dev.ludovic.netlib lapack 1.3.2
hive-2.3__hadoop-3.2 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 0,19
io.delta delta-sharing-spark_2.12 0.2.0
io.dropwizard.metrics núcleo de métricas 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics métricas y verificaciones de salud 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.63.Final
io.prometheus simpleclient 0.7.0
io.prometheus cliente_simple_común 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recopilador 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activación 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolución javolución 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.5
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
maven-trees hive-2.3__hadoop-3.2 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine pyrolita 4,30
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.3
net.snowflake spark-snowflake_2.12 2.9.0-spark_3.1
net.sourceforge.f2j arpack_combinado_todo 0,1
org.acplt.remotetea remotetea-oncrpc (servicio de comunicación remota) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr plantilla de cadenas 3.2.1
org.apache.ant hormiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lanzador de aplicaciones Ant 1.9.2
org.apache.arrow formato de flecha 2.0.0
org.apache.arrow núcleo de memoria de flecha 2.0.0
org.apache.arrow arrow-memory-netty 2.0.0
org.apache.arrow vector de flecha 2.0.0
org.apache.avro avro 1.10.2
org.apache.avro avro-ipc 1.10.2
org.apache.avro avro-mapred 1.10.2
org.apache.commons commons-compress 1.20
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.4.1
org.apache.commons commons-text 1.6
org.apache.curator curador-cliente 2.13.0
org.apache.curator marco de trabajo para curadores 2.13.0
org.apache.curator curador-recetas 2.13.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop-cliente-api 3.3.1-databricks
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.3.1
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de almacenamiento de hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims planificador-de-adaptadores-hive 2.3.9
org.apache.htrace htrace-core4 4.1.0-incubación
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.12
org.apache.ivy hiedra 2.5.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.6.10
org.apache.orc orc-mapreduce 1.6.10
org.apache.orc calzos de orco 1.6.10
org.apache.parquet parquet-columna 1.12.0-databricks-0003
org.apache.parquet parquet-common 1.12.0-databricks-0003
org.apache.parquet codificación de parquet 1.12.0-databricks-0003
org.apache.parquet estructuras-de-formato-parquet 1.12.0-databricks-0003
org.apache.parquet parquet-hadoop 1.12.0-databricks-0003
org.apache.parquet parquet-jackson 1.12.0-databricks-0003
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.20
org.apache.yetus anotaciones de audiencia 0.5.0
org.apache.zookeeper guardián de zoológico 3.6.2
org.apache.zookeeper Zookeeper-Jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.40.v20210413
org.eclipse.jetty jetty-continuation 9.4.40.v20210413
org.eclipse.jetty jetty-http 9.4.40.v20210413
org.eclipse.jetty jetty-io 9.4.40.v20210413
org.eclipse.jetty jetty-jndi 9.4.40.v20210413
org.eclipse.jetty jetty-plus 9.4.40.v20210413
org.eclipse.jetty jetty-proxy 9.4.40.v20210413
org.eclipse.jetty Seguridad de Jetty 9.4.40.v20210413
org.eclipse.jetty servidor Jetty 9.4.40.v20210413
org.eclipse.jetty jetty-servlet 9.4.40.v20210413
org.eclipse.jetty jetty-servlets 9.4.40.v20210413
org.eclipse.jetty jetty-util 9.4.40.v20210413
org.eclipse.jetty jetty-util-ajax 9.4.40.v20210413
org.eclipse.jetty Aplicación web de Jetty 9.4.40.v20210413
org.eclipse.jetty jetty-xml 9.4.40.v20210413
org.eclipse.jetty.websocket WebSocket-API 9.4.40.v20210413
org.eclipse.jetty.websocket cliente de websocket 9.4.40.v20210413
org.eclipse.jetty.websocket websocket-common 9.4.40.v20210413
org.eclipse.jetty.websocket servidor de websocket 9.4.40.v20210413
org.eclipse.jetty.websocket websocket-servlet 9.4.40.v20210413
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jaxb jaxb-runtime 2.3.2
org.glassfish.jersey.containers servlet de contenedor de Jersey 2,34
org.glassfish.jersey.containers jersey-container-servlet-core 2,34
org.glassfish.jersey.core jersey-client 2,34
org.glassfish.jersey.core jersey-common 2,34
org.glassfish.jersey.core jersey-server 2,34
org.glassfish.jersey.inject jersey-hk2 2,34
org.hibernate.validator validador de hibernación 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotaciones 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.7.1
org.mariadb.jdbc mariadb-java-client 2.2.5
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.2.19
org.roaringbitmap RoaringBitmap 0.9.14
org.roaringbitmap Cuñas 0.9.14
org.rocksdb rocksdbjni 6.20.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaz de prueba 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,0
org.scalanlp breeze_2.12 1,0
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.30
org.slf4j jul-to-slf4j 1.7.30
org.slf4j slf4j-api 1.7.30
org.slf4j slf4j-log4j12 1.7.30
org.spark-project.spark no utilizado 1.0.0
org.springframework spring-core 4.1.4.LANZAMIENTO
org.springframework Prueba de primavera 4.1.4.LANZAMIENTO
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.0-M2
org.typelevel cats-kernel_2.12 2.0.0-M4
org.typelevel maquinista_2.12 0.6.8
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0-M1
org.typelevel spire-platform_2.12 0.17.0-M1
org.typelevel spire-util_2.12 0.17.0-M1
org.typelevel spire_2.12 0.17.0-M1
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1