Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones compatibles de Databricks Runtime, consulte las notas de la versión y compatibilidad de Databricks Runtime.
Databricks publicó esta versión en marzo de 2018.
Importante
Esta versión quedó en desuso el 1 de noviembre de 2018. Para más información sobre la directiva y el programa de desuso de Databricks Runtime, consulte Ciclos de vida del soporte técnico de Databricks Runtime.
En las siguientes notas de la versión, se proporciona información sobre Databricks Runtime 4.0, con tecnología de Apache Spark.
Cambios y mejoras
- El origen de datos JSON ahora intenta detectar automáticamente la codificación en lugar de suponer que es UTF-8. En los casos en los que se produce un error en la detección automática, los usuarios pueden especificar la opción de juego de caracteres para aplicar una codificación determinada. Consulte Detección automática del juego de caracteres.
- Los procesos de puntuación y predicción mediante los pipelines de Spark MLlib en el streaming estructurado están completamente respaldados.
- La exportación de modelos de Machine Learning de Databricks es totalmente compatible. Con esta característica, puede entrenar un modelo de Spark MLlib en Databricks, exportarlo con una llamada de función y usar una biblioteca de Databricks en el sistema que prefiera para importar el modelo y puntuar nuevos datos.
- Una nueva implementación del origen de datos de Spark ofrece acceso de lectura y escritura escalable a Azure Synapse Analytics. Consulte Azure Synapse Analytics.
- El esquema de la función
from_jsonahora siempre se convierte en uno anulable. En otras palabras, todos los campos, incluidos los anidados, aceptan valores NULL. Esto garantiza que los datos sean compatibles con el esquema, previniendo la corrupción de datos después de escribirlos en Parquet cuando un campo falta en los datos y el esquema proporcionado por el usuario declara el campo como no anulable. - Se han actualizado algunas bibliotecas de Python instaladas:
- futures: de 3.1.1 a 3.2.0
- pandas: de 0.18.1 a 0.19.2
- pyarrow: de 0.4.1 a 0.8.0
- setuptools: de 38.2.3 a 38.5.1
- tornado: de 4.5.2 a 4.5.3
- Se han actualizado varias bibliotecas de R instaladas. Consulte Bibliotecas de R instaladas.
- Se ha actualizado el SDK de AWS para Java de la versión 1.11.126 a la 1.11.253.
- Se ha actualizado el controlador JDBC de SQL Server de 6.1.0.jre8 a 6.2.2.jre8.
- Se ha actualizado el controlador JDBC de PostgreSQL de 9.4-1204-jdbc41 a 42.1.4.
Spark de Apache
Databricks Runtime 4.0 incluye Apache Spark 2.3.0.
Core, PySpark y Spark SQL
Características principales
-
Lector ORC vectorizado: [SPARK-16060]: agrega compatibilidad con el nuevo lector ORC, que mejora considerablemente el rendimiento del examen de ORC mediante vectorización (2-5x). Para habilitar el lector, los usuarios pueden establecer
spark.sql.orc.implennative. - Servidor de historial de Spark V2: [SPARK-18085]: un nuevo back-end del servidor de historial de Spark (SHS) que proporciona una mejor escalabilidad para aplicaciones a gran escala con un mecanismo de almacenamiento de eventos más eficaz.
- API de origen de datos V2: [SPARK-15689][SPARK-22386]: una API experimental para conectar nuevos orígenes de datos en Spark. La nueva API intenta abordar varias limitaciones de la API V1 y pretende facilitar el desarrollo de orígenes de datos externos de alto rendimiento, fáciles de mantener y extensibles. Esta API sigue experimentando un desarrollo activo y se deben esperar cambios importantes.
- Mejoras de rendimiento de PySpark: [SPARK-22216][SPARK-21187]: mejoras significativas en el rendimiento y la interoperabilidad de Python mediante la serialización rápida de datos y la ejecución vectorizada.
Rendimiento y estabilidad
- [SPARK-21975]: compatibilidad con histogramas en el optimizador basado en costos.
- [SPARK-20331]: mejor compatibilidad con la delegación de predicados para la eliminación de particiones de Hive.
- [SPARK-19112]: compatibilidad con el códec de compresión ZStandard.
- [SPARK-21113]: compatibilidad con el flujo de entrada de lectura por adelantado para amortizar el costo de E/S del disco en el lector de volcados.
- [SPARK-22510][SPARK-22692][SPARK-21871]: se estabiliza aún más el marco de codegen para evitar alcanzar el límite de código de bytes de JVM de 64 KB en el método de Java y el límite del grupo de constantes del compilador de Java.
- [SPARK-23207]: se ha corregido un error de larga duración en Spark en el que el orden aleatorio y la repartición consecutivos en un DataFrame podían dar lugar a respuestas incorrectas en determinados casos.
- [SPARK-22062][SPARK-17788][SPARK-21907]: corrección de diversas causas de los OOM.
- [SPARK-22489][SPARK-22916][SPARK-22895][SPARK-20758][SPARK-22266][SPARK-19122][SPARK-22662][SPARK-21652]: mejoras en el optimizador y la herramienta de planeamiento basados en reglas.
Otros cambios importantes
- [SPARK-20236]: compatibilidad con la semántica de sobrescritura de particiones dinámicas de estilo Hive.
-
[SPARK-4131]: Se admite la capacidad de
INSERT OVERWRITE DIRECTORYpara escribir datos directamente en el sistema de archivos desde una consulta. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: mejoras de las UDF.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: se ha mejorado el cumplimiento de ANSI SQL y la compatibilidad de Hive.
- [SPARK-20746]: funciones integradas de SQL más completas.
- [SPARK-21485]: generación de documentación de Spark SQL para funciones integradas.
-
[SPARK-19810]: se ha quitado la compatibilidad con Scala
2.10. -
[SPARK-22324]: se ha actualizado Arrow a la versión
0.8.0y Netty a la versión4.1.17.
Transmisión Estructurada
Procesamiento continuo
- Un nuevo motor de ejecución que puede ejecutar consultas de streaming con una latencia completa por debajo de milisegundos cambiando solo una sola línea de código de usuario. Para más información, consulte la guía de programación.
Combinaciones de streaming con streaming
- Capacidad de combinar dos flujos de datos, almacenando en búfer las filas hasta que lleguen las tuplas coincidentes del otro flujo. Los predicados se pueden utilizar en las columnas de tiempo de eventos para limitar la cantidad de estado que se debe conservar.
API de streaming V2
- Una API experimental para conectar nuevos orígenes y receptores que funciona para lotes, microlotes y la ejecución continua. Esta API sigue experimentando un desarrollo activo y se deben esperar cambios importantes.
MLlib
Aspectos destacados
- La predicción de ML ahora funciona con streaming estructurado, mediante las API actualizadas. A continuación, se indican los detalles.
API nuevas y mejoradas
- [SPARK-21866]: compatibilidad integrada para leer imágenes en un dataframe (Scala, Java y Python).
- [SPARK-19634]: funciones de DataFrame para estadísticas de resumen descriptivas sobre columnas vectoriales (Scala y Java).
-
[SPARK-14516]:
ClusteringEvaluatorpara optimizar los algoritmos de agrupación en clústeres y admitir las métricas de silueta de coseno y de silueta euclídea cuadrada (Scala, Java y Python). - [SPARK-3181]: regresión lineal sólida con pérdida de Huber (Scala, Java y Python).
-
[SPARK-13969]: transformador
FeatureHasher(Scala, Java y Python). - Compatibilidad con múltiples columnas para varios transformadores de funciones.
-
[SPARK-13030]:
OneHotEncoderEstimator(Scala, Java y Python). -
[SPARK-22397]:
QuantileDiscretizer(Scala y Java). -
[SPARK-20542]:
Bucketizer(Scala, Java y Python).
-
[SPARK-13030]:
- [SPARK-21633] y [SPARK-21542]: compatibilidad mejorada con componentes de canalización personalizados en Python.
Nuevas características:
-
[SPARK-21087]:
CrossValidatoryTrainValidationSplitpueden recopilar todos los modelos al ajustar (Scala y Java). Esto le permite inspeccionar o guardar todos los modelos ajustados. -
[SPARK-19357]: los metaalgoritmos
CrossValidator,TrainValidationSplityOneVsRest, admiten un parámetro de paralelismo para ajustar varios modelos secundarios en trabajos de Spark paralelos. - [SPARK-17139]: resumen del modelo para la regresión logística multinómica (Scala, Java y Python)
- [SPARK-18710]: se ha agregado un desplazamiento en GLM.
-
[SPARK-20199]: se ha agregado el parámetro
featureSubsetStrategyaGBTClassifieryGBTRegressor. El uso de esto para el muestreo secundario de características puede mejorar significativamente la velocidad de entrenamiento; esta opción ha sido una de las principales mejoras dexgboost.
Otros cambios importantes
-
[SPARK-22156]: se ha corregido el escalado de la velocidad de aprendizaje de
Word2Vecconnumiteraciones. La nueva velocidad de aprendizaje se establece para que coincida con el código C original deWord2Vecy debe proporcionar mejores resultados del entrenamiento. -
[SPARK-22289]: se ha agregado compatibilidad con
JSONpara los parámetros de matriz (esto ha corregido un error de persistencia de ML conLogisticRegressionModelal usar límites en los coeficientes). -
[SPARK-22700]:
Bucketizer.transformquita incorrectamente una fila que contengaNaN. Cuando el parámetrohandleInvalidse ha establecido en "skip",Bucketizerquitaría una fila con un valor válido en la columna de entrada si otra columna (irrelevante) tuviera un valorNaN. -
[SPARK-22446]: el optimizador de Catalyst a veces provocaba que
StringIndexerModelprodujese una excepción "Etiqueta no vista" incorrecta cuandohandleInvalidse ha establecido en "error". Esto podría ocurrir para los datos filtrados, debido a la delegación de predicados, lo que provoca errores incluso después de que las filas no válidas ya se hubieran filtrado del conjunto de datos de entrada. - [SPARK-21681]: se ha corregido un error de caso perimetral en la regresión logística multinómica que provocaba coeficientes incorrectos cuando algunas características tenían varianza cero.
- Optimizaciones principales:
-
[SPARK-22707]: se ha reducido el consumo de memoria para
CrossValidator. -
[SPARK-22949]: se ha reducido el consumo de memoria para
TrainValidationSplit. -
[SPARK-21690]:
Imputerdebe entrenar con un solo paso sobre los datos. -
[SPARK-14371]:
OnlineLDAOptimizerevita recopilar estadísticas en el controlador para cada minilote.
-
[SPARK-22707]: se ha reducido el consumo de memoria para
SparkR
El enfoque principal de SparkR en la versión 2.3.0 era mejorar la estabilidad de las UDF y agregar varios nuevos contenedores de SparkR en torno a las API existentes:
Características principales
- Paridad de funciones mejorada entre SQL y R
-
[SPARK-22933]: API de streaming estructurado para
withWatermark,trigger,partitionByy combinaciones secuencia-secuencia. - [SPARK-21266]: UDF de SparkR con compatibilidad con esquemas con formato DDL.
- [SPARK-20726][SPARK-22924][SPARK-22843]: varios nuevos contenedores de API de dataframe.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: varios nuevos contenedores de API de SparkML.
GraphX
Optimizaciones
-
[SPARK-5484]: Pregel ahora hace puntos de control periódicamente para evitar
StackOverflowErrors. - [SPARK-21491]: pequeñas mejoras del rendimiento en varios lugares.
En desuso
Pitón
-
[SPARK-23122]: entrada en desuso de
register*para las UDF enSQLContextyCatalogen PySpark
MLlib
-
[SPARK-13030]:
OneHotEncoderha entrado en desuso y se quitará en la versión 3.0. Ha sido sustituido por el nuevoOneHotEncoderEstimator.OneHotEncoderEstimatorcambiará el nombre aOneHotEncoderen la versión 3.0 (pero se mantendráOneHotEncoderEstimatorcomo un alias).
Cambios de comportamiento
SparkSQL
-
[SPARK-22036]: de manera predeterminada, las operaciones aritméticas entre decimales devuelven un valor redondeado si no es posible una representación exacta (en lugar de devolver
NULLcomo en las versiones anteriores). -
[SPARK-22937]: cuando todas las entradas son binarias, la función
elt()de SQL devuelve una salida como binaria. De lo contrario, devuelve una cadena. En versiones anteriores, siempre se devolvía una cadena, independientemente de los tipos de entrada. - [SPARK-22895]: Los predicados deterministas del Join/Filter que se encuentran después del primer predicado no determinista también se insertan a través de los operadores secundarios, si es posible. En las versiones anteriores, estos filtros no eran aptos para la delegación de predicados.
-
[SPARK-22771]: cuando todas las entradas son binarias,
functions.concat()devuelve una salida como binaria. De lo contrario, devuelve una cadena. En las versiones anteriores, siempre se devolvía una cadena, independientemente de los tipos de entrada. - [SPARK-22489]: cuando cualquiera de los lados de una combinación se puede difundir, preferimos difundir la tabla que se especifica explícitamente en una sugerencia de difusión.
-
[SPARK-22165]: la inferencia de la columna de partición antes encontraba un tipo común incorrecto para distintos tipos inferidos. Por ejemplo, antes solía finalizar con el tipo
doublecomo el tipo común para el tipodoubley el tipodate. Ahora encuentra el tipo común correcto para estos conflictos. Para más información, consulte la guía de migración. -
[SPARK-22100]: la función
percentile_approxantes aceptaba una entrada de tiponumericy generaba resultados de tipodouble. Ahora admite el tipodate, el tipotimestampy los tiposnumericcomo tipos de entrada. También se ha cambiado el tipo del resultado para que sea el mismo que el tipo de entrada, que es más razonable para los percentiles. -
[SPARK-21610]: las consultas de archivos JSON o CSV sin formato no están permitidas cuando las columnas a las que se hace referencia incluyen solo la columna interna de registros incorrectos (llamada
_corrupt_recordde manera predeterminada). En su lugar, puede almacenar en caché o guardar los resultados analizados y, a continuación, enviar la misma consulta. - [SPARK-23421]: desde Spark 2.2.1 y 2.3.0, el esquema siempre se infiere en tiempo de ejecución cuando las tablas del origen de datos tienen las columnas que existen tanto en el esquema de particiones como en el esquema de datos. El esquema inferido no tiene las columnas con particiones. Al leer la tabla, Spark respeta los valores de partición de estas columnas superpuestas en lugar de los valores almacenados en los archivos del origen de datos. En las versiones 2.2.0 y 2.1.x, el esquema inferido tiene particiones, pero los datos de la tabla son invisibles para los usuarios (es decir, el conjunto de resultados está vacío).
PySpark
-
[SPARK-19732]:
na.fill()ofillnatambién acepta valores booleanos y reemplaza los valores NULL por valores booleanos. En versiones anteriores de Spark, PySpark simplemente lo omite y devuelve el conjunto de datos o el dataframe original. -
[SPARK-22395]: se requiere pandas
0.19.2o superior para usar las funcionalidades relacionadas con pandas, comotoPandas,createDataFramea partir de un DataFrame de Pandas, etc. - [SPARK-22395]: se ha cambiado el comportamiento de los valores de marca de tiempo para las funcionalidades relacionadas con pandas para respetar la zona horaria de la sesión, que se omitía en las versiones anteriores.
-
[SPARK-23328]:
df.replaceno permite omitirvaluecuandoto_replaceno es un diccionario. Anteriormente, se podía omitirvalueen los otros casos y teníaNonede manera predeterminada, lo que no es intuitivo y es propenso a errores.
MLlib
-
Cambios importantes en la API: se ha cambiado la jerarquía de clases y rasgos para los resúmenes del modelo de regresión logística para que sea más limpia y adaptarse mejor a la adición del resumen de varias clases. Se trata de un cambio importante para el código de usuario que convierte un elemento
LogisticRegressionTrainingSummaryen un elementoBinaryLogisticRegressionTrainingSummary. En su lugar, los usuarios deben usar el métodomodel.binarySummary. Consulte [SPARK-17139] para más detalles (tenga en cuenta que se trata de una API@Experimental). Esto no afecta al método de resumen de Python, que seguirá funcionando correctamente para los casos multinómicos y binarios. -
[SPARK-21806]:
BinaryClassificationMetrics.pr(): el primer punto (0,0, 1,0) es engañoso y se ha reemplazado por (0,0, p), donde la precisión p coincide con el punto de coincidencia más bajo. - [SPARK-16957]: los árboles de decisión ahora usan puntos medios ponderados al elegir valores divididos. Esto puede cambiar los resultados del entrenamiento del modelo.
-
[SPARK-14657]:
RFormulasin una interceptación ahora genera la categoría de referencia al codificar términos de cadena, con el fin de coincidir con el comportamiento nativo de R. Esto puede cambiar los resultados del entrenamiento del modelo. -
[SPARK-21027]: el paralelismo predeterminado que se usa en
OneVsRestahora está establecido en 1 (es decir, serie). En la versión 2.2 y versiones anteriores, el nivel de paralelismo se establecía en el tamaño predeterminado del grupo de subprocesos en Scala. Esto puede cambiar el rendimiento. -
[SPARK-21523]: se ha actualizado Breeze a la versión
0.13.2. Esto incluía una corrección de errores importante en la búsqueda de línea segura de Wolfe para L-BFGS. - [SPARK-15526]: la dependencia JPMML ahora está sombreada.
- Consulte también la sección "Correcciones de errores" para ver los cambios de comportamiento resultantes de corregir los errores.
Problemas conocidos
-
[SPARK-23523][SQL]: resultado incorrecto causado por la regla
OptimizeMetadataOnlyQuery. - [SPARK-23406]: errores en las autocombinaciones secuencia-secuencia.
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 4.0.
Entorno del sistema
- Sistema operativo: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (o 3.5.2 si se usa Python 3)
- R: R, versión 3.4.3 (2017-11-30)
-
Clústeres de GPU: están instaladas las siguientes bibliotecas de GPU de NVIDIA:
- Controlador Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse (una biblioteca de Python para el análisis de argumentos de línea de comandos) | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| criptografía | 1.5 | ciclista | 0.10.0 | Cython | 0.24.1 |
| decorador | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | futuros | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0,999 | idna | 2.1 | dirección IP | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
| mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| entumecida | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | chivo expiatorio | 0.4.1 |
| pexpect | 4.0.1 | pickleshare | 0.7.4 | Almohada | 3.3.1 |
| pepita | 9.0.1 | Capas | 3.9 | prompt-toolkit | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing | 2.2.0 | pypng | 0.0.18 | Pitón | 2.7.12 |
| Python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 1.6.2016 |
| Solicitudes | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy | 0.18.1 | restregar | 0,32 | biblioteca de visualización de datos de Python llamada seaborn | 0.7.1 |
| setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1,0 |
| singledispatch (despacho único) | 3.4.0.3 | six (seis) | 1.10.0 | statsmodels (paquete de Python para análisis estadístico) | 0.6.1 |
| tornado | 4.5.3 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | wcwidth | 0.1.7 | rueda | 0.30.0 |
| wsgiref | 0.1.2 |
Bibliotecas de R instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| abind | 1.4-5 | asegúrate de que | 0.2.0 | retroportaciones | 1.1.1 |
| base | 3.4.3 | BH | 1.65.0-1 | bindr | 0,1 |
| bindrcpp | 0,2 | poco | 1.1-12 | bit 64 | 0.9-7 |
| bitops | 1.0-6 | mancha | 1.1.0 | bota | 1.3-20 |
| fermentar | 1.0-6 | escoba | 0.4.3 | automóvil | 2.1-6 |
| cursor | 6.0-77 | Chron | 2.3-51 | clase | 7.3-14 |
| conglomerado | 2.0.6 | codetools | 0.2-15 | espacio de colores | 1.3-2 |
| commonmark | 1.4 | compilador | 3.4.3 | crayón | 1.3.4 |
| rizo | 3.0 | Trombosis Venosa Cerebral (CVST) | 0.2-1 | tabla de datos | 1.10.4-3 |
| conjuntos de datos | 3.4.3 | DBI | 0,7 | ddalpha | 1.3.1 |
| DEoptimR | 1,0 - 8 | Descripción | 1.1.1 | devtools | 1.13.4 |
| dicromato | 2.0-0 | digerir | 0.6.12 | dimRed | 0.1.0 |
| doMC | 1.3.4 | dplyr | 0.7.4 | DRR | 0.0.2 |
| foreach | 1.4.3 | extranjero | 0.8-69 | Gbm | 2.1.3 |
| ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
| pegamento | 1.2.0 | Gower | 0.1.2 | gráficos | 3.4.3 |
| grDevices | 3.4.3 | rejilla | 3.4.3 | gsubfn | 0.6-6 |
| gtable | 0.2.0 | H2O | 3.16.0.1 | httr | 1.3.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| Iteradores | 1.0.8 | jsonlite | 1.5 | kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | etiquetado | 0,3 | retícula | 0,20-35 |
| lava | 1.5.1 | evaluación diferida | 0.2.1 | más pequeño/a | 0.3.2 |
| lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1.5 |
| mapproj | 1.2-5 | mapas | 3.2.0 | MASA | 7.3-48 |
| Matriz | 1.2-11 | MatrixModels | 0.4-1 | memorizar | 1.1.0 |
| métodos | 3.4.3 | mgcv | 1.8-23 | mimo | 0,5 |
| minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
| munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
| nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
| openssl (software de cifrado) | 0.9.9 | paralelo | 3.4.3 | pbkrtest | 0.4-7 |
| pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
| plyr | 1.8.4 | elogio | 1.0.0 | Proc | 1.10.0 |
| prodlim | 1.6.1 | prototipo | 1.0.0 | Psicología | 1.7.8 |
| ronroneo | 0.2.4 | quantreg | 5.34 | R.methodsS3 | 1.7.1 |
| R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
| Bosque Aleatorio (randomForest) | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
| RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
| recetas | 0.1.1 | reshape2 | 1.4.2 | rlang | 0.1.4 |
| robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
| rpart | 4.1-12 | rprojroot | 1.2 | Rserve | 1.7-3 |
| RSQLite | 2.0 | rstudioapi | 0,7 | balanzas | 0.5.0 |
| sfsmisc | 1.1-1 | Sp | 1.2-5 | SparkR | 2.3.0 |
| DispersoM | 1.77 | espacial | 7.3-11 | Tiras | 3.4.3 |
| sqldf | 0.4-11 | statmod | 1.4.30 | estadísticas | 3.4.3 |
| estadísticas4 | 3.4.3 | stringi | 1.1.6 | stringr | 1.2.0 |
| supervivencia | 2.41-3 | tcltk | 3.4.3 | TeachingDemos | 2,10 |
| testthat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
| tidyselect | 0.2.3 | fechaHora | 3042.101 | herramientas | 3.4.3 |
| utilidades | 3.4.3 | viridisLite | 0.2.0 | bigotes | 0,3-2 |
| withr | 2.1.0 | xml2 | 1.1.1 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.11)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.7.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-core | 1.11.253 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
| com.amazonaws | aws-java-sdk-directory | 1.11.253 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
| com.amazonaws | aws-java-sdk-efs | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.11.253 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
| com.amazonaws | aws-java-sdk-emr | 1.11.253 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
| com.amazonaws | aws-java-sdk-iam | 1.11.253 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.11.253 |
| com.amazonaws | aws-java-sdk-kms | 1.11.253 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.11.253 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
| com.amazonaws | aws-java-sdk-rds | 1.11.253 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
| com.amazonaws | aws-java-sdk-ses | 1.11.253 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
| com.amazonaws | aws-java-sdk-sns | 1.11.253 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-sts | 1.11.253 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.11.253 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
| com.amazonaws | jmespath-java | 1.11.253 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | flujo | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
| com.databricks | dbml-local_2.11-tests | 0.3.0-db1-spark2.3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | kryo sombreado | 3.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.0.0 |
| com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | Gson | 2.2.4 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jamesmurty.utils | java-xmlbuilder | 1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.0.11 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.11 | 0,3 |
| com.twitter | chill-java | 0.8.4 |
| com.twitter | chill_2.11 | 0.8.4 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | configuración | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | analizadores de univocidad | 2.5.9 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 2.4.1 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| commons-collections | commons-collections | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 2.2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | compresor de aire | 0.8 |
| io.dropwizard.metrics | núcleo de métricas | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | métricas-verificaciones de salud | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metrics-json | 3.1.5 |
| io.dropwizard.metrics | metrics-jvm | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | metrics-servlets | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | cliente_simple_común | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | recopilador | 0,7 |
| javax.activation | activación | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolución | javolución | 5.5.1 |
| jline | jline | 2,11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-propiedades | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | jets3t | 0.9.4 |
| net.razorvine | pirolita | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4,7 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.9.2 |
| org.apache.arrow | formato de flecha | 0.8.0 |
| org.apache.arrow | memoria de flecha | 0.8.0 |
| org.apache.arrow | vector de flecha | 0.8.0 |
| org.apache.avro | avro | 1.7.7 |
| org.apache.avro | avro-ipc | 1.7.7 |
| org.apache.avro | avro-ipc-tests | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcte | calcte-avatica | 1.2.0-incubación |
| org.apache.calcte | núcleo de calcita | 1.2.0-incubación |
| org.apache.calcte | calcte-linq4j | 1.2.0-incubación |
| org.apache.commons | commons-compress | 1.4.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3,5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | curador-cliente | 2.7.1 |
| org.apache.curator | marco de trabajo para curadores | 2.7.1 |
| org.apache.curator | curador-recetas | 2.7.1 |
| org.apache.derby | derbi | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | anotaciones de Hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-cliente | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0-incubación |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | hiedra | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.1 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
| org.apache.parquet | parquet-columna | 1.8.2-databricks1 |
| org.apache.parquet | parquet-common | 1.8.2-databricks1 |
| org.apache.parquet | codificación de parquet | 1.8.2-databricks1 |
| org.apache.parquet | formato parquet | 2.3.1 |
| org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
| org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5 sombreado | 4.4. |
| org.apache.zookeeper | cuidador de zoológico | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1.58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.8 |
| org.codehaus.janino | janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
| org.eclipse.jetty | Seguridad de Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | servidor Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-guayaba | 2.22.2 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | jersey-common | 2.22.2 |
| org.glassfish.jersey.core | jersey-server | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | validador de hibernación | 5.1.1.Final |
| org.iq80.snappy | rápido | 0,2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.2.11 |
| org.json4s | json4s-core_2.11 | 3.2.11 |
| org.json4s | json4s-jackson_2.11 | 3.2.11 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenesis | 2.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
| org.spark-project.spark | sin usar | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core | 4.1.4.LANZAMIENTO |
| org.springframework | Prueba de primavera | 4.1.4.LANZAMIENTO |
| org.tukaani | xz | 1,0 |
| org.typelevel | maquinista_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.2.6 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0,52 |