Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 17.2, con tecnología de Apache Spark 4.0.0.
Azure Databricks publicó esta versión en septiembre de 2025.
Nuevas características y mejoras
- LIKE admite UTF8_LCASE intercalación
-
st_exteriorringahora se admite la función -
Mostrar los detalles de la inserción en y la
EXPLAINinterfaz de usuario de Spark para exámenes remotos -
Declarar varias variables locales o de sesión en una sola
DECLAREinstrucción -
Palabra clave de compatibilidad
TEMPORARYpara la creación de vistas de métricas - Compatibilidad con comandos adicionales con control de acceso específico
-
Reemplazar datos de forma selectiva y atómica por
INSERT REPLACE USINGyINSERT REPLACE ON(GA) -
Uso de E/S nativa para
LokiFileSystem.getFileStatusen S3 - Modo ANSI habilitado de forma predeterminada para pandas API en Spark
-
Auto Loader deduce columnas de partición en modo
singleVariantColumn
LIKE admite la intercalación UTF8_LCASE
El operador LIKE ahora admite la clasificación UTF8_LCASE, lo que permite coincidencias sin distinguir entre mayúsculas y minúsculas.
st_exteriorring ahora se admite la función
Ahora puede usar la st_exteriorring función para extraer el límite exterior de un polígono y devolverlo como una cadena de líneas. Consulte la st_exteriorring función.
Mostrar los detalles de la inserción en y la EXPLAIN interfaz de usuario de Spark para exámenes remotos
El EXPLAIN comando y la interfaz de usuario de Spark para RemoteSparkConnectScan en proceso dedicado ahora muestran predicados, agregaciones, cláusulas group by, límites y ejemplos que se insertan en el examen remoto.
Declarar varias variables locales o de sesión en una sola DECLARE instrucción
En Databricks Runtime 17.2 y versiones posteriores, puede declarar varias variables locales o de sesión del mismo tipo y valor predeterminado en una sola DECLARE instrucción. Vea y DECLARE VARIABLE (Instrucción compuesta BEGIN END).
Palabra clave de compatibilidad TEMPORARY para la creación de vistas de métricas
Ahora puede usar la TEMPORARY palabra clave al crear una vista de métrica. Las vistas de métricas temporales solo son visibles en la sesión que las creó y se quitan cuando finaliza la sesión. Consulte CREATE VIEW.
Compatibilidad con comandos adicionales con control de acceso específico
El control de acceso específico en el proceso dedicado ahora admite los FSCK REPAIR TABLE comandos y DESCRIBE DETAIL .
Reemplazar datos de forma selectiva y atómica por INSERT REPLACE USING y INSERT REPLACE ON (GA)
INSERT REPLACE USING y INSERT REPLACE ON ahora están disponibles con carácter general para Databricks Runtime 17.2. Ambos comandos SQL reemplazan parte de la tabla por el resultado de una consulta.
INSERT REPLACE USING reemplaza las filas cuando las USING columnas se comparan iguales con igualdad.
INSERT REPLACE ON reemplaza las filas cuando coinciden con una condición definida por el usuario.
Consulte INSERT la referencia del lenguaje SQL y sobrescriba de forma selectiva los datos con Delta Lake.
Uso de E/S nativa para LokiFileSystem.getFileStatus en S3
LokiFileSystem.getFileStatus ahora usa la pila de E/S nativa para el tráfico de Amazon S3 y devuelve org.apache.hadoop.fs.FileStatus objetos en lugar de shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
Modo ANSI habilitado de forma predeterminada para pandas API en Spark
ANSI_MODE ahora está habilitado de forma predeterminada para la API de Pandas en Spark con compute.ansi_mode_support=True, lo que garantiza la paridad de cumplimiento de ANSI con pandas nativos. La compute.fail_on_ansi_mode opción todavía se aplica si compute.ansi_mode_support se establece en False.
Auto Loader deduce columnas de partición en el modo singleVariantColumn
El cargador automático ahora deduce las columnas de partición a partir de las rutas de archivo al procesar datos como un tipo de variante semiestructurada usando la opción singleVariantColumn. Anteriormente, las columnas de partición no se detectaron automáticamente. Consulte Opciones del cargador automático.
Cambios de comportamiento
-
DESCRIBE CONNECTIONmuestra la configuración del entorno para las conexiones JDBC. - Opción para truncar el historial uniforme durante la migración de tablas administradas
- Sintaxis SQL para opciones de lectura delta en consultas de streaming
-
Resultados correctos para
splitcon regex vacío y límite positivo -
Corrección
url_decodeytry_url_decodecontrol de errores en Photon - Entorno de ejecución compartido para UDF de Python del catálogo de Unity
- Seguimiento de filas habilitado de forma predeterminada para las nuevas tablas
- TABLE compatibilidad de argumentos para UDTF de Python en Unity Catalog
DESCRIBE CONNECTION muestra la configuración del entorno para las conexiones JDBC.
Azure Databricks ahora incluye la configuración de entorno definida por el usuario en la salida de las DESCRIBE CONNECTION conexiones JDBC que admiten controladores personalizados y se ejecutan de forma aislada. Otros tipos de conexión permanecen sin cambios.
Opción para truncar el historial uniforme durante la migración de tablas administradas
Ahora puede truncar el historial uniforme al migrar tablas con Uniform/Respecta habilitado mediante ALTER TABLE...SET MANAGED. Esto simplifica las migraciones y reduce el tiempo de inactividad en comparación con deshabilitar y volver a habilitar Uniforme manualmente.
Sintaxis SQL para opciones de lectura delta en consultas de streaming
Ahora puede especificar opciones de lectura delta para consultas de streaming basadas en SQL mediante la WITH cláusula . Por ejemplo:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Resultados correctos para split con regex vacío y límite positivo
Azure Databricks ahora devuelve resultados correctos cuando se usa split function con una expresión regular vacía y un límite positivo. Anteriormente, la función truncaba incorrectamente la cadena restante en lugar de incluirla en el último elemento.
Corrección url_decode y try_url_decode control de errores en Photon
En Photon y try_url_decode()url_decode() ahora failOnError = false devuelven NULL cadenas codificadas por url no válidas en lugar de generar errores en la consulta.
Entorno de ejecución compartido para UDF de Python del catálogo de Unity
Azure Databricks ahora comparte el entorno de ejecución para las funciones de tabla definidas por el usuario (UDF) de Python desde el mismo propietario y sesión de Spark. Hay disponible una cláusula opcional STRICT ISOLATION para deshabilitar el uso compartido de UDF con efectos secundarios, como modificar variables de entorno o ejecutar código arbitrario.
Seguimiento de filas habilitado de forma predeterminada para las nuevas tablas
Azure Databricks ahora habilita el seguimiento de filas de forma predeterminada para todas las tablas administradas del catálogo de Unity recién creadas. Las tablas existentes no se ven afectadas y mantienen su configuración de seguimiento de filas actual.
TABLE compatibilidad de argumentos para UDTF de Python del Catálogo de Unity
Las UDF de Python del catálogo de Unity admiten TABLE argumentos, lo que permite que las funciones acepten tablas completas como parámetros de entrada, lo que permite transformaciones de datos y agregaciones más complejas en conjuntos de datos estructurados. Consulte Funciones de tabla definidas por el usuario (UDF) de Python en el catálogo de Unity. (Retroportado desde 17.3 LTS).
Actualizaciones de bibliotecas
Bibliotecas de Python actualizadas:
No se actualizaron bibliotecas de Python en esta versión.
Bibliotecas de R actualizadas:
No se actualizaron bibliotecas de R en esta versión.
Bibliotecas de Java actualizadas:
- io.delta.delta-sharing-client_2.13 de 1.3.3 a 1.3.5
Apache Spark
Databricks Runtime 17.2 incluye Apache Spark 4.0.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en la versión 17.1, así como las siguientes correcciones de errores adicionales y mejoras realizadas en Spark:
-
SPARK-53183 Uso de Java
Files.readStringen lugar deo.a.s.sql.catalyst.util.fileToString - SPARK-51817 Vuelva a introducir campos ansiConfig en messageParameters de CAST_INVALID_INPUT y CAST_OVERFLOW
- SPARK-53124 Eliminación de campos innecesarios de JsonTuple
- SPARK-53106 Adición de pruebas de evolución de esquemas para conjuntos de conexiones spark de TWS Scala
-
SPARK-53201 Usar
SparkFileUtils.contentEqualsen lugar deFiles.equal - SPARK-53308 No quite alias en RemoveRedundantAliases que provocarían duplicados
-
SPARK-53241 Soporte técnico
createArrayenSparkCollectionUtils -
SPARK-53239 Mejora
MapSortySortArrayrendimiento a través deparallelSort - SPARK-53184 Corrección de melt() cuando las columnas de valor mezclan cadenas y números
- SPARK-53144 Liberar efecto secundario CreateViewCommand en SparkConnectPlanner
- SPARK-53303 Use el codificador de estado vacío cuando no se proporcione el estado inicial en TWS.
- SPARK-52917 Compatibilidad de lectura para habilitar el recorrido de ida y vuelta para binarios en formato xml
- SPARK-53110 Implementación de la función time_trunc en PySpark
- SPARK-53107 Implementación de la función time_trunc en Scala
- SPARK-52146 Detección de referencias de funciones cíclicas en UDF de SQL
- SPARK-52469 Uso de la API de JEP 223 para procesar la versión de Java
- SPARK-53094 Corrección de CUBE con cláusulas contenedoras agregadas HAVING
- SPARK-51874 Agregar TypedConfigBuilder para Scala (enumeración)
- SPARK-53287 Agregar guía de migración de ANSI
- SPARK-43100 Las métricas aleatorias basadas en inserción deben deserializarse correctamente
- SPARK-53045 DESCRIBIR EXTENDED debe ser resistente a metadatos dañados
-
SPARK-53114 Soporte técnico
joinenJavaUtils - SPARK-53297 Corrección de la documentación de la API de canalizaciones declarativas de StreamingTable
- SPARK-53181 Habilitación de pruebas de documentos en ANSI
- SPARK-52482 Mejora del control de excepciones para leer determinados archivos zstd dañados
-
SPARK-52990 Apoyo
StringSubstitutor - SPARK-51874 Agregar TypedConfigBuilder para Scala (enumeración)
-
SPARK-53169 Quitar comentarios relacionados con "
Set the logger level of File Appender to" delog4j2.properties -
SPARK-53080 Soporte técnico
cleanDirectoryenSparkFileUtilsyJavaUtils - SPARK-53045 DESCRIBIR EXTENDED debe ser resistente a metadatos dañados
-
SPARK-53000 Cambiar el nombre
StringUtils.scalaaStringConcat.scalaen elsql/apimódulo - SPARK-52952 Agregar script de desarrollo de coerción de tipos UDF de PySpark
- SPARK-52998 Varias variables dentro de declare
- SPARK-51817 Vuelva a introducir campos ansiConfig en messageParameters de CAST_INVALID_INPUT y CAST_OVERFLOW
- SPARK-52820 Captura de planes completos en archivos dorados
- SPARK-53274 Compatibilidad con la inserción de unión izquierda y derecha en JDBCScanBuilder
- SPARK-52110 Implementación de la compatibilidad con la sintaxis SQL para canalizaciones
- SPARK-52950 Habilitación del modo ANSI en DataSourceV2StrategySuite
- SPARK-52947 Corrección de la ruta de acceso de imagen en la guía de programación de canalizaciones declarativas
- SPARK-52592 Compatibilidad con la creación de un ps. Series de un ps. Serie
- SPARK-53301 Diferenciación de sugerencias de tipo de UDF de Pandas y UDF de flecha
- SPARK-53146 Liberar efecto secundario MergeIntoTable en SparkConnectPlanner
-
SPARK-53166 Uso
SparkExitCode.EXIT_FAILUREen elSparkPipelinesobjeto - SPARK-53288 Corrección del error de aserción con el límite global de streaming
- SPARK-52394 Corrección del error de división por cero del autocorr en modo ANSI
- SPARK-51555 Adición de la función time_diff()
- SPARK-52948 Habilitar test_np_spark_compat_frame en ANSI
- SPARK-53134 Limpieza de importaciones ANSI sin usar en pruebas
-
SPARK-52593 Evitar CAST_INVALID_INPUT de
MultiIndex.to_seriesySeries.dotDataFrame.doten modo ANSI - SPARK-53291 Corrección de la nulabilidad de la columna de valor
- SPARK-53097 Liberar efecto secundario WriteOperationV2 en SparkConnectPlanner
- SPARK-53305 Compatibilidad con TimeType en createDataFrame
-
SPARK-52914 Compatibilidad
On-Demand Log Loadingcon registros graduales enHistory Server - SPARK-33538 Inserción directa de predicados IN/NOT en el metastore de Hive
-
SPARK-52849 Agregar
stringifyExceptionao.a.s.util.Utils -
SPARK-52771 Corrección de la ampliación de tipos float32 en
truediv/floordiv - SPARK-52502 Información general sobre el recuento de subprocesos
- SPARK-52788 Corrección del error de conversión de valor binario en BinaryType a XML
-
SPARK-53123 Soporte técnico
getRootCauseenSparkErrorUtils -
SPARK-53129 Mejora
SparkShellde la importaciónjava.net._de forma predeterminada -
SPARK-53061 Soporte técnico
copyFileToDirectoryenSparkFileUtils - SPARK-52683 Compatibilidad con ExternalCatalog alterTableSchema
-
SPARK-52871 Combinar
o.a.s.sql.catalyst.util.SparkStringUtilscono.a.s.util.SparkStringUtils -
SPARK-52817 Corrección del
Likerendimiento de expresiones - SPARK-52545 Estandarizar el escape entre comillas dobles para seguir la especificación de SQL
-
SPARK-52711 Corrección de la ampliación de tipos float32 en en
mul/rmulANSI - SPARK-52615 Reemplace File.mkdirs por Utils.createDirectory
- SPARK-52381 JsonProtocol: acepte solo subclases de SparkListenerEvent.
- SPARK-52613 Restauración de la impresión de stacktrace completo cuando la delegación de HBase/Hive DelegaciónTokenProvider alcance la excepción
- SPARK-52651 Controlar el tipo definido por el usuario en ColumnVector anidado
- SPARK-52611 Corrija la versión de SQLConf para excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Omitir el cumplimiento de restricciones CHECK para las eliminaciones de vectores de eliminación
- Parámetro de compatibilidad
-ide-Ispark-shell 2.13 - SPARK-52492 Haga que InMemoryRelation.convertToColumnarIfPossible personalizable
- SPARK-52451 Liberar efecto secundario WriteOperation en SparkConnectPlanner
- SPARK-53272 Refactorización de la lógica de inserción de SPJ fuera de BatchScanExec
-
SPARK-53071 Soporte técnico
copyFileenSparkFileUtils - SPARK-51415 Admitir el tipo de hora por make_timestamp()
- SPARK-51554 Adición de la función time_trunc()
- SPARK-52426 Compatibilidad con la redirección de stdout/stderr al sistema de registro
- SPARK-51834 Compatibilidad con la administración de restricciones de tabla de un extremo a otro
- SPARK-53063 Implementación y llamada a nuevas API en FileCommitProtocol en lugar de en desuso
- SPARK-52546 comprueba sparkContext si se ha detenido al ejecutar el bloque de código catch en execute(), de lo contrario, devolverá un estado incorrecto.
-
SPARK-53023 Eliminación
commons-iode dependencias delsql/apimódulo - SPARK-52396 El directorio raíz del artefacto debe usar tmpdir
-
SPARK-53131 Mejora
SparkShellde la importaciónjava.nio.file._de forma predeterminada - SPARK-42322 Asignar to_LEGACY_ERROR_TEMP_2235 de nombre
- SPARK-51834 Compatibilidad con la administración de restricciones de tabla de un extremo a otro
- SPARK-52484 Omitir la aserción child.supportsColumnar del lado del controlador en ColumnarToRowExec
- SPARK-52384 Corrección del error Connect no debe tener en cuenta las opciones de JDBC.
- SPARK-52034 Adición de métodos comunes en el rasgo sparkOperation para las operaciones thriftserver
-
SPARK-53031 Soporte técnico
getFileenSparkFileUtils - SPARK-52976 Corrección de la UDF de Python que no acepta la cadena intercalada como tipo de valor devuelto o parámetro de entrada (17.x)
- SPARK-52943 Habilitar arrow_cast para todos los tipos de valor de UDF de Pandas
- SPARK-53263 Compatibilidad con TimeType en df.toArrow
- SPARK-53141 Adición de API para obtener el tamaño de memoria de sobrecarga y el tamaño de memoria desactivado del perfil de recursos
- SPARK-53259 Corregir el mensaje de INVALID_UDF_EVAL_TYPE
- SPARK-53167 El iniciador de Spark isRemote también respeta el archivo de propiedades
-
SPARK-53165 Agregar
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Mejora de la repetición de UTF8String
-
SPARK-53170 Mejora
SparkUserAppExceptionpara tenercauseun parámetro - SPARK-52989 Adición explícita de close() API a iteradores del Almacén de estado
- SPARK-53074 Evitar la agrupación en clústeres parciales en SPJ para satisfacer la distribución necesaria de un elemento secundario
- SPARK-52252 Se deben resolver codificadores ScalaUDF en subconsulta
- SPARK-53244 No almacene confs habilitados para doble ejecución y modo provisional durante la creación de vistas
- SPARK-53192 Almacenar siempre en caché un origen de datos en la caché del plan de Spark Connect
- SPARK-51813 Agregue un defaultCachedBatchKryoSerializer que no acepta valores NULL para evitar la propagación nula en defaultCachedBatch serde
- SPARK-52904 Volver a aplicar "[SC-202233][python] Habilitar convertToArrowArrayS...
-
SPARK-53253 Corrección del registro de UDF de tipo
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 Enumeración de los tipos deval admitidos en los nodos de flecha
-
SPARK-53130 Corrección
toJsondel comportamiento de los tipos de cadena intercalados -
SPARK-53003 Soporte técnico
stripenSparkStringUtils - SPARK-51902 Sistema operativo de sincronización: aplicación de la restricción check en la inserción de tablas
- SPARK-52047 Generar PySparkValueError para los tipos de trazado no admitidos
-
SPARK-53004 Soporte técnico
abbreviateenSparkStringUtils - SPARK-53066 Mejora de EXPLAIN la salida de la inserción de combinación de DSv2
- SPARK-30848 Eliminación de productHash de TreeNode
-
SPARK-53046 Uso de Java
readAllBytesen lugar deIOUtils.toByteArray -
SPARK-53206 Usar
SparkFileUtils.moveen lugar decom.google.common.io.Files.move - SPARK-53066 Mejora de EXPLAIN la salida de la inserción de combinación de DSv2
- SPARK-53069 Corrección de métricas de almacén de estado incorrectas con familias de columnas virtuales
- SPARK-52904 Habilite convertToArrowArraySafely de forma predeterminada [17.x]
- Coerción del tipo de valor devuelto spark-52821 int-DecimalType> pyspark udf
-
SPARK-51562 Agregar
timefunción - SPARK-52971 Limitar el tamaño de la cola de trabajo de Python inactiva
-
SPARK-53057 Soporte técnico
sizeOfenSparkFileUtilsyJavaUtils - SPARK-53040 Prohibir las referencias propias dentro de las CTE más altas en CTE recursivas
- SPARK-53104 Introducción ansi_mode_context para evitar varias comprobaciones de configuración por llamada API
-
SPARK-47547 Agregue
BloomFilterV2 y úselo como valor predeterminado -
SPARK-53098
DeduplicateRelationsno debe volver a asignar expresiones si todavía existe enExprIdla salida -
SPARK-53049 Soporte técnico
toStringenSparkStreamUtils -
SPARK-53062 Soporte técnico
deleteQuietlyenSparkFileUtilsyJavaUtils -
SPARK-53070 Soporte técnico
is(Not)?EmptyenSparkCollectionUtils - SPARK-53020 Los argumentos de JPMS también se deben aplicar al proceso que no sea SparkSubmit.
- SPARK-52968 Emisión de métricas de almacén de estado adicionales
- SPARK-52975 Simplificación de los nombres de campo en la combinación de inserción sql
- SPARK-52926 Se ha agregado SQLMetric para la duración de la captura de esquemas remotos.
- SPARK-53059 Arrow UDF no es necesario depender de pandas
-
SPARK-52646 Evitar CAST_INVALID_INPUT de
__eq__en modo ANSI -
SPARK-52622 Evitar CAST_INVALID_INPUT de
DataFrame.melten modo ANSI - SPARK-52985 Generar TypeError para operando numpy pandas en operadores de comparación
-
SPARK-52580 Evitar CAST_INVALID_INPUT de
replaceen modo ANSI - SPARK-52549 Deshabilitar las referencias automáticas de CTE recursivas desde funciones de ventana y dentro de las ordenaciones
-
SPARK-52895 No agregue elementos duplicados en
resolveExprsWithAggregate - SPARK-50748 Corrección de un problema de condición de carrera que se produce cuando se interrumpen las operaciones
- SPARK-52737 Predicado de inserción y número de aplicaciones en FsHistoryProvider al enumerar aplicaciones
- SPARK-53018 ArrowStreamArrowUDFSerializer debe respetar el argumento arrow_cast
- SPARK-53013 Corrección de la UDTF de Python optimizada para flechas que no devuelve ninguna fila en la combinación lateral
- SPARK-51834 Sincronización del sistema operativo: compatibilidad con la restricción de tabla de un extremo a otro alter add/drop
- SPARK-52921 Especificar outputPartitioning para UnionExec para la misma partitoning de salida que los operadores secundarios
- SPARK-52908 Evitar que el nombre de la variable de iterador entre en conflicto con los nombres de las etiquetas de la ruta de acceso a la raíz de AST
- SPARK-52954 Coerción de tipos de valor devuelto compatible con UDF de flecha
- SPARK-52925 Devuelve el mensaje de error correcto para las referencias automáticas de delimitador en rCTEs
- SPARK-52889 Implementación de la función current_time en PySpark
- SPARK-52675 Interrumpir controladores de ML colgados en pruebas
- SPARK-52959 Compatibilidad con UDT en UDT de Python optimizado para flechas UDTF
- SPARK-52962 BroadcastExchangeExec no debe restablecer las métricas
- SPARK-52956 Conservar los metadatos de alias al contraer proyectos
- SPARK-52890 Implementación de las funciones de to_time y try_to_time en PySpark
- SPARK-52888 Implementación de la función make_time en PySpark
- SPARK-52892 Compatibilidad con TIME en las funciones hour, minute y second en PySpark
- SPARK-52837 Compatibilidad con TimeType en pyspark
- SPARK-52023 Corrección de daños en los datos/devolución de segfault Option[Product] desde udaf
- SPARK-52955 Cambiar los tipos devueltos de WindowResolution.resolveOrder y WindowResolution.resolveFrame a WindowExpression
- SPARK-52166 Adición de compatibilidad con PipelineEvents
- SPARK-51834 Corrección: quitar válido de toDDL
- SPARK-52735 Corrección de las condiciones de error que faltan para las UDF de SQL
- SPARK-51834 Sincronizar el soporte de OSS de extremo a extremo para crear/reemplazar tabla con restricción
- SPARK-51834 Sincronización de llamadas resueltas de actualización del sistema operativo ResolvedIdentifier
- SPARK-52929 Compatibilidad con el conector MySQL y SQLServer para la inserción de DSv2 Join
- SPARK-52448 Adición de Struct Expression.Literal simplificado
- SPARK-52882 Implementación de la función current_time en Scala
- SPARK-52905 UDF de flecha para la ventana
-
SPARK-52876 Corrección de
bufferun error tipográfico enbodyenChunkFetchSuccess.toString - SPARK-52883 Implementación de las funciones de to_time y try_to_time en Scala
-
SPARK-52751 No valide diligentemente el nombre de columna en
dataframe['col_name'] - SPARK-52791 Corrección del error al deducir un UDT con un primer elemento NULL
-
SPARK-52686
Unionsolo se debe resolver si no hay duplicados - SPARK-52881 Implementación de la función make_time en Scala
- SPARK-52919 Corrección de la inserción de combinación de DSv2 para usar la columna con alias anterior
-
SPARK-52866 Adición de compatibilidad con
try_to_date - SPARK-52846 Agregue una métrica en JDBCRDD durante cuánto tiempo se tarda en capturar el conjunto de resultados.
- SPARK-52859 Adición del rasgo SparkSystemUtils
- SPARK-52823 Compatibilidad con la inserción de combinación DSv2 para el conector de Oracle
- SPARK-52165 Configuración del scaffolding de compilación para el proyecto de canalizaciones
- SPARK-52869 Adición de la validación FrameLessOffsetWindowFunction para validarResolvedWindowExpression para su reutilización en el analizador de un solo paso
- SPARK-52885 Implementación de las funciones hour, minute y second en Scala para el tipo TIME
- SPARK-52903 Recorte de alias que no son de nivel superior antes de la resolución LCA
- SPARK-52832 Corrección de las comillas del identificador de dialecto JDBC
-
SPARK-52870 Nombres de variable de comillas correctos en la
FORinstrucción -
SPARK-52859 Agregar
SparkSystemUtilsrasgo -
SPARK-52900 Uso
SparkStringUtils.stringToSeqenFsHistoryProvider - SPARK-52809 No contenga referencias de lector e iterador para todas las particiones de los agentes de escucha de finalización de tareas para la actualización de métricas
-
SPARK-52815 Mejora
SparkClassUtilsdel soporte técnicogetAllInterfaces - SPARK-52795 Incluir runId en los registros del almacén de estado
- SPARK-52779 Literal TimeType de soporte técnico en Connect
- SPARK-52899 Corrección de la prueba QueryExecutionErrorsSuite para registrar H2Dialect de nuevo
-
SPARK-52862 Corrección de la comprobación de nulabilidad de
Decimal('NaN') - SPARK-52214 UDF de flecha para la agregación
- SPARK-52787 Reorganización del directorio de ejecución de streaming en torno al entorno de ejecución y las áreas de punto de control
- SPARK-51564 Análisis de hora en el formato de reloj de 12 horas
-
SPARK-52859 Agregar
SparkSystemUtilsrasgo -
SPARK-51562 Agregar
timefunción - SPARK-52850 Omitir las conversiones de llamadas si la función de identidad
- SPARK-52863 Limpieza de rutas de acceso de código para versiones anteriores de Pandas
- SPARK-52516 No contenga la referencia anterior del iterador después de avanzar al siguiente archivo en ParquetPartitionReaderFactory
-
SPARK-52848 Evitar la conversión a
Doubleen la conversión de TIME/TIMESTAMP a DECIMAL -
SPARK-52770 Tipo de soporte técnico
TIMEen connect proto - SPARK-52842 Nuevas funcionalidades y correcciones de errores para el analizador de paso único
- SPARK-52620 Compatibilidad con la conversión de TIME a DECIMAL
- SPARK-52783 Refactorización de la lógica de validación de windowFunction de checkAnalysis para su reutilización en el analizador de paso único
- SPARK-51695 Sincronizar OSS crear/reemplazar/modificar tabla para restricción única a través de DSv2
- SPARK-51695 Restricción de eliminación de OSS de sincronización mediante DSv2
- SPARK-52824 Clasificación de errores de CheckpointFileManager
- SPARK-52829 Corrección de LocalDataToArrowConversion.convert para controlar las filas vacías correctamente
- SPARK-52811 Optimizar ArrowTableToRowsConversion.convert para mejorar su rendimiento
- SPARK-52796 Optimizar LocalDataToArrowConversion.convert para mejorar su rendimiento
- SPARK-51695 Cambios del analizador de restricciones Alter Table Alter Table de sincronización del sistema operativo
- SPARK-52619 Convertir TimeType en IntegralType
- SPARK-52187 Introducción a la inserción de unión para DSv2
- SPARK-52782 Devolver NULL desde +/- en datetime con NULL
- SPARK-51695 Introducción de cambios del analizador para las restricciones table (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationsdebe ser positivo - SPARK-52776 No dividir el campo comm en ProcfsMetricsGetter
-
SPARK-52793 Soporte técnico
isUnixeno.a.s.util.Utils -
SPARK-52792 Quitar
commons-lang3dependencia denetwork-common -
SPARK-52797 Usar
Utils.isWindowsen lugar de volver a evaluar enPythonWorkerFactory - SPARK-52784 Agregar la conversión timeZoneAware en WindowFrameTypeCoercion.createBoundaryCast
- SPARK-52725 Retrasar la inicialización del administrador de perfiles de recursos hasta que se cargue el complemento
- SPARK-52565 Exigir la resolución ordinal antes de otras expresiones de criterio de ordenación
- SPARK-52740 Corrección de NPE en HDFSBackedStateStoreProvider que accede a StateStoreConf.sqlConf cuando la versión del formato de punto de control es >=2
- SPARK-52673 Adición del control grpc RetryInfo a las directivas de reintento de Spark Connect
- SPARK-52724 Mejora del control de errores de OOM de combinación de difusión con compatibilidad con sugerencias de SHUFFLE_MERGE
- SPARK-52781 Corrección de errores tipográficos de dtyeps en internal.py
- SPARK-52730 Almacenar la versión subyacente del controlador y la base de datos en JDBCRDD
- SPARK-52727 Refactorización de la resolución de ventanas para reutilizarla en el analizador de paso único
- SPARK-52695 Compatibilidad de escritura de tipo definido por el usuario para el formato de archivo xml
- SPARK-52722 Desuso de la clase JdbcRDD
- SPARK-51695 Introducción de cambios del analizador para las restricciones table (CHECK, PK, FK)
- SPARK-52763 Resta de TIEMPO de soporte técnico
- SPARK-52768 Corrección del error tipográfico "mover" en pandas/series.py
- SPARK-52730 Almacenar la versión subyacente del controlador y la base de datos en JDBCRDD
-
SPARK-52694 Agregar
o.a.s.sql.Encoders#udtAPI -
SPARK-52720 Corrección de la ampliación de tipos float32 en en
add/raddANSI - SPARK-52723 Validación del nombre de columna del lado servidor
-
SPARK-52760 Corrección de la ampliación de tipos float32 en en
sub/rsubANSI -
SPARK-52738 Compatibilidad con la agregación del tipo TIME con un UDAF cuando el búfer subyacente es un
UnsafeRow - SPARK-52704 Simplificación de las interoperaciones entre SQLConf y las opciones de formato de archivo en TextBasedFileFormats
- SPARK-52706 Corrección de incoherencias y refactorización de tipos primitivos en el analizador
-
SPARK-52718 Corrección de la ampliación de tipos float32 en en
rmod/modANSI - SPARK-52736 Corrección de errores tipográficos "mover" en pyspark/pandas/generic.py
Compatibilidad con controladores ODBC/JDBC de Azure Databricks
Azure Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Entorno del sistema
- Sistema operativo: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flecha | 1.3.0 | "asttokens" | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | atributos | 24.3.0 |
| comando automático | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | Servicio de Azure Storage File Data Lake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | negro | 24.10.0 |
| blanquear | 6.2.0 | intermitente | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| Haz clic | 8.1.7 | cloudpickle | 3.0.0 | Comunicación | 0.2.1 |
| contourpy | 1.3.1 | criptografía | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | SDK de Databricks | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorator | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | Conversión de docstring a markdown | 0.11 |
| executing | 0.8.3 | visión general de las facetas | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | bloqueo de archivos | 3.18.0 | fonttools | 4.55.3 |
| Fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| google-cloud-core | 2.4.3 | Google Cloud Storage (almacenamiento en la nube de Google) | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (medios reanudables de Google) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifications | 2023.7.1 | jupyter_events | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server (servidor de JupyterLab) | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| convenciones-semánticas-de-opentelemetry | 0.53b1 | overrides | 7.4.0 | embalaje | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | chivo expiatorio | 1.0.1 | pexpect | 4.8.0 |
| almohada | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.12.0 |
| configuración de herramienta Python | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referencing | 0.30.2 | solicitudes | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rico | 13.9.4 |
| cuerda | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | Starlette | 0.46.2 |
| statsmodels (paquete de Python para análisis estadístico) | 0.14.4 | strictyaml | 1.7.3 | tenacidad | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unattended-upgrades | 0,1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 24.11.1 | codificaciones web | 0.5.1 |
| cliente de websocket | 1.8.0 | ¿Qué es el parche? | 1.0.2 | rueda | 0.45.1 |
| widgetsnbextension | 3.6.6 | envuelto | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de paquetes dePositiv en 2025-03-20.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 19.0.1 | askpass | 1.2.1 | asegúrate de que | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | mancha | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | escoba | 1.0.7 |
| bslib | 0.9.0 | cachemir | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 | chron | 2.3-62 |
| class | 7.3-22 | Interfaz de línea de comandos (CLI) | 3.6.5 | clipr | 0.8.0 |
| reloj | 0.7.2 | conglomerado | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.5 | compilador | 4.4.2 |
| config | 0.3.2 | Confuso | 1.2.0 | cpp11 | 0.5.2 |
| crayón | 1.5.3 | credentials | 2.0.2 | curl | 6.4.0 |
| tabla de datos | 1.17.0 | Conjuntos de datos | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | descripción | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | digerir | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | elipsis | 0.3.2 | evaluar | 1.0.3 |
| fans | 1.0.6 | colores | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| extranjero | 0,8-86 | forge | 0.2.0 | fs | 1.6.5 |
| futuro | 1.34.0 | aplicación futura | 1.11.3 | gargle | 1.5.2 |
| genéricos | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | pegamento | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| gráficos | 4.4.2 | grDevices | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | hardhat | 1.4.1 | refugio | 2.5.4 |
| más alto | 0.11 | hms | 1.1.3 | herramientas de HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.50 | etiquetado | 0.4.3 |
| más tarde | 1.4.1 | retícula | 0.22-5 | lava | 1.8.1 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Formato Markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matrix | 1.6-5 | memorización | 2.0.1 | métodos | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI (Interfaz de Usuario) | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.3.3 | paralelo | 4.4.2 |
| Paralelamente | 1.42.0 | pilar | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | progreso | 1.2.3 |
| progressr | 0.15.1 | promesas | 1.3.2 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | ps | 1.9.0 | ronroneo | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | Bosque Aleatorio (randomForest) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | r-reactable | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl | 1.4.5 |
| recetas | 1.2.0 | partido de revancha | 2.0.0 | segunda revancha | 2.1.2 |
| remotes | 2.5.0 | ejemplo reproducible | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2,29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| balanzas | 1.3.0 | selectr | 0.4-2 | información de sesión | 1.2.3 |
| forma | 1.4.6.1 | brillante | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Estadísticas | 4.4.2 | estadísticas4 | 4.4.2 |
| stringi | 1.8.7 | stringr | 1.5.1 | supervivencia | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | Formateo de texto | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | cambio de hora | 0.3.0 | timeDate | 4041.110 |
| tinytex | 0.56 | herramientas | 4.4.2 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usa esto | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| archivo comprimido | 2.3.2 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | flujo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1. nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1. nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1. nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1. nativos |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | guayaba | 33.4.0-jre |
| com.google.guava | listenablefuture | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | código fuente_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | métricas-anotación | 4.2.30 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | metrics-servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | cliente_simple_común | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | coleccionista | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.10.11 |
| org.apache.arrow | arrow-format | 18.2.0 |
| org.apache.arrow | núcleo de memoria de flecha | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | arrow-vector | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.13.0 |
| org.apache.curator | curador-cliente | 5.7.1 |
| org.apache.curator | marco de trabajo para curadores | 5.7.1 |
| org.apache.curator | recetas del curador | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | calzos de orco | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | Anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.9.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | servidor Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | validador de hibernación | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Sugerencia
Para ver las notas de las versiones de Databricks Runtime que han llegado al fin de soporte (EoS), consulte las Notas de lanzamiento de fin de soporte de Databricks Runtime. Las versiones de EoS Databricks Runtime se han retirado y es posible que no se actualicen.