Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 17.0, con tecnología de Apache Spark 4.0.0.
Databricks publicó esta versión en junio de 2025.
Tip
Para ver las notas de las versiones de Databricks Runtime que han llegado al fin de soporte (EoS), consulte las Notas de lanzamiento de fin de soporte de Databricks Runtime. Las versiones de EoS Databricks Runtime se han retirado y es posible que no se actualicen.
Nuevas características y mejoras
- SparkML ahora se admite en clústeres estándar
- Compatibilidad con procedimientos SQL
- Establecer una intercalación predeterminada para funciones SQL
- Expresiones de tabla comunes recursivas (versión preliminar pública)
- ANSI SQL habilitado de forma predeterminada
-
PySpark y Spark Connect ahora admiten dataframes
df.mergeIntoAPI -
Compatibilidad con
ALL CATALOGSen SCHEMASSHOW - La agrupación en clústeres líquidos ahora compacta los vectores de eliminación de forma más eficaz
-
Permitir expresiones no deterministas en
UPDATE/INSERTvalores de columna para operacionesMERGE - Omitir y rescatar estructuras vacías para la ingesta de Cargador automático (especialmente Avro)
- Cambio de las API delta MERGE de Python y Scala para devolver DataFrame en lugar de Unit
- Compatibilidad con la palabra clave VAR para declarar y quitar variables SQL
- Actualización de bibliotecas de Apache Parquet
- Soporte de federación de identidades de carga de trabajo para Google Cloud Pub/Sub
SparkML ahora se admite en clústeres estándar
El modo de acceso estándar (anteriormente modo de acceso compartido) ahora admite Spark ML en PySpark (pyspark.ml) y MLflow para Spark (mlflow.spark). Para el ajuste de hiperparámetros, Databricks recomienda usar Optuna y Joblib Spark en clústeres estándar.
Se aplican las siguientes limitaciones al ejecutar SparkML en clústeres estándar:
- El tamaño máximo del modelo es de 1 GB.
- El tamaño máximo de caché del modelo por sesión es de 10 GB.
- El entrenamiento del modelo de árbol se detiene al principio si el tamaño del modelo está a punto de superar los 1 GB.
- No se admiten los siguientes modelos de SparkML:
- DistributedLDAModel
- FPGrowthModel
Compatibilidad con procedimientos SQL
Los scripts SQL ahora se pueden encapsular en un procedimiento almacenado como un recurso reutilizable en el catálogo de Unity. Puede crear un procedimiento mediante el comando CREATE PROCEDURE y, a continuación, llamarlo mediante el comando CALL .
Establecer una intercalación predeterminada para funciones SQL
Con la nueva cláusula DEFAULT COLLATION del comando CREATE FUNCTION se define la intercalación predeterminada utilizada para los parámetros STRING, el tipo de valor devuelto y los literales STRING en el cuerpo de la función.
Expresiones de tabla comunes recursivas (versión preliminar pública)
Azure Databricks ahora admite la navegación de datos jerárquicos mediante expresiones de tabla comunes recursivas (rCTEs). Use un CTE de referencia automática con UNION ALL para seguir la relación recursiva.
ANSI SQL habilitado de forma predeterminada
El dialecto SQL predeterminado ahora es ANSI SQL. ANSI SQL es un estándar bien establecido y ayudará a proteger a los usuarios frente a resultados inesperados o incorrectos. Lea la guía de habilitación de ANSI de Databricks para obtener más información.
PySpark y Spark Connect ahora admiten dataframes df.mergeInto API
PySpark y Spark Connect ahora admiten la df.mergeInto API, que anteriormente solo estaba disponible para Scala.
Compatibilidad con ALL CATALOGS en SCHEMAS SHOW
La SHOW SCHEMAS sintaxis se actualiza para aceptar la sintaxis siguiente:
SHOW SCHEMAS [ { FROM | IN } { catalog_name | ALL CATALOGS } ] [ [ LIKE ] pattern ]
Cuando se especifica ALL CATALOGS en una consulta SHOW, la ejecución recorre todos los catálogos activos que admiten espacios de nombres mediante el administrador de catálogos (DsV2). Para cada catálogo, incluye los espacios de nombres de nivel superior.
Los atributos de salida y el esquema del comando se han modificado para agregar una catalog columna que indica el catálogo del espacio de nombres correspondiente. La nueva columna se agrega al final de los atributos de salida, como se muestra a continuación:
Salida anterior
| Namespace |
|------------------|
| test-namespace-1 |
| test-namespace-2 |
Nueva salida
| Namespace | Catalog |
|------------------|----------------|
| test-namespace-1 | test-catalog-1 |
| test-namespace-2 | test-catalog-2 |
La agrupación en clústeres líquidos ahora compacta los vectores de eliminación de forma más eficaz
Las tablas delta con agrupación de clústeres de Liquid ahora aplican de manera más eficiente los cambios físicos derivados de los vectores de eliminación cuando OPTIMIZE está en funcionamiento. Para obtener más información, consulte Aplicar cambios a archivos de datos Parquet.
Permitir expresiones no deterministas en los valores de columna UPDATE/INSERT para operaciones MERGE
Azure Databricks ahora permite en las operaciones MERGE el uso de expresiones no deterministas en los valores de columna actualizados e insertados. Sin embargo, no se admiten expresiones no deterministas en las condiciones de instrucciones MERGE.
Por ejemplo, ahora puede generar valores dinámicos o aleatorios para las columnas:
MERGE INTO target USING source
ON target.key = source.key
WHEN MATCHED THEN UPDATE SET target.value = source.value + rand()
Esto puede ser útil para que la privacidad de los datos ofusque los datos reales al tiempo que se conservan las propiedades de datos (como los valores medio u otras columnas calculadas).
Omitir y rescatar estructuras vacías para la ingesta de Cargador automático (especialmente Avro)
Auto Loader ahora recupera los tipos de datos de Avro con un esquema vacío, ya que la tabla Delta no admite la ingesta de datos de tipo vacío struct.
Cambio de las API delta MERGE de Python y Scala para devolver DataFrame en lugar de Unit
Las API de Scala y Python MERGE (como DeltaMergeBuilder) ahora también devuelven un dataframe como la API de SQL, con los mismos resultados.
Compatibilidad con la palabra clave VAR para declarar y quitar variables SQL
La sintaxis SQL para declarar y quitar variables ahora admite la VAR palabra clave además de VARIABLE. Este cambio unifica la sintaxis en todas las operaciones relacionadas con variables, lo que mejora la coherencia y reduce la confusión de los usuarios que ya usan VAR al establecer variables.
Actualización de bibliotecas de Apache Parquet
Las bibliotecas de Apache Parquet se han actualizado de la versión 1.13.1 a la 1.15.1 para garantizar la compatibilidad con Spark 4.0. Esta actualización incluye mejoras de rendimiento, correcciones de errores y compatibilidad mejorada con características de Parquet en los siguientes módulos:
- parquet-column
- parquet-common
- parquet-encoding
- parquet-format-structures
- parquet-hadoop
- parquet-jackson
Compatibilidad con la federación de identidades para cargas de trabajo en Google Cloud Pub/Sub
Ahora puede usar la federación de identidades de carga de trabajo para conectarse de forma segura a Google Cloud Pub/Sub desde Databricks sin necesidad de claves de cuenta de servicio. Esto simplifica la autenticación para cargas de trabajo de ingesta de datos y streaming que se integran con Pub/Sub.
Cambios de comportamiento
- Ya no se admiten certificados personalizados de autoridad de certificación del sistema de archivos de Databricks (DBFS)
- Se ha quitado la sección "Fallos de caché reales" en la interfaz de usuario de Spark.
- Se quitó la métrica "Cache Metadata Manager Peak Disk Usage" (Uso máximo de discos del Administrador de metadatos de caché) en la interfaz de usuario de Spark.
- Se ha eliminado la sección "Rescheduled cache miss bytes" en la interfaz de usuario de Spark
-
CREATE VIEWLas cláusulas de nivel de columna ahora producen errores cuando la cláusula solo se aplicaría a las vistas materializadas
Ya no se admiten certificados CA personalizados del sistema de archivos de Databricks (DBFS)
Como parte del esfuerzo continuo para dejar de usar el almacenamiento de datos en la raíz de DBFS y los montajes de DBFS, los certificados CA personalizados de DBFS no se admiten en Databricks Runtime 17.0 y versiones posteriores. Para obtener recomendaciones sobre cómo trabajar con archivos, consulte Uso de archivos en Azure Databricks.
Se ha quitado la sección "True cache misses" en la interfaz de usuario de Spark.
Este cambio elimina el soporte para la métrica "Cache true misses size" (tanto para las memorias caché comprimidas como para las no comprimidas). La métrica "Errores de escritura en caché" mide la misma información.
Utilice numLocalScanTasks como un proxy viable para esta métrica, cuando su intención es ver el rendimiento de la memoria caché cuando los archivos se asignan al ejecutor correcto.
Se quitó la métrica "Cache Metadata Manager Peak Disk Usage" (Uso máximo de discos del Administrador de metadatos de caché) en la interfaz de usuario de Spark.
Este cambio elimina la compatibilidad con las métricas cacheLocalityMgrDiskUsageInBytes y cacheLocalityMgrTimeMs del Databricks Runtime y de la UI de Spark.
Se ha eliminado la sección "Rescheduled cache miss bytes" en la interfaz de usuario de Spark
Se han eliminado de DBR las métricas de tamaño de fallos reprogramados de caché y tamaño de fallos reprogramados de caché (sin comprimir). Esto se hace porque esto mide el rendimiento de la memoria caché cuando los archivos se asignan a ejecutores no preferidos. numNonLocalScanTasks es un buen proxy para esta métrica.
CREATE VIEW Las cláusulas de nivel de columna ahora producen errores cuando la cláusula solo puede aplicarse a vistas materializadas.
Los comandos CREATE VIEW que especifican una cláusula de nivel de columna que solo es válida para MATERIALIZED VIEWs ahora producen un error. Las cláusulas afectadas para los comandos CREATE VIEW son:
NOT NULL- Un tipo de datos especificado, como
FLOAToSTRING DEFAULTCOLUMN MASK
Actualizaciones de bibliotecas
Bibliotecas de Python actualizadas:
- azure-core de 1.31.0 a 1.34.0
- negro de 24.4.2 a 24.10.0
- boto3 de 1.34.69 a 1.36.2
- botocore de 1.34.69 a 1.36.3
- cachetools de 5.3.3 a 5.5.1
- certifi de 2024.6.2 a 2025.1.31
- cffi de 1.16.0 a 1.17.1
- charset-normalizer de 2.0.4 a 3.3.2
- cloudpickle de 2.2.1 a 3.0.0
- contourpy de 1.2.0 a 1.3.1
- criptografía de 42.0.5 a 43.0.3
- Cython de 3.0.11 a 3.0.12
- databricks-sdk de 0.30.0 a 0.49.0
- debugpy de 1.6.7 a 1.8.11
- En desuso desde la versión 1.2.14 hasta la 1.2.13
- distlib de 0.3.8 a 0.3.9
- Actualización de filelock de la versión 3.15.4 a la 3.18.0
- fonttools de 4.51.0 a 4.55.3
- GitPython de 3.1.37 a 3.1.43
- google-auth de 2.35.0 a 2.40.0
- google-cloud-core de 2.4.1 a 2.4.3
- google-cloud-storage de 2.18.2 a 3.1.0
- google-crc32c de 1.6.0 a 1.7.1
- grpcio de 1.60.0 a 1.67.0
- grpcio-status de 1.60.0 a 1.67.0
- importlib-metadata de 6.0.0 a 6.6.0
- ipyflow-core de la versión 0.0.201 a 0.0.209
- ipykernel de 6.28.0 a 6.29.5
- ipython de 8.25.0 a 8.30.0
- ipywidgets de 7.7.2 a 7.8.1
- Actualización de jedi de la versión 0.19.1 a la 0.19.2.
- jupyter_client de 8.6.0 a 8.6.3
- kiwisolver de 1.4.4 a 1.4.8
- matplotlib de 3.8.4 a 3.10.0
- matplotlib-inline de 0.1.6 a 0.1.7
- Actualización de mlflow-skinny de la versión 2.19.0 a la 2.22.0
- numpy de 1.26.4 a 2.1.3
- opentelemetry-api de 1.27.0 a 1.32.1
- opentelemetry-sdk de 1.27.0 a 1.32.1
- opentelemetry-semantic-conventions de 0,48b0 a 0,53b1
- pandas de 1.5.3 a 2.2.3
- parso de 0.8.3 a 0.8.4
- patsy de 0.5.6 a 1.0.1
- pillow de 10.3.0 a 11.1.0
- plotly de 5.22.0 a 5.24.1
- pluggy de 1.0.0 a 1.5.0
- proto-plus de 1.24.0 a 1.26.1
- protobuf de 4.24.1 a 5.29.4
- pyarrow de 15.0.2 a 19.0.1
- pyccolo de 0.0.65 a 0.0.71
- pydantic de 2.8.2 a 2.10.6
- pydantic_core de 2.20.1 a 2.27.2
- PyJWT de 2.7.0 a 2.10.1
- pyodbc de 5.0.1 a 5.2.0
- pyparsing de 3.0.9 a 3.2.0
- pyright de 1.1.294 a 1.1.394
- python-lsp-server de 1.10.0 a 1.12.0
- PyYAML de 6.0.1 a 6.0.2
- pyzmq de 25.1.2 a 26.2.0
- solicitudes de 2.32.2 a 2.32.3
- rsa de 4.9 a 4.9.1
- s3transfer de 0.10.2 a 0.11.3
- scikit-learn de 1.4.2 a 1.6.1
- scipy de 1.13.1 a 1.15.1
- sqlparse de 0.5.1 a 0.5.3
- statsmodels de 0.14.2 a 0.14.4
- tenacidad de 8.2.2 a 9.0.0
- threadpoolctl de 2.2.0 a 3.5.0
- tornado de 6.4.1 a 6.4.2
- typing_extensions de 4.11.0 a 4.12.2
- urllib3 de 1.26.16 a 2.3.0
- virtualenv de 20.26.2 a 20.29.3
- wheel de 0.43.0 a 0.45.1
- wrapt de 1.14.1 a 1.17.0
- yapf de 0.33.0 a 0.40.2
- zipp de 3.17.0 a 3.21.0
Bibliotecas de R actualizadas:
- arrow de 16.1.0 a 19.0.1
- askpass de 1.2.0 a 1.2.1
- base de 4.4.0 a 4.4.2
- bigD de 0.2.0 a 0.3.0
- bit de 4.0.5 a 4.6.0
- bit64 de 4.0.5 a 4.6.0-1
- bitops de 1.0-8 a 1.0-9
- broom de 1.0.6 a 1.0.7
- bslib: de 0.8.0 a 0.9.0
- caret: de 6.0-94 a 7.0-1
- chron de 2.3-61 a 2.3-62
- cli de 3.6.3 a 3.6.4
- reloj de 0.7.1 a 0.7.2
- commonmark de 1.9.1 a 1.9.5
- compilador de 4.4.0 a 4.4.2
- cpp11 de 0.4.7 a 0.5.2
- credentials de 2.0.1 a 2.0.2
- curl de 5.2.1 a 6.2.1
- data.table: de 1.15.4 a 1.17.0
- conjuntos de datos de 4.4.0 a 4.4.2
- digest: de 0.6.36 a 0.6.37
- e1071 de 1.7-14 a 1.7-16
- evaluate de 0.24.0 a 1.0.3
- fontawesome: de 0.5.2 a 0.5.3
- fs de 1.6.4 a 1.6.5
- future.apply de 1.11.2 a 1.11.3
- gert de 2.1.0 a 2.1.4
- git2r de 0.33.0 a 0.35.0
- glue de 1.7.0 a 1.8.0
- gower de 1.0.1 a 1.0.2
- gráficos de 4.4.0 a 4.4.2
- grDevices de 4.4.0 a 4.4.2
- cuadrícula de 4.4.0 a 4.4.2
- gt de la versión 0.11.0 a la versión 0.11.1
- Actualización de gtable de la versión 0.3.5 a la versión 0.3.6
- hardhat de 1.4.0 a 1.4.1
- httr2 de 1.0.2 a 1.1.1
- jsonlite de 1.8.8 a 1.9.1
- knitr: de 1.48 a 1.50
- posterior de 1.3.2 a 1.4.1
- lava de 1.8.0 a 1.8.1
- lubridate: de 1.9.3 a 1.9.4
- métodos de 4.4.0 a 4.4.2
- mime: de 0.12 a 0.13
- mlflow de 2.14.1 a 2.20.4
- nlme de 3.1-165 a 3.1-164
- openssl de 2.2.0 a 2.3.2
- parallel de 4.4.0 a 4.4.2
- parallelly de 1.38.0 a 1.42.0
- pillar de 1.9.0 a 1.10.1
- Actualización de pkgbuild de la versión 1.4.4 a la 1.4.6
- pkgdown de 2.1.0 a 2.1.1
- processx: de 3.8.4 a 3.8.6
- profvis de 0.3.8 a 0.4.0
- progressr: de 0.14.0 a 0.15.1
- promesas de 1.3.0 a 1.3.2
- ps de 1.7.7 a 1.9.0
- purrr de 1.0.2 a 1.0.4
- R6 de 2.5.1 a 2.6.1
- ragg de 1.3.2 a 1.3.3
- randomForest de 4.7-1.1 a 4.7-1.2
- Rcpp de 1.0.13 a 1.0.14
- RcppEigen de 0.3.4.0.0 a 0.3.4.0.2
- reactR de 0.6.0 a 0.6.1
- readxl de 1.4.3 a 1.4.5
- recetas de 1.1.0 a 1.2.0
- rlang: de 1.1.4 a 1.1.5
- rmarkdown de 2.27 a 2.29
- RODBC de 1.3-23 a 1.3-26
- Rserve de 1.8-13 a 1.8-15
- RSQLite de 2.3.7 a 2.3.9
- rstudioapi de 0.16.0 a 0.17.1
- sessioninfo de 1.2.2 a 1.2.3
- shiny: de 1.9.1 a 1.10.0
- actualización de sparklyr de la versión 1.8.6 a la 1.9.0
- SparkR de 3.5.2 a 4.0.0
- splines de 4.4.0 a 4.4.2
- estadísticas de 4.4.0 a 4.4.2
- stats4 de 4.4.0 a 4.4.2
- survival de 3.6-4 a 3.5-8
- sys de 3.4.2 a 3.4.3
- systemfonts de 1.1.0 a 1.2.1
- tcltk de 4.4.0 a 4.4.2
- testthat de la versión 3.2.1.1 a la versión 3.2.3
- textshaping de 0.4.0 a 1.0.0
- timeDate: de 4032.109 a 4041.110
- tinytex de 0,52 a 0,56
- herramientas desde la versión 4.4.0 hasta la 4.4.2
- tzdb de 0.4.0 a 0.5.0
- usethis: de 3.0.0 a 3.1.0
- utils de 4.4.0 a 4.4.2
- V8 de 4.4.2 a 6.0.2
- waldo de 0.5.2 a 0.6.1
- withr de 3.0.1 a 3.0.2
- xfun de 0,46 a 0,51
- xml2 de 1.3.6 a 1.3.8
- zip de 2.3.1 a 2.3.2
Bibliotecas de Java actualizadas:
- com.clearspring.analytics.stream de 2.9.6 a 2.9.8
- com.esotericsoftware.kryo-shaded de 4.0.2 a 4.0.3
- com.fasterxml.classmate de 1.3.4 a 1.5.1
- com.fasterxml.jackson.core.jackson-annotations de 2.15.2 a 2.18.2
- com.fasterxml.jackson.core.jackson-core de 2.15.2 a 2.18.2
- com.fasterxml.jackson.core.jackson-databind de 2.15.2 a 2.18.2
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.15.2 a 2.18.2
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.15.2 a 2.18.2
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310: de 2.16.0 a 2.18.2
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.15.2 a 2.18.2
- com.github.luben.zstd-jni de 1.5.5-4 a 1.5.6-10
- com.google.code.gson.gson de 2.10.1 a 2.11.0
- com.google.crypto.tink.tink de la versión 1.9.0 a la versión 1.16.0
- com.google.errorprone.error_prone_annotations de 2.10.0 a 2.36.0
- com.google.flatbuffers.flatbuffers-java de 23.5.26 a 24.3.25
- com.google.guava.guava de 15.0 a 33.4.0-jre
- com.google.protobuf.protobuf-java de 3.25.1 a 3.25.5
- com.microsoft.azure.azure-data-lake-store-sdk de 2.3.9 a 2.3.10
- com.microsoft.sqlserver.mssql-jdbc de 11.2.3.jre8 a 12.8.0.jre8
- commons-cli.commons-cli de 1.5.0 a 1.9.0
- commons-codec.commons-codec de la versión 1.16.0 a la versión 1.17.2
- commons-io.commons-io de 2.13.0 a 2.18.0
- io.airlift.aircompressor de 0.27 a 2.0.2
- io.dropwizard.metrics.metrics-annotation de 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-core de 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-graphite de 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-healthchecks de 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-jetty9 de 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-jmx versión 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-json de 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-jvm de 4.2.19 a 4.2.30
- io.dropwizard.metrics.metrics-servlets de 4.2.19 a 4.2.30
- io.netty.netty-all de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-buffer de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-codec de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-codec-http de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-codec-http2 de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-codec-socks de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-common de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-handler de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-handler-proxy de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-resolver de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-tcnative-boringssl-static de 2.0.61.Final-db-r16-windows-x86_64 a 2.0.70.Final-db-r0-windows-x86_64
- io.netty.netty-tcnative-classes de 2.0.61.Final a 2.0.70.Final
- io.netty.netty-transport de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-transport-classes-epoll de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-transport-classes-kqueue de 4.1.108.Final a 4.1.118.Final
- io.netty.netty-transport-native-epoll de 4.1.108.Final-linux-x86_64 a 4.1.118.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.108.Final-osx-x86_64 a 4.1.118.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.108.Final a 4.1.118.Final
- io.prometheus.jmx.collector de 0.12.0 a 0.18.0
- io.prometheus.simpleclient de 0.7.0 a 0.16.1-databricks
- io.prometheus.simpleclient_common de 0.7.0 a 0.16.1-databricks
- io.prometheus.simpleclient_dropwizard de 0.7.0 a 0.16.1-databricks
- io.prometheus.simpleclient_pushgateway de 0.7.0 a 0.16.1-databricks
- io.prometheus.simpleclient_servlet de 0.7.0 a 0.16.1-databricks
- joda-time.joda-time de 2.12.1 a 2.13.0
- net.razorvine.pickle de 1.3 a 1.5
- org.antlr.antlr4-runtime de 4.9.3 a 4.13.1
- org.apache.arrow.arrow-format de 15.0.0 a 18.2.0
- org.apache.arrow.arrow-memory-core de 15.0.0 a 18.2.0
- org.apache.arrow.arrow-memory-netty de 15.0.0 a 18.2.0
- org.apache.arrow.arrow-vector de 15.0.0 a 18.2.0
- org.apache.avro.avro de 1.11.4 a 1.12.0
- org.apache.avro.avro-ipc de 1.11.4 a 1.12.0
- org.apache.avro.avro-mapred de 1.11.4 a 1.12.0
- org.apache.commons.commons-compress de 1.23.0 a 1.27.1
- org.apache.commons.commons-lang3 de 3.12.0 a 3.17.0
- org.apache.commons.commons-text de 1.10.0 a 1.13.0
- org.apache.curator.curator-client de 2.13.0 a 5.7.1
- org.apache.curator.curator-framework de 2.13.0 a 5.7.1
- org.apache.curator.curator-recipes de 2.13.0 a 5.7.1
- org.apache.datasketches.datasketches-java de 3.1.0 a 6.1.1
- org.apache.datasketches.datasketches-memory de 2.0.0 a 3.0.2
- org.apache.hadoop.hadoop-client-runtime: de 3.3.6 a 3.4.1
- org.apache.hive.hive-beeline de 2.3.9 a 2.3.10
- org.apache.hive.hive-cli de 2.3.9 a 2.3.10
- org.apache.hive.hive-jdbc de 2.3.9 a 2.3.10
- org.apache.hive.hive-llap-client de 2.3.9 a 2.3.10
- org.apache.hive.hive-llap-common de la versión 2.3.9 a la 2.3.10
- org.apache.hive.hive-serde de 2.3.9 a 2.3.10
- org.apache.hive.hive-shims de 2.3.9 a 2.3.10
- org.apache.hive.shims.hive-shims-0.23 de 2.3.9 a 2.3.10
- org.apache.hive.shims.hive-shims-common de 2.3.9 a 2.3.10
- org.apache.hive.shims.hive-shims-scheduler de 2.3.9 a 2.3.10
- org.apache.ivy.ivy de 2.5.2 a 2.5.3
- org.apache.logging.log4j.log4j-1.2-api de 2.22.1 a 2.24.3
- org.apache.logging.log4j.log4j-api de 2.22.1 a 2.24.3
- org.apache.logging.log4j.log4j-core de 2.22.1 a 2.24.3
- org.apache.logging.log4j.log4j-layout-template-json de 2.22.1 a 2.24.3
- org.apache.logging.log4j.log4j-slf4j2-impl de 2.22.1 a 2.24.3
- org.apache.orc.orc-core de 1.9.2-shaded-protobuf a 2.1.1-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.2-shaded-protobuf a 2.1.1-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.2 a 2.1.1
- org.apache.thrift.libthrift de 0.12.0 a 0.16.0
- org.apache.ws.xmlschema.xmlschema-core de 2.3.0 a 2.3.1
- org.apache.xbean.xbean-asm9-shaded de 4.23 a 4.26
- org.apache.zookeeper.zookeeper de 3.9.2 a 3.9.3
- org.apache.zookeeper.zookeeper-jute de 3.9.2 a 3.9.3
- org.checkerframework.checker-qual de 3.31.0 a 3.43.0
- org.eclipse.jetty.jetty-client de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-continuation de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-http de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-io de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-jndi de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-plus de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-proxy de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-security de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-server de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-servlet de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-servlets de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-util de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-util-ajax de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-webapp de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.jetty-xml de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-api de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-client de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-common de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-server de 9.4.52.v20230823 a 9.4.53.v20231009
- org.eclipse.jetty.websocket.websocket-servlet de 9.4.52.v20230823 a 9.4.53.v20231009
- org.glassfish.jersey.containers.jersey-container-servlet: de 2.40 a 2.41
- org.glassfish.jersey.containers.jersey-container-servlet-core: de 2.40 a 2.41
- org.glassfish.jersey.core.jersey-client: de 2.40 a 2.41
- org.glassfish.jersey.core.jersey-common: de 2.40 a 2.41
- org.glassfish.jersey.core.jersey-server: de 2.40 a 2.41
- org.glassfish.jersey.inject.jersey-hk2: de 2.40 a 2.41
- org.hibernate.validator.hibernate-validator de 6.1.7.Final a 6.2.5.Final
- org.jboss.logging.jboss-logging de 3.3.2.Final a 3.4.1.Final
- org.objenesis.objenesis de 2.5.1 a 3.3
- org.roaringbitmap.RoaringBitmap de 0.9.45-databricks a 1.2.1
- org.rocksdb.rocksdbjni de 9.2.1 a 9.8.4
- org.scalatest.scalatest-compatible de 3.2.16 a 3.2.19
- org.slf4j.jcl-over-slf4j de 2.0.7 a 2.0.16
- org.slf4j.jul-to-slf4j de 2.0.7 a 2.0.16
- org.slf4j.slf4j-api de 2.0.7 a 2.0.16
- org.threeten.threeten-extra de 1.7.1 a 1.8.0
- org.tukaani.xz de 1.9 a 1.10
Apache Spark
Muchas de sus características ya estaban disponibles en Databricks Runtime 14.x, 15.x y 16.x, y ahora se envían de fábrica con Runtime 17.0.
- SPARK-52311 Redefinir la salida de UnionLoop para que no se duplique si la salida de anclaje está duplicada
- SPARK-50104 Compatibilidad con SparkSession.executeCommand en Connect
- SPARK-51085 Restauración de SQLContext Companion
- SPARK-49698 Agregue la anotación ClassicOnly solo para los métodos clásicos.
- SPARK-52026 Bloquear la API de Pandas en Spark en modo ANSI de forma predeterminada
-
SPARK-43415 Implementación
KVGDS.aggcon función personalizadamapValues - SPARK-50979 Eliminar implícitos en .expr/.typedExpr
- SPARK-49961 Firma de tipo de transformación correcta para Scala y Java
- SPARK-51012 Eliminar SparkStrategy de los Connect Shims.
-
SPARK-50915 Agregar
getConditiony dejar de usargetErrorClassenPySparkException - SPARK-51821 Llame a interrupt() sin bloquear uninterruptibleLock para evitar posibles interbloqueos.
- SPARK-52192 Comprobación de la ruta de carga de MLCache
- SPARK-52122 Corrección de la vulnerabilidad de RCE DefaultParamsReader
- SPARK-52191 Eliminar el deserializador de Java en el cargador de ruta local del modelo
- SPARK-52051 Implementar "Habilitar resumen del modelo cuando el control de memoria esté habilitado" y "Refinar el mensaje de error y ocultar la configuración interna de Spark" en los commits de DBR 17.0.0
-
SPARK-51391 Corrección
SparkConnectClientpara respetarSPARK_USERyuser.name - SPARK-51416 Quitar SPARK_CONNECT_MODE al iniciar el servidor de Spark Connect
- SPARK-51156 Compatibilidad con la autenticación de tokens estáticos en Spark Connect
- SPARK-51279 Evitar suspensión constante para esperar al servidor de Spark Connect en Scala
- SPARK-51254 No permitir --master con la dirección URL de Spark Connect
- SPARK-51267 Alineación de la lógica del servidor local de Spark Connect entre Python y Scala
- SPARK-51212 Adición de un paquete pySpark separado para Spark Connect de forma predeterminada
- SPARK-52017 Habilitación de varias referencias automáticas y referencias automáticas desde una subconsulta dentro de rCTE
- SPARK-52035 Desacoplar LinearRegressionTrainingSummary y LinearRegressionModel
- SPARK-50511 Evitar el encapsulamiento de mensajes de error del origen de datos de Python
- SPARK-51974 Limitar el tamaño del modelo y el tamaño de caché del modelo por sesión
- SPARK-51947 Descarga de la caché del modelo de Spark Connect
- SPARK-49751 Corrección de la deserialización del evento SparkListenerConnectServiceStarted
- SPARK-47952 Compatibilidad con la recuperación de la dirección y el puerto reales de SparkConnectService GRPC mediante programación cuando se ejecuta en Yarn
- SPARK-47587 Módulo de Hive: Migración de logWarn con variables al marco de registro estructurado
- SPARK-50768 Introduce TaskContext.createResourceUninterruptibly para evitar la pérdida de flujos por interrupción de tareas
- SPARK-51818 Mover la creación de QueryExecution a AnalyzeHandler y no ejecutar para AnalyzePlanRequests
- SPARK-51609 Optimización de la ejecución recursiva de CTE para consultas sencillas
-
SPARK-49748 Agregar
getConditiony dejar de usargetErrorClassenSparkThrowable - SPARK-51867 Hacer que el modelo de Scala admita los métodos de guardar y cargar en la ruta del sistema de archivos local
- SPARK-51856 Actualizar la API de tamaño de modelo para contar el tamaño de dataframe distribuido
- SPARK-51941 Corrección del problema de precisión numérica para convertToCatalyst cuando el valor de la entrada es BigDecimal entre -1.0 y 1.0
- SPARK-50605 Compatibilidad con el modo de API de SQL para facilitar la migración a Spark Connect
-
SPARK-51849 Refactorización
ResolveDDLCommandStringTypes - SPARK-51673 Aplicar la intercalación predeterminada para modificar la consulta de vista
- SPARK-51880 Corregir las referencias del cliente de Python en los objetos de caché de ML
- SPARK-51873 Para el algoritmo OneVsRest, permita el uso de guardar o cargar para reemplazar la caché.
- SPARK-51072 CallerContext para establecer el contexto de auditoría en la nube de Hadoop
- SPARK-51790 Registro de UTF8String en KryoSerializer
-
SPARK-51022 Eliminar elementos no utilizados del método
tableSampleClauseenbuild()deMsSqlServerSQLQueryBuilderyDB2SQLQueryBuilder -
SPARK-51219 Corrección
ShowTablesExec.isTempViewpara trabajar con catálogos que no sonV2SessionCatalog - SPARK-49700 Interfaz unificada de Scala para Connect y Clásico
- SPARK-50458 Control de errores adecuado para sistemas de archivos no compatibles al leer archivos
- SPARK-50666 Sugerencia de soporte para leer en el origen de datos JDBC
- SPARK-50131 Volver a aplicar "Add IN Subquery DataFram..."
- SPARK-51899 Implementación de reglas de control de errores para spark.catalog.listTables()
-
SPARK-51820 Solucionar los problemas restantes para el nuevo
group/ordermediante un enfoque ordinal. -
SPARK-48585 Hacer que
built-inel métodoclassifyExceptionde JdbcDialect produzca laoriginalexcepción. - SPARK-48387 Postgres: Mapear TimestampType a TIMESTAMP WITH TIME ZONE
-
SPARK-51820 Mover la construcción
UnresolvedOrdinalantes del análisis para evitar problemas al agrupar por ordinal - SPARK-48337 Solución para la pérdida de precisión de los valores TIME en JDBC
- SPARK-51711 Propaga la sesión de Spark remota activa a nuevos subprocesos para corregir CrossValidator
- SPARK-47515 Guardar TimestampNTZType como DATETIME en MySQL
- SPARK-48439 Derby: Calcular la precisión y la escala adecuadas para el tipo DECIMAL
- SPARK-51820 Preparar la lógica de redacción para la sincronización de códigos de SPARK-51820
- SPARK-48323 DB2: Asigne BooleanType a BOOLEAN en lugar de CHAR(1)
- SPARK-51635 Combinar PushProjectionThroughLimit e PushProjectionThroughOffset
- SPARK-48211 DB2: Leer SMALLINT como ShortType
- SPARK-51803 Almacenar el tipo JDBC del motor externo en los metadatos de StructField
-
SPARK-51845 Adición de mensajes de protocolo
CleanCacheyGetCacheInfo - SPARK-49511 Aplicación de reglas de formato a sql/api
- SPARK-47968 MsSQLServer: asignar datatimeoffset a TimestampType
- SPARK-51726 Usar TableInfo para la tabla CREATE/REPLACE/CREATE OR REPLACE
-
SPARK-47967 Hacer que
JdbcUtils.makeGettermaneje correctamente el tipo de tiempo de lectura NTZ - SPARK-47989 MsSQLServer: corrección del ámbito de spark.sql.legacy.mssqlserver.numericMapping.enabled
- SPARK-51193 Actualizar Netty a 4.1.118.Final y netty-tcnative a 2.0.70.Final
- SPARK-47882 createTableColumnTypes necesita ser mapeado a tipos de base de datos en lugar de usarse directamente
- SPARK-47879 Oracle: Utilizar VARCHAR2 en lugar de VARCHAR para la asignación de VarcharType
- SPARK-51372 Introducción a TableInfo para las creaciones de tablas
- SPARK-47791 Truncar los decimales que exceden utilizando primero la escala en lugar de la precisión desde la fuente de datos JDBC
-
SPARK-51404 Analizar el
time(n)tipo comoTimeType(n) -
SPARK-50350 Avro: agregar nueva función
schema_of_avro(scalalateral) -
SPARK-51136 Establecer
CallerContextpara el servidor de historial -
SPARK-50641 Mover
GetJsonObjectEvaluatoraJsonExpressionEvalUtils -
SPARK-50083 Integración
_LEGACY_ERROR_TEMP_1231enPARTITIONS_NOT_FOUND -
SPARK-51556 Adición de la
try_to_timefunción - SPARK-47684 Postgres: mapear longitud no especificada bpchar a StringType
- SPARK-48688 Devuelve un error razonable al llamar a sql to_avro y from_avro funciones, pero Avro no se carga de forma predeterminada.
- SPARK-49839 SPJ: Omitir ordenaciones si es posible
- SPARK-45534 Usa java.lang.ref.Cleaner en lugar de 'finalize' para RemoteBlockPushResolver
-
SPARK-51816 Simplificar
StatFunctions.multipleApproxQuantilescon las APIs de marco de datos - SPARK-49179 Corrección de las combinaciones internas multicubetadas de la versión 2 que lanzan un error de aserción.
- SPARK-47456 Compatibilidad con el códec ORC Brotli
- SPARK-51542 Agregar un botón de desplazamiento para direccionar la parte superior e inferior
-
SPARK-51541 Compatibilidad con el
TIMEtipo de datos en los métodosLiteral - SPARK-51615 Refactorizar ShowNamespaces para usar RunnableCommand
- SPARK-51191 Validar el control de valores predeterminados en DELETE, UPDATE, MERGE
-
SPARK-51829 El lado cliente debe actualizar
client.thread_local.ml_cachesdespués de la eliminación - SPARK-51358 Introducción a la detección de retrasos de carga de instantáneas mediante StateStoreCoordinator
- SPARK-51686 Vincule los identificadores de ejecución de las subecuciones para la ejecución actual, si existe.
-
SPARK-51456 Adición de la
to_timefunción - SPARK-51773 Convertir los formatos de archivo en clases de casos para compararlos correctamente
- SPARK-51777 Registrar clases sql.columnar.* en KryoSerializer
- SPARK-51432 Lanzar una excepción adecuada cuando los esquemas de Arrow no coincidan
- SPARK-51395 Refinar el control de los valores predeterminados en los procedimientos
- SPARK-50582 Añadir función incorporada de comillas
- SPARK-51684 Corrección del error de prueba en test_pandas_transform_with_state
- SPARK-51213 Mantener la información de la clase Expression al resolver parámetros de sugerencia
- SPARK-51651 Enlazar el identificador de ejecución raíz para la ejecución actual, si lo hay
- SPARK-50947 Asignar la clase de error adecuada y SparkException para artefactos duplicados
- SPARK-51574 Serialización de filtros para la inserción de filtros del origen de datos de Python
- SPARK-51608 Registrar excepción al terminar el ejecutor de Python
-
SPARK-51266 Quitar la definición sin usar de
private[spark] object TaskDetailsClassNames - SPARK-51011 Agregar registro para si se interrumpirá una tarea cuando se mate
- SPARK-49646 Añadir configuración de Spark para corregir la descorrelación de subconsultas
- SPARK-51107 Refactorizar CommandBuilderUtils#join para reutilizar líneas y reducir la redundancia
- SPARK-51758 Corrección del caso de prueba relacionado con el lote adicional que causa un df vacío debido a la marca de agua
- SPARK-51664 Compatibilidad con el tipo de datos TIME en la expresión Hash
- SPARK-51819 Actualización del módulo de prueba pyspark-errors para incluir pruebas que faltan
-
SPARK-50751 Asignación de una condición de error adecuada para
_LEGACY_ERROR_TEMP_1305 -
SPARK-50973 Limpieza del uso de api en desuso relacionado con
avro.Schema#toString(boolean) -
SPARK-50908 Deshabilitar la prueba TTL inestable en
test_pandas_transform_with_state.py - SPARK-50811 Compatibilidad con la habilitación del generador de perfiles de JVM en el controlador
- SPARK-50808 Corrección del problema en writeAll con tipos mixtos que no se registran adecuadamente.
- SPARK-51780 Implementar el procedimiento 'Describe'
-
SPARK-50370 Compatibilidad con Codegen para
json_tuple - SPARK-50756 Utilizar la clase de error para las excepciones en SparkConf.validateSettings
-
SPARK-50805 Mover método
nameForAppAndAttemptao.a.s.u.Utils -
SPARK-51812 Eliminación de parámetros redundantes de algunos métodos en
QueryExecution - SPARK-50819 Refactorización del módulo de generador de perfiles de Spark
- SPARK-51547 Asignar nombre a la condición de error: _LEGACY_ERROR_TEMP_2130
- SPARK-48538 Evitar fugas de memoria HMS causadas por bonecp
-
SPARK-51176 Garantizar la coherencia para errores inesperados en
<>PySpark Connect Clásico - SPARK-50773 Deshabilitar el registro estructurado de forma predeterminada
- SPARK-50616 Agregar opción de extensión de archivo al escritor de orígenes de datos CSV
- SPARK-50624 Agregar TimestampNTZType a ColumnarRow/MutableColumnarRow
- SPARK-51590 Deshabilitar TIME en orígenes de datos basados en archivos integrados
- SPARK-49886 Prueba de error de nivel de consulta para el formato V2 de rocksDB
- SPARK-50823 Actualización de cloudpickle de 3.1.0 a 3.1.1
-
SPARK-50780 Usar
overrideStdFeaturesen lugar desetFeatureMaskenJacksonParser - SPARK-50621 Actualización de Cloudpickle a la versión 3.1.0
-
SPARK-50719 Compatibilidad con
interruptOperationPySpark -
SPARK-50545
AccessControlExceptiondebe lanzarse incluso siignoreCorruptFilesestá habilitado. - SPARK-51517 Compatibilidad con el tipo de datos TIME en los resultados de Hive
- SPARK-47856 Mapeo de tipos de datos de Spark SQL desde Oracle y añadir pruebas
-
SPARK-46066 Use la API Separators en lugar de string API para construir el
DefaultPrettyPrinter -
SPARK-50718 Compatibilidad con
addArtifact(s)PySpark - SPARK-51497 Adición del formateador de hora predeterminado
- SPARK-51488 Soporte para la palabra clave TIME como tipo de dato
- SPARK-51273 El procedimiento de llamada de Spark Connect ejecuta el procedimiento dos veces
- SPARK-51092 Omitir las pruebas flatMapGroupsWithState v1 con tiempo de espera en plataformas big endian
- SPARK-50606 Corrección de NPE en el SessionHolder no iniciado
- SPARK-49530 Compatibilidad con subgráficos circulares en la representación gráfica con pyspark
- SPARK-50357 Compatibilidad con Interrupt(Tag|Todas) API para PySpark
- SPARK-51290 Habilitar el relleno de valores predeterminados en las operaciones de escritura de DSv2
- SPARK-50485 Desenvolver SparkThrowable en (Unchecked)ExecutionException lanzada por tableRelationCache
- SPARK-51513 Corrección de la regla RewriteMergeIntoTable genera un plan sin resolver
- SPARK-51482 Compatibilidad con la conversión de cadena a hora
- SPARK-51462 Soporte para literales tipados del tipo de datos TIME
- SPARK-51454 Compatibilidad con la conversión de hora a cadena
-
SPARK-51447 Agregar
stringToTimeystringToTimeAnsi - SPARK-51775 Normalizar LogicalRelation y HiveTableRelation por NormalizePlan
-
SPARK-51791
ImputerModelalmacena coeficientes con matrices en lugar de dataframe - SPARK-51442 Agregar formateadores de tiempo
-
SPARK-51384 Soporte
java.time.LocalTimecomo el tipo externo deTimeType - SPARK-51747 El plan almacenado en caché del origen de datos debe respetar las opciones
- SPARK-51774 Adición de código de estado GRPC a la excepción GRPC de Conexión de Python
- SPARK-51660 Manejar adecuadamente cuando no se soporta MDC
- SPARK-51296 Compatibilidad para recopilar datos corruptos en el modo de columna de variante única.
- SPARK-45907 Uso de las API ProcessHandle de Java9+ para calcularProcessTree en ProcfsMetricsGetter
-
SPARK-51342 Agregar
TimeType - SPARK-51769 Agregar maxRecordsPerOutputBatch para limitar el número de registros del lote de salida de Arrow.
- SPARK-51350 Implementar procedimientos de presentación
- SPARK-51711 Directiva de expulsión de MLCache basada en memoria
-
SPARK-51178 Generar el error adecuado de PySpark en lugar de
SparkConnectGrpcException - SPARK-51738 IN subconsulta con tipo de estructura
- SPARK-51714 Agregar prueba de ingesta de errores para probar el formato de punto de comprobación del almacén de estado V2
- SPARK-51704 Eliminación de la operación de recopilación innecesaria
- SPARK-51512 Filtrar MapStatus null al limpiar los datos de barajado con ExternalShuffleService.
- SPARK-49308 Compatibilidad con UserDefinedAggregateFunction en el cliente Scala de Spark Connect
- SPARK-50091 Manejar el caso de agregados en el operando izquierdo de la subconsulta IN
- SPARK-50265 Compatibilidad con spark.udf.registerJavaUdf en Connect
- SPARK-49273 Compatibilidad de origen con el cliente Scala de Spark Connect
- SPARK-51187 Implementar la desactivación progresiva de la configuración incorrecta introducida en SPARK-49699
- SPARK-51650 Compatibilidad para eliminar objetos almacenados en caché de ML en lotes
- SPARK-51619 Compatibilidad con la entrada/salida de UDT en UDF de Python optimizada con Apache Arrow
-
SPARK-51333 Desenvolver
InvocationTargetExceptionproducido enMLUtils.loadOperator - SPARK-51566 Mejora del rastreo de errores de UDF en Python
- SPARK-51393 Volver a usar UDF de Python normal cuando Arrow no está disponible, pero las UDF de Python optimizadas por Arrow están habilitadas.
- SPARK-49960 Compatibilidad con Custom ExpressionEncoder y correcciones de TransformEncoder
- SPARK-51380 Agregar visitSQLFunction y visitAggregateFunction para mejorar la flexibilidad de V2ExpressionSQLBuilder
-
SPARK-51600 Anteponer clases de
sql/hiveysql/hive-thriftservercuandoisTesting || isTestingSqles verdadero -
SPARK-51070 Usar
scala.collection.Seten lugar de Set en ValidateExternalType - SPARK-50759 Desuso de algunas API de catálogo heredadas
- SPARK-50994 Realizar la conversión de RDD en ejecución supervisada
- SPARK-51466 Eliminación de la inicialización integrada de UDF de Hive en la evaluación de UDF de Hive
- SPARK-51491 Simplificación de boxplot con api de subconsulta
-
SPARK-51175 Mostrar
Masterel tiempo transcurrido cuando se eliminan controladores - SPARK-50334 Extracción de lógica común para leer el descriptor del archivo PB
- SPARK-50483 BlockMissingException debería lanzarse incluso si ignoreCorruptFiles está habilitado
- SPARK-50286 Propagación correcta de las opciones de SQL a WriteBuilder
- SPARK-51023 Registro de la dirección remota en la excepción RPC
- SPARK-47611 Limpieza del código fallido en MySQLDialect.getCatalystType
- SPARK-49229 Eliminar duplicados en la gestión de UDF de Scala en SparkConnectPlanner
- SPARK-50557 Compatibilidad con RuntimeConfig.contains(..) en la interfaz SQL de Scala
- SPARK-51471 RatePerMicroBatchStream: clasificación del error ASSERT cuando offset/timestamp en startOffset sea mayor que endOffset
- SPARK-50473 Simplificación del control de columnas clásico
- SPARK-49286 Traslado de funciones avro/Protobuf a sql/api
- SPARK-49087 Distinguir funciones no resueltas que llaman a funciones internas
-
SPARK-50422 Hacer
Parameterized SQL queriesdeSparkSession.sqlAPI GA - SPARK-49249 PR complementaria para "Agregar la nueva configuración predeterminada del gestor de artefactos en PySpark a la lista de permitidos"
- SPARK-50366 Aislamiento de etiquetas definidas por el usuario en el nivel de subproceso para SparkSession en el modelo clásico
- SPARK-49436 Interfaz común para SQLContext
- SPARK-51551 Para el algoritmo de optimización, permita el uso de guardar o cargar para reemplazar la memoria caché.
-
SPARK-51599 Optimizar
ps.read_excelpara archivos de Excel grandes - SPARK-51118 Corregir ExtractPythonUDFs para comprobar los tipos de entrada de UDF encadenados para el respaldo
- SPARK-50395 Corrección de la sintaxis de URI con formato incorrecto en Windows
-
SPARK-50708 Eliminación de recursos de artefactos en GC del
ArtifactManagerinstancia - SPARK-51076 Alternativa de UDF de Python Arrow para tipos de entrada y salida UDT
- SPARK-50243 Cargador de clases almacenados en caché para ArtifactManager
- SPARK-49249 Aislamiento de artefactos en Spark clásico
- SPARK-50821 Actualización de Py4J de 0.10.9.8 a 0.10.9.9
- SPARK-51591 Corrección del error de ThreadPoolExecutor en la prueba diaria de Python 3.13
-
SPARK-40353 Corregir el desajuste de nulabilidad en el índice
ps.read_excel - SPARK-42746 Implementación de la función LISTAGG
- SPARK-50102 Añadir intercaladores necesarios para los métodos SQL públicos que faltan.
- SPARK-50513 Dividir EncoderImplicits de SQLImplicits y proporcionar un objeto auxiliar dentro de StatefulProcessor
-
SPARK-51567 Corregir
DistributedLDAModel.vocabSize - SPARK-49569 Añadir adaptadores para soportar SparkContext y RDD
- SPARK-51473 El dataframe transformado de ML mantiene una referencia al modelo
- SPARK-51340 Estimación del tamaño del modelo
- SPARK-51474 No inserte columnarToRowExec redundante para el nodo que admita la salida de columnas y filas.
-
SPARK-51445 Cambiar el valor nunca cambiado
varaval - SPARK-50618 Hacer que DataFrameReader y DataStreamReader aprovechen más el analizador
- SPARK-51097 Reintroducción de las métricas de instancia de la versión de la última instantánea cargada del almacén de estado de RocksDB
- SPARK-49418 Locales de hilo de sesión compartidos
-
SPARK-50096 Asigne la condición de error adecuada para
_LEGACY_ERROR_TEMP_2150:TUPLE_SIZE_EXCEEDS_LIMIT - SPARK-50264 Agregar métodos que faltan a DataStreamWriter
- SPARK-49434 Traslado de agregadores a sql/api
- SPARK-51451 Solución para que ExtractGenerator espere a que se resuelva UnresolvedStarWithColumns.
- SPARK-49416 Agregar interfaz DataStreamReader compartida
- SPARK-49429 Adición de la interfaz DataStreamWriter compartida
- SPARK-49282 Cree una interfaz sparkSessionBuilder compartida.
- SPARK-49415 Traslado de SQLImplicits a sql/api
- SPARK-51443 Se ha corregido singleVariantColumn en DSv2 y readStream.
- SPARK-49369 Adición de conversiones implícitas de columna
- SPARK-49417 Adición de la interfaz Shared StreamingQueryManager
- SPARK-51079 Compatibilidad con tipos de variables grandes en UDF de Pandas, createDataFrame y toPandas con Arrow
- SPARK-51277 Implementar la implementación sin argumentos en UDF de Python optimizada para Arrow
- SPARK-50601 Compatibilidad con withColumns / withColumnsRenamed en subconsultas
- SPARK-49479 Cancelar el subproceso no demonio del temporizador al detener el BarrierCoordinator
- SPARK-51379 Mover la agregación final de treeAggregate del controlador al ejecutor
- SPARK-49712 Quitar encoderFor de connect-client-jvm
- SPARK-49424 Unificar Encoders.scala
- SPARK-49574 Deshabilitar pruebas de compartimiento delta dañadas para rama principal
- SPARK-51409 Añadir clasificación de errores en la ruta de creación del registro de cambios
- SPARK-49568 Eliminación del tipo propio del Dataset
- SPARK-51433 Cambio del script de versión para liberar pyspark-client
- SPARK-51422 Eliminación del intercambio de datos JVM-Python en CrossValidator
-
SPARK-51425 Adición de la API de cliente para establecer la personalizada
operation_id - SPARK-49284 Creación de una interfaz de catálogo compartida
- SPARK-50855 Compatibilidad de Spark Connect con TransformWithState en Scala
- SPARK-50694 Soporte para cambios de nombre en subconsultas
- SPARK-50880 Agregar un nuevo método visitBinaryComparison a V2ExpressionSQLBuilder
- SPARK-51282 Optimización de la transformación oneVsRestModel mediante la eliminación del intercambio de datos JVM-Python
- SPARK-51079 Compatibilidad con tipos de variables grandes en UDF de Pandas, createDataFrame y toPandas con Arrow
- SPARK-51383 Evite realizar llamadas RPC si ya se sabe que los clientes están detenidos
-
SPARK-51227 Corrección de PySpark Connect
_minimum_grpc_versiona la versión 1.67.0 - SPARK-51362 Cambiar toJSON para utilizar NextIterator API y eliminar la dependencia de registros adyacentes.
-
SPARK-51375 Suprimir
SparkConnect(Execution|Session)Manager.periodicMaintenancemensajes de registro - SPARK-50393 Introduce un TableArg común para Spark Classic y Spark Connect
- SPARK-50133 Compatibilidad con la conversión de DataFrame al argumento table en el cliente python de Spark Connect
- SPARK-49574 ExpressionEncoder realiza un seguimiento del AgnosticEncoder que lo creó
- SPARK-49422 Adición de groupByKey a sql/api
-
SPARK-51381 Mostrar
Session IDenSpark Connect Sessionla página - SPARK-51316 Permitir lotes de Arrow en bytes en lugar de número de filas
- SPARK-50134 Compatibilidad con dataframe API para subconsultas SCALAR y EXISTS en Spark Connect
- SPARK-50392 Conversión de DataFrame al argumento table en Spark classic
-
SPARK-50553 Lanzar
InvalidPlanInputde plan inválido - SPARK-51322 Mejor mensaje de error para la expresión de subconsulta en streaming
- SPARK-51281 DataFrameWriterV2 debe respetar la opción path
- SPARK-50856 Compatibilidad de Spark Connect con TransformWithStateInPandas en Python
-
SPARK-51333 Desenvolver
InvocationTargetExceptionproducido eninvokeMethod - SPARK-50134 Compatibilidad con DataFrame API para la unión lateral en Spark Connect
- SPARK-51083 Modificar JavaUtils para no tragar InterruptedExceptions
- SPARK-49413 Creación de una interfaz RuntimeConfig compartida (seguimiento)
- SPARK-49413 Creación de una interfaz RuntimeConfig compartida
- SPARK-50993 Mover nullDataSourceOption de QueryCompilationErrors a QueryExecutionErrors
-
SPARK-51329 Agregar
numFeaturespara los modelos de agrupación en clústeres -
SPARK-51305 Mejorar
SparkConnectPlanExecution.createObservedMetricsResponse - SPARK-51097 Adición de métricas de las instancias del almacén de estado para la última versión del snapshot cargado en RocksDB
- SPARK-49425 Creación de un objeto DataFrameWriter compartido
- SPARK-50655 Mover la asignación relacionada con la familia de columnas virtuales a la capa de la base de datos en lugar del codificador.
- SPARK-48530 Compatibilidad con variables locales en scripting de SQL
- SPARK-51284 Corrección de ejecución de script SQL para resultados vacíos
- SPARK-49085 Eliminar el manejo especial para las funciones Protobuf de Connect
- SPARK-50881 Usa el esquema almacenado en caché siempre que sea posible en la conexión con dataframe.py
- SPARK-51275 Propagación de sesión en readwrite de Python
- SPARK-51109 CTE en la expresión de subconsulta como columna de agrupación
- SPARK-50598 Agregar parámetros para habilitar la implementación posterior de CTE recursivos
- SPARK-51202 Pasar la sesión en los escritores de Python del meta algoritmo
- SPARK-51215 Adición de una función auxiliar para invocar el modelo auxiliar attr
-
SPARK-51214 No elimine apresuradamente los modelos almacenados en caché para
fit_transform - SPARK-51237 Adición de detalles de API para las nuevas API auxiliares transformWithState
-
SPARK-51192 Exponer
processWithoutResponseObserverForTestingenSparkConnectPlanner - SPARK-51217 Limpieza del constructor del asistente de modelos de ML
- SPARK-51218 Evitar map/flatMap en NondeterministicExpressionCollection
- SPARK-50953 Adición de compatibilidad con rutas de acceso no literales en VariantGet
- SPARK-50132 Adición de dataFrame API para combinaciones laterales
- SPARK-51190 Corrección de TreeEnsembleModel.treeWeights
- SPARK-50945 Compatibilidad con Summarizer y SummaryBuilder en Connect
- SPARK-51142 Mejora y limpieza de protobuffers de ML
-
SPARK-51139 Refinar la clase de error
MLAttributeNotAllowedException -
SPARK-51080 Corrección de save/load para
PowerIterationClustering - SPARK-51100 Reemplazar envoltorios de transformadores por relaciones de atributos de modelo auxiliar
-
SPARK-51091 Corrección de los parámetros predeterminados de
StopWordsRemover - SPARK-51089 Compatibilidad en la conexión
- SPARK-50954 Compatibilidad con la sobrescritura de la ruta de acceso del modelo del lado cliente para los meta algoritmos
- SPARK-50975 Soporte al conectar
-
SPARK-50958 Soporte para
Word2VecModel.findSynonymsArrayen la conexión -
SPARK-50930 Compatibilidad
PowerIterationClusteringcon Connect - SPARK-51157 Añadir la anotación de Scala faltante @varargs para las APIs de funciones de Scala
-
SPARK-51155 Hacer que
SparkContextmuestre el tiempo de ejecución total después de que se detenga -
SPARK-51143 Anclar
plotly<6.0.0ytorch<2.6.0 -
SPARK-50949 Introducir un modelo auxiliar para admitir
StringIndexModel.from_labels_xxx - SPARK-51131 Se produce una excepción cuando se encuentra un script SQL dentro EXECUTE IMMEDIATE del comando
-
SPARK-51078 Corrección de la llamada py4j en
StopWordsRemover -
SPARK-50944 Compatibilidad
KolmogorovSmirnovTestcon Connect - SPARK-50602 Corrección de la transposición para mostrar un mensaje de error adecuado cuando se especifican columnas de índice no válidas
-
SPARK-50943 Compatibilidad
Correlationcon Connect - SPARK-50234 Mejora del mensaje de error y la prueba para transponer DataFrame API
-
SPARK-50942 Compatibilidad
ChiSquareTestcon Connect - SPARK-48353 Introducción al mecanismo de control de excepciones en scripting de SQL
- SPARK-51043 Registro de usuarios detallado para Spark Connect foreachBatch
- SPARK-50799 Refinar la docstring de rlike, length, octet_length, bit_length y transform
- SPARK-51015 Compatibilidad con RFormulaModel.toString en Connect
- SPARK-50843 Soporte para devolver un nuevo modelo a partir de uno existente
-
SPARK-50969 Corrección
GaussianMixtureModel.gaussiansen la conexión - SPARK-50899 Compatibilidad con PrefixSpan en connect
-
SPARK-51060 Compatibilidad
QuantileDiscretizercon Connect - SPARK-50974 Agregar apoyo para foldCol en CrossValidator en Connect
- SPARK-50922 Compatibilidad con OneVsRest en Connect
- SPARK-50812 Adición de compatibilidad con PolynomialExpansion
- SPARK-50923 Compatibilidad con FMClassifier y FMRegressor en Connect
- SPARK-50918 Reestructuración de lectura y escritura para Pipeline
- SPARK-50938 Compatibilidad con VectorSizeHint y VectorSlicer en Connect
- SPARK-51005 Compatibilidad con VectorIndexer y ElementwiseProduct en Connect
- SPARK-51014 Compatibilidad con RFormula en la conexión
- SPARK-50941 Agregar compatibilidad con TrainValidationSplit
- SPARK-51004 Agregar compatibilidad con IndexString
- SPARK-51003 Compatibilidad con modelos LSH en Connect
- SPARK-50924 Compatibilidad con AFTSurvivalRegression e IsotonicRegression en Connect
- SPARK-50921 Compatibilidad con MultilayerPerceptronClassifier en Connect
-
SPARK-50995 Compatibilidad
clusterCenterscon KMeans y BisectingKMeans - SPARK-50940 Agrega compatibilidad con CrossValidator/CrossValidatorModel en la conexión
-
SPARK-50929 Compatibilidad
LDAcon Connect - SPARK-50925 Compatibilidad con GeneralizedLinearRegression en Connect
- SPARK-50988 Corrección de incoherencias de uid para el estimador y el modelo
- SPARK-50989 Compatibilidad con NGram, Normalizer e Interacción en la conexión
-
SPARK-50937 Compatibilidad
Imputercon Connect - SPARK-51049 Aumento del umbral de E/S vectorial de S3A para la fusión de intervalos
- SPARK-50812 Compatibilidad con TargetEncoderModel en Connect
- SPARK-50920 Soporte técnico de NaiveBayes en Connect
- SPARK-50936 Compatibilidad con HashingTF, IDF y FeatureHasher en la conexión
- SPARK-50934 Compatibilidad con CountVectorizer y OneHotEncoder en Connect
- SPARK-49287 Traslado de clases de streaming a sql/api
- SPARK-50932 Compatibilidad con Bucketizer en Connect
- SPARK-50933 Compatibilidad con selectores de características en Connect
- SPARK-50931 Compatibilidad con Binarizer en la conexión
- SPARK-50935 Compatibilidad DCT con la conexión
- SPARK-50963 Compatibilidad con tokenizadores, SQLTransform y StopWordsRemover en Connect
- SPARK-50928 Compatibilidad con GaussianMixture en Connect
- SPARK-49383 Soporte de la API de Transponer DataFrame
- SPARK-50939 Compatibilidad con Word2Vec en Connect
- SPARK-49249 Añadir nuevas API relacionadas con etiquetas en Connect de vuelta a Spark Core
- SPARK-50919 Compatibilidad con LinearSVC en la conexión
- SPARK-50883 Compatibilidad con la modificación de varias columnas en el mismo comando
- SPARK-50918 Canalización de soporte técnico en conexión
-
SPARK-50826 Refactorización de la forma en que se controla
ALLOWED_ATTRIBUTES - SPARK-49427 Creación de una interfaz compartida para MergeIntoWriter
- SPARK-49414 Agregar interfaz DataFrameReader compartida
- SPARK-50948 Agregar compatibilidad con StringIndexer/PCA en Connect
-
SPARK-50901 Compatibilidad con Transformer
VectorAssembler - SPARK-50879 Compatibilidad con escaladores de características en Connect
- SPARK-50130 Agregar APIs de DataFrame para subconsultas escalares y "exists"
- SPARK-50075 Adición de API de DataFrame para funciones con valores de tabla
- SPARK-49426 Creación de una interfaz compartida para DataFrameWriterV2
-
SPARK-50898 Compatibilidad
FPGrowthcon la conexión - SPARK-50844 Hacer que el modelo se cargue mediante ServiceLoader al cargarlo
- SPARK-50884 Compatibilidad con "isLargerBetter" en Evaluador
- SPARK-50959 Capturar la excepción de JavaWrapper
- SPARK-50558 Introducción a simpleString para ExpressionSet
- SPARK-49422 Creación de una interfaz compartida para KeyValueGroupedDataset
- SPARK-50878 Compatibilidad con ALS en Connect
- SPARK-50897 Evitar la creación de instancias en ServiceLoader
- SPARK-50877 Compatibilidad con KMeans y BisectingKMeans en Connect
- SPARK-50876 Compatibilidad con los regresores de árbol en Connect
-
SPARK-50874 Compatibilidad
LinearRegressioncon la conexión - SPARK-50869 Compatibilidad con evaluadores en ML Connect
-
SPARK-50851 Parámetros de ML Express con
proto.Expression.Literal - SPARK-50825 Compatibilidad con clasificadores de árbol en ML Connect
- SPARK-50827 Plugin de soporte
- SPARK-49907 Compatibilidad con spark.ml en Connect
-
SPARK-50968 Corrección del uso de
Column.__new__ - SPARK-49028 Creación de una sparkSession compartida
- SPARK-49421 Creación de una interfaz RelationalGroupedDataset compartida
- SPARK-50804 to_protobuf() no debe lanzar MatchError
- SPARK-50900 Agregar VectorUDT y MatrixUDT a ProtoDataTypes
-
SPARK-50579 Solucionar
truncatedString - SPARK-50875 Agregar intercalaciones RTRIM a TVF
- SPARK-49420 Adición de una interfaz compartida para DataFrameNaFunctions
- SPARK-50669 Cambiar la firma de la expresión TimestampAdd
- SPARK-46615 Compatibilidad con s.c.immutable.ArraySeq en ArrowDeserializers
- SPARK-49423 Consolidación de la observación en sql/api
- SPARK-49086 Traslado del registro de funciones de ML a SparkSessionExtensions
- SPARK-49419 Crear DataFrameStatFunctions compartidos
- SPARK-50735 El error en ExecuteResponseObserver da como resultado solicitudes de reasociación infinitas
- SPARK-50522 Compatibilidad con intercalación indeterminada
- SPARK-50893 Indicar UDT.DataType opcional
- SPARK-50685 Mejora del rendimiento de Py4J aprovechando getattr
-
SPARK-50742 Quitar
spark.hadoop.fs.s3a.connection.establish.timeoutconfiguración - SPARK-50714 Habilitación de la evolución del esquema para TransformWithState cuando se usa la codificación Avro
- SPARK-49029 Creación de una interfaz de conjunto de datos compartido
-
SPARK-50263 Reemplazar por
System.currentTimeMillisSystem.nanoTime - SPARK-50525 Definir regla del optimizador InsertMapSortInRepartitionExpressions
- SPARK-50561 Mejorar la coerción de tipos y la comprobación de límites para la función SQL UNIFORM
- SPARK-50707 Permitir conversión hacia y desde char/varchar
- SPARK-49027 Uso compartido de Column API entre Clase y Connect
- SPARK-49632 Quitar la sugerencia de configuración ANSI en CANNOT_PARSE_TIMESTAMP
- SPARK-50529 Cambio del comportamiento char/varchar en la configuración
- SPARK-50600 Establecimiento analizado en caso de error de análisis
- SPARK-50789 Se deben analizar las entradas de agregaciones tipadas.
- SPARK-49025 Hacer que la implementación de columna sea independiente
- SPARK-50738 Actualizar negro a 23.12.1
- SPARK-49883 Integración de la estructura de puntos de control del almacén de estado V2 con RocksDB
- SPARK-50778 Adición de metadataColumn a DataFrame de PySpark
- SPARK-49565 Mejora de los alias de expresión generados automáticamente con operadores SQL de canalización
- SPARK-50772 Conservar los alias de la tabla después de SET, operadores EXTEND, DROP
- SPARK-50690 Corrección de discrepancias en la citación del resultado DESCRIBE TABLE de consultas de vista
- SPARK-50675 Soporte de intercalaciones a nivel de tabla y vista
- SPARK-50480 Extender CharType y VarcharType a partir de StringType
-
SPARK-50715
SparkSession.Builderestablece las configuraciones en grupo - SPARK-50693 Se deben analizar las entradas de TypedScalaUdf.
- SPARK-50710 Agregar soporte para la reconexión opcional del cliente a sesiones después de la finalización
- SPARK-50596 Actualización de Py4J de 0.10.9.7 a 0.10.9.8
- SPARK-50661 Agregue compatibilidad con versiones anteriores para el cliente FEB.
-
SPARK-50515 Adición de la interfaz de solo lectura a
SparkConf - SPARK-50642 Corrección del esquema de estado para FlatMapGroupsWithState en spark connect cuando no hay ningún estado inicial
- SPARK-50702 Refinar la cadena de documentación de regexp_count, regexp_extract y regexp_extract_all
- SPARK-50692 Añadir soporte para RPAD pushdown
- SPARK-50699 Análisis y generación de una cadena DDL con una sesión especificada
- SPARK-50573 Agregar el identificador de esquema de estado a las filas de estado para la evolución del esquema
- SPARK-50311 Soporte de APIs para PySpark
- SPARK-50661 Corrección de Spark Connect Scala foreachBatch impl. para admitir Dataset[T].
- SPARK-50696 Optimización de la llamada de Py4J para el método de análisis DDL
- SPARK-50687 Optimizar la lógica para obtener rastros de pila para DataFrameQueryContext
- SPARK-50681 Almacenar en caché el esquema analizado para MapInXXX y ApplyInXXX
- SPARK-50578 Adición de compatibilidad con la nueva versión de metadatos de estado para TransformWithStateInPandas
- SPARK-50405 Correctamente manejar la coerción del tipo de intercalación en tipos de datos complejos.
- SPARK-50615 Insertar variante en el escaneo.
- SPARK-50599 Creación del rasgo DataEncoder que permite la codificación Avro y UnsafeRow
- SPARK-50076 Corrección de claves de registro
- SPARK-50339 Habilitación del registro de cambios para almacenar información de linaje
- SPARK-50540 Corrección del esquema de cadena para StatefulProcessorHandle
-
SPARK-50544 Implementar
StructType.toDDL -
SPARK-50528 Mover
InvalidCommandInputal módulo común - SPARK-50063 Adición de compatibilidad con Variant en el cliente Scala de Spark Connect
- SPARK-50310 Adición de una marca para deshabilitar DataFrameQueryContext para PySpark
- SPARK-50310 Adición de una marca para deshabilitar DataFrameQueryContext para PySpark
- SPARK-50032 Permitir el uso del nombre de intercalación completo
- SPARK-50466 Refinar el docstring de las funciones de cadena - parte 1
- SPARK-49676 Adición de compatibilidad con encadenamiento de operadores en transformWithStateInPandas API
-
SPARK-50081 Compatibilidad con Codegen para
XPath*(por Invoke & RuntimeReplaceable) - SPARK-46725 Agregar función DAYNAME
- SPARK-50067 Compatibilidad de Codegen con SchemaOfCsv(by Invoke & RuntimeReplaceable)
- SPARK-49873 corrige un error posterior a la combinación en las pruebas de errores
- SPARK-50270 Se agregaron métricas de estado personalizadas para TransformWithStateInPandas
-
SPARK-50381 Apoyo
spark.master.rest.maxThreads - SPARK-50427 Exponer configure_logging como API pública
- SPARK-50173 Hacer que las expresiones pandas acepten más tipos de datos
-
SPARK-50169 Mejora del rendimiento de
RegExpReplace - SPARK-50238 Agregar compatibilidad con variantes en UDFs/UDTFs/UDAFs de PySpark y UDF de Python
- SPARK-50190 Quitar la dependencia directa de Numpy del histograma
- SPARK-50183 Unificar las funciones internas para la API de Pandas y el trazado de PySpark
-
SPARK-50170 Mover
_invoke_internal_function_over_columnsapyspark.sql.utils - SPARK-50036 Incluir SPARK_LOG_SCHEMA en el contexto del shell de REPL
-
SPARK-50141 Hacer que
lpadyrpadacepten argumentos de tipo Column - SPARK-49954 Compatibilidad de Codegen con SchemaOfJson (por Invoke & RuntimeReplaceable)
-
SPARK-50098 Actualización de la versión mínima de
googleapis-common-protosa la versión 1.65.0 - SPARK-50059 Comprobación de compatibilidad de API para E/S de Structured Streaming
- SPARK-50241 Reemplazar NullIntolerant Mixin por el método Expression.nullIntolerant
- SPARK-49849 Comprobación de compatibilidad de API para Structured Streaming Query Management
- SPARK-49851 Comprobación de compatibilidad de API para Protobuf
- SPARK-49850 Comprobación de compatibilidad de API para Avro
- SPARK-50039 Comprobación de compatibilidad de API para la agrupación
- SPARK-50023 Comprobación de compatibilidad de API para Functions
- SPARK-50030 Comprobación de compatibilidad de API para Window
- SPARK-50002 Comprobación de compatibilidad de API para E/S
- SPARK-49848 Comprobación de compatibilidad de API para catálogo
-
SPARK-50022 Corrección
MasterPagepara ocultar vínculos de la interfaz de usuario de la aplicación cuando la interfaz de usuario está deshabilitada -
SPARK-50021 Corrección
ApplicationPagepara ocultar vínculos de la interfaz de usuario de la aplicación cuando la interfaz de usuario está deshabilitada -
SPARK-49990 Mejora del rendimiento de
randStr - SPARK-50380 ReorderAssociativeOperator debe cumplir con el contrato en ConstantFolding
- SPARK-50330 Adición de sugerencias a los nodos de ordenación y ventana
- SPARK-49609 Adición de una comprobación de compatibilidad de API entre clásico y Connect
-
SPARK-49773 Excepción de Java no detectada de
make_timestamp()con zona horaria incorrecta - SPARK-49345 Asegúrese de usar la sesión de Spark en ejecución actual.
- SPARK-49368 Evite acceder directamente a clases protobuf lite.
- SPARK-50056 Compatibilidad de Codegen con ParseUrl (por Invoke & RuntimeReplaceable)
-
SPARK-49119 Corrección de la incoherencia de la sintaxis
show columnsentre v1 y v2 - SPARK-50144 Abordar la limitación del cálculo de métricas con orígenes de streaming DSv1
- SPARK-49962 Simplificación de la jerarquía de clases AbstractStringTypes
- SPARK-50327 Resolución de funciones por factorización para ser reutilizado en el Analizador de un solo paso
- SPARK-48775 Reemplazar SQLContext por SparkSession en STS
- SPARK-50325 Resolución de alias por factorización para ser reutilizado en el Analizador de un solo paso
- SPARK-48123 Proporcionar un esquema de tabla constante para consultar registros estructurados
- SPARK-50055 Adición de la alternativa TryMakeInterval
-
SPARK-49312 Mejora del mensaje de error para
assertSchemaEqual - SPARK-38912 Quitar el comentario relacionado con classmethod y property
- SPARK-50112 Permitir que el operador TransformWithState use la codificación Avro
- SPARK-50260 Refactorización y optimización de la ejecución y la administración de sesiones de Spark Connect
- SPARK-50196 Corrección del contexto de error de Python para usar un contexto adecuado
- SPARK-50167 Mejorar los mensajes de error y las importaciones de trazado de PySpark
-
SPARK-50085 Hacer que
lit(ndarray)con np.int8 respete el tipo de datos de numpy - SPARK-50273 Mejora del registro para los casos de adquisición o liberación de bloqueos de RocksDB
- SPARK-50163 Corregir la liberación adicional de acquireLock de RocksDB debido al monitor de finalización
- SPARK-49770 Mejorar la gestión de archivos SST de RocksDB y corregir el problema al recargar la misma versión con la instantánea existente.
- SPARK-50232 Agregue 'protobuf==5.28.3' en dev/requirements.txt
-
SPARK-50231 Hacer que la función
instracepte Columnsubstring - SPARK-50028 Reemplazar bloqueos globales en el agente de escucha del servidor de Spark Connect por bloqueos específicos
- SPARK-50077 Introducir un nuevo objeto de patrón para LogicalRelation para ayudar a evitar el patrón predeterminado de parámetros completos
- SPARK-50128 Adición de API de controlador de procesador con estado mediante codificadores implícitos en Scala
- SPARK-49411 Comunicar el identificador de punto de control del almacén de estado entre el controlador y los operadores con estado
- SPARK-50054 Soporte para gráficos de histogramas
- SPARK-49854 No copie bibliotecas de clústeres al clonar el administrador de artefactos
- SPARK-50071 Agregar try_make_timestamp(_ltz y _ntz) y pruebas relacionadas
- SPARK-50024 Cambiar para usar el registrador en lugar del módulo de advertencias en el cliente
-
SPARK-50174 Extraer la resolución
UnresolvedCatalogRelation -
SPARK-49734 Agregar
seedargumento para la funciónshuffle -
SPARK-49943 Quitar
timestamp_ntz_to_longdePythonSQLUtils -
SPARK-49945 Agregar alias para
distributed_id - SPARK-49755 Eliminar el manejo especial para las funciones avro de Connect
-
SPARK-49805 Quitar funciones privadas[xxx] de
function.scala - SPARK-49929 Trazados de cuadros de soporte técnico
- SPARK-49767 Refactorización de la invocación de función interna
- SPARK-49939 Compatibilidad con Codegen para json_object_keys (por Invoke & RuntimeReplaceable)
- SPARK-49854 Clonar el administrador de artefactos durante la clonación de la sesión
-
SPARK-49766 Compatibilidad con Codegen para
json_array_length(porInvokeyRuntimeReplaceable) -
SPARK-49540 Unificar el uso de
distributed_sequence_id - SPARK-50046 Uso del orden estable del nodo EventTimeWatermark para calcular la marca de agua
-
SPARK-50031 Adición de la
TryParseUrlexpresión -
SPARK-49202 Aplicar
ArrayBinarySearchpara histograma - SPARK-49811 Cambiar el nombre de StringTypeAnyCollation
-
SPARK-50106 Actualización del
protobufpaquete de Python a la versión 5.28.3 -
SPARK-49203 Agregar expresión para
java.util.Arrays.binarySearch - SPARK-50090 Refactorización de ResolveBinaryArithmetic para separar la transformación de un solo nodo
-
SPARK-49103 Apoyo
spark.master.rest.filters - SPARK-49222 Borrar métodos inútiles en QueryCompilationErrors
-
SPARK-50062 Compatibilidad con intercalaciones por
InSet - SPARK-50035 Agregar compatibilidad con la función explícita handleExpiredTimer del procesador stateful.
-
SPARK-50050 Hacer que
litaceptestry el tipoboolnumpy ndarray -
SPARK-50051 Hacer que
litfuncione con un array numpy ndarray vacío - SPARK-49857 Añadir storageLevel a la API localCheckpoint del Dataset
- SPARK-48749 Simplifica UnaryPositive y elimina sus reglas Catalyst con RuntimeReplaceable
- SPARK-50058 Extracción de las funciones de normalización del plan para utilizarlas más adelante en las pruebas del analizador de una única pasada
- SPARK-50042 Actualización a numpy versión 2 para el linter de Python
- SPARK-50052 Hacer que NumpyArrayConverter admita str ndarray vacío
-
SPARK-49126 Mover la definición de configuración
spark.history.ui.maxApplicationsaHistory.scala - SPARK-50044 Refinar la cadena de documentación de varias funciones matemáticas
- SPARK-48782 Adición de compatibilidad para ejecutar procedimientos en catálogos
- SPARK-48773 Documentación de la configuración "spark.default.parallelism" mediante el marco de creación de configuraciones
- SPARK-49876 Deshacerse de bloqueos globales del servicio Spark Connect
- SPARK-48480 StreamingQueryListener no debe verse afectado por spark.interrupt()
- SPARK-49978 Mover la advertencia de desuso de SparkR al tiempo de carga del paquete
-
SPARK-48549 Mejora de la función SQL
sentences - SPARK-49956 Deshabilitar ordenamientos con la expresión collect_set
- SPARK-49974 Mover resolveRelations(...) fuera de Analyzer.scala
- SPARK-49067 Mover el literal de UTF-8 a los métodos internos de la clase UrlCodec
- SPARK-49393 Error de forma predeterminada en las API del complemento de catálogo en desuso
-
SPARK-49918 Usar acceso de solo lectura a conf en
SparkContextcuando sea apropiado -
SPARK-49924 Mantener
containsNulldespués delArrayCompactreemplazo - SPARK-49895 Mejorar el error al encontrar una coma final en la SELECT cláusula
- SPARK-49890 Extraer la preparación de df.sample a la clase principal
-
SPARK-49810 Extraer la preparación de
DataFrame.sorta la clase principal - SPARK-49405 Restricción de conjuntos de caracteres en JsonOptions
- SPARK-49542 Error de evaluación de excepciones de transformación de partición
- SPARK-47172 Adición de compatibilidad con AES-GCM para el cifrado RPC
- SPARK-44914 Corrección de HadoopConfUtilsSuite después de quitar xercesImpl
- SPARK-47496 Compatibilidad con SPI de Java para el registro dinámico de dialectos JDBC
- SPARK-48961 Hacer que la nomenclatura de parámetros de PySparkException sea coherente con JVM
- SPARK-47390 Manejo de la asignación de marcas de tiempo de SQL para Postgres y MySQL
- SPARK-49824 Mejora del registro en SparkConnectStreamingQueryCache
- SPARK-49894 Refinar la representación de cadenas para las operaciones en campos de columna
- SPARK-49836 Solucionar una consulta que podría estar rota cuando se proporciona una ventana a la función de ventana/session_window.
- SPARK-49531 Compatibilidad con trazado de líneas con el backend plotly
- SPARK-48780 Hacer que los errores en NamedParametersSupport sean genéricos para manejar funciones y procedimientos
- SPARK-49026 Adición de ColumnNode a la conversión proto
-
SPARK-49814 Cuando se inicia el cliente de Spark Connect, muestre el
spark versiondeconnect server - SPARK-49246 TableCatalog#loadTable debe indicar si es para escribir
- SPARK-49749 Cambio del nivel de registro para depurar en BlockManagerInfo
-
SPARK-48303 Reorganizar
LogKeys - SPARK-48112 Exposición de la sesión en SparkConnectPlanner a complementos
-
SPARK-45919 Uso de Java 16
recordpara simplificar la definición de clase Java -
SPARK-48126 Hacer
spark.log.structuredLogging.enabledefectivo - SPARK-49656 Añadir compatibilidad con variables de estado en tipos de colección por estado de valores y opciones de lectura para flujos de cambios
- SPARK-49323 Mover MockObserver desde la carpeta de prueba de Spark Connect Server a la carpeta principal del servidor
- SPARK-49772 Quitar ColumnFamilyOptions y agregar configuraciones directamente a dbOptions en RocksDB
- SPARK-49688 Corrección de una carrera de datos entre interrupción y ejecución del plan
- SPARK-49585 Sustituir el mapa de ejecuciones en SessionHolder por un conjunto de operationID
- SPARK-49684 Minimizar la duración del bloqueo de restauración de sesión
- SPARK-48857 Restricción de conjuntos de caracteres en CSVOptions
- SPARK-48615 Mejora de rendimiento para analizar la cadena hexadecimal
-
SPARK-49719 Permitir que
UUIDySHUFFLEacepten enterosseed -
SPARK-49713 Hacer que la función
count_min_sketchacepte argumentos numéricos - SPARK-48623 Migraciones de registro estructurado [parte 3]
- SPARK-48541 Agregar un nuevo código de salida para ejecutores eliminados por TaskReaper
- SPARK-48627 Mejora de rendimiento para la conversión de cadena binaria a HEX_DISCRETE
- SPARK-49226 Limpieza de la generación de código UDF
- SPARK-49673 Aumente CONNECT_GRPC_ARROW_MAX_BATCH_SIZE a 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
- SPARK-49307 Adición de la serialización Kryo al marco de codificador agnóstico
- SPARK-48601 Proporcione un mensaje de error más descriptivo al establecer un valor NULL para la opción JDBC.
-
SPARK-42252 Agregar
spark.shuffle.localDisk.file.output.buffery dejar de usarspark.shuffle.unsafe.file.output.buffer - SPARK-49505 Crear nuevas funciones SQL "randstr" y "uniformes" para generar cadenas o números aleatorios dentro de intervalos
- SPARK-48341 Permitir que los complementos usen QueryTest en sus pruebas
- SPARK-48374 Compatibilidad con tipos de columnas de tabla pyArrow adicionales
- SPARK-49412 Calcular todas las métricas de trazado de cuadros en un solo trabajo
- SPARK-49684 Eliminación de bloqueos globales de administradores de sesión y ejecución
- SPARK-49225 Agregar ColumnNode SQL y normalize
- SPARK-49274 Compatibilidad con codificadores basados en serialización de Java
- SPARK-49089 Mover expresiones Catalyst predefinidas al registro interno de funciones
- SPARK-48185 Corrección de que la clase de referencia simbólica no es accesible: clase sun.util.calendar.ZoneInfo
- SPARK-48037 Corrección de que SortShuffleWriter carece de métricas relacionadas con la escritura aleatoria, lo que da lugar a datos potencialmente inexactos
-
SPARK-49534 Ya no se anteponen
sql/hiveysql/hive-thriftservercuandospark-hive_xxx.jarno está en el classpath - SPARK-49502 Evitar NPE en SparkEnv.get.shuffleManager.unregisterShuffle
-
SPARK-49567 Utilice
classicen lugar devanillaen la base de código de PySpark - SPARK-49582 Mejora de la utilidad "dispatch_window_method" y docstring
- SPARK-49478 Control de métricas nulas en ConnectProgressExecutionListener
- SPARK-49525 Mejora menor de registros en el ListenerBus del agente de escucha de consultas de streaming del lado servidor
- SPARK-49544 Reemplazar el bloqueo general en SparkConnectExecutionManager por ConcurrentMap
- SPARK-49548 Reemplazar el bloqueo general en SparkConnectSessionManager por ConcurrentMap
- SPARK-49004 Uso de un registro independiente para las funciones internas de Column API
- SPARK-49443 Implemente la expresión to_variant_object y haga que las expresiones schema_of_variant impriman OBJECT para los objetos Variant
-
SPARK-49595 Corrección
DataFrame.unpivot/melten el cliente Scala de Spark Connect - SPARK-49526 Soporte para rutas de acceso de estilo Windows en ArtifactManager
- SPARK-49396 Modificación de la comprobación de nulabilidad para la expresión CaseWhen
- SPARK-49024 Adición de compatibilidad con funciones al nodo de columna
- SPARK-48985 Conectar constructores de expresiones compatibles
- SPARK-49083 Permitir que from_xml y from_json funcionen de forma nativa con esquemas json
- SPARK-48986 Agregar representación intermedia de ColumnNode
- SPARK-48960 Hace que spark-submit funcione con Spark Connect
- SPARK-49492 Se intentó reconectar en ExecutionHolder inactivo
- SPARK-47307 Añadir una configuración para dividir opcionalmente las cadenas base64 en fragmentos.
- SPARK-49451 Permitir claves duplicadas en parse_json
- SPARK-49021 Añadir compatibilidad para leer variables de estado de valor transformWithState con lector de fuente de datos de estado
-
SPARK-49249 Agregar
addArtifactAPI al Spark SQL Core - SPARK-48693 Simplificación y unificación de toString of Invoke y StaticInvoke
- SPARK-41982 Las particiones de tipo cadena no deben tratarse como tipos numéricos
- SPARK-49216 Corrección para no registrar el contexto del mensaje con un LogEntry construido de forma explícita cuando la configuración de registro estructurado está desactivada.
-
SPARK-49459 Compatibilidad con
CRC32Cpara suma de comprobación aleatoria - SPARK-49409 Ajuste el valor predeterminado de CONNECT_SESSION_PLAN_CACHE_SIZE
- SPARK-49164 Corrección de no NullSafeEqual en el predicado de consulta SQL en la Relación JDBC
- SPARK-48344 Ejecución de scripting de SQL (incluido Spark Connect)
-
SPARK-49260 Dejar de anteponer la ruta de clases del módulo
sql/coreen Spark Connect Shell -
SPARK-49041 Generar un error adecuado para
dropDuplicatescuando se proporciona unsubsetincorrecto - SPARK-49300 Solución para la fuga de tokens de delegación de Hadoop cuando no se establece tokenRenewalInterval
- SPARK-48796 Cargar el identificador de familia de columnas desde RocksDBCheckpointMetadata para VCF al reiniciar
- SPARK-49269 Evaluar diligentemente la lista VALUES() en AstBuilder
- SPARK-49336 Limitar el nivel de anidamiento al truncar un mensaje Protobuf
- SPARK-49245 Refactorización de algunas reglas de analizador
- SPARK-48755 implementación base de transformWithState pyspark y compatibilidad con ValueState
- SPARK-48762 Introducción a clusterBy DataFrameWriter API para Python
- SPARK-48967 Mejorar el rendimiento y la huella de memoria de declaraciones "INSERT INTO ...VALUES"
- SPARK-49195 Inserción de lógica de análisis de nivel de script en SparkSubmitCommandBuilder
-
SPARK-49173 Cambio del mensaje del shell de Spark Connect de
@ascala> - SPARK-49198 Reducción de la cantidad de archivos jar necesarios para la consola de Spark Connect
- SPARK-48936 Hace que spark-shell funcione con Spark Connect
-
SPARK-49201 Reimplementar gráfico
histcon Spark SQL - SPARK-49111 Mover withProjectAndFilter al objeto complementario de DataSourceV2Strategy
- SPARK-49185 Reimplementar representación gráfica usando Spark SQL
- SPARK-48761 Introducir la API de DataFrameWriter clusterBy para Scala
- SPARK-48628 Añadir métricas de memoria de montón de activación/desactivación de picos de tareas
-
SPARK-48900 Añadir
reasoncampo para todas las llamadas internas relacionadas con la cancelación de tareas o etapas -
SPARK-49076 Corregir el obsoleto
logical plan nameen los comentarios de AstBuilder -
SPARK-49059 Mover
SessionHolder.forTesting(...)al paquete de prueba - SPARK-48658 Las funciones de codificación y decodificación informan errores de codificación en lugar de mojibake.
- SPARK-45891 Añadir soporte para los tipos de intervalo en la especificación de Variant
- SPARK-49032 Agregar la ruta de acceso de esquema en la entrada de la tabla de metadatos y las pruebas relacionadas con el formato de metadatos de operador versión 2.
- SPARK-49009 Hacer que las API de columna y las funciones acepten enumeraciones
-
SPARK-49035 Eliminar TypeVar
ColumnOrName_ - SPARK-48849 Creación de OperatorStateMetadataV2 para el operador TransformWithStateExec
-
SPARK-48974 Usar
SparkSession.implicitsen lugar deSQLContext.implicits -
SPARK-48996 Permitir literales sin formato para
__and__y__or__de Columna - SPARK-48928 Advertencia de registro para llamar a .unpersist() en RDD de punto de control local
- SPARK-48972 Unificar el control de cadenas literales en funciones
- SPARK-48891 Refactorizar StateSchemaCompatibilityChecker para unificar todos los formatos de esquema de estado
-
SPARK-48841 Incluir
collationNameen elsql()deCollate - SPARK-48944 Unificar el control de esquemas de formato JSON en Connect Server
-
SPARK-48945 Simplificación de las funciones regex con
lit - SPARK-48865 Agregar función try_url_decode
-
SPARK-48851 Cambiar el valor de
SCHEMA_NOT_FOUNDdenamespaceacatalog.namespace -
SPARK-48510 Corrección para la API de UDAF
toColumnal ejecutar pruebas en Maven -
SPARK-45190 Hacer que
from_xmladmita el esquema StructType -
SPARK-48900 Agregar
reasoncampo paracancelJobGroupycancelJobsWithTag - SPARK-48909 Uso de SparkSession sobre SparkContext al escribir metadatos
-
SPARK-48510 Compatibilidad con la API de UDAF
toColumnen Spark Connect - SPARK-45155 Incorporación de documentos de API para el cliente JVM/Scala de Spark Connect
- SPARK-48794 Compatibilidad de df.mergeInto con Spark Connect (Scala y Python)
-
SPARK-48714 Implementación
DataFrame.mergeIntoen PySpark - SPARK-48726 Creación del formato de archivo StateSchemaV3 para el operador TransformWithStateExec
- SPARK-48834 Deshabilitar la entrada/salida variante para UDFs, UDTFs y UDAFs de Python durante la compilación de consultas
- SPARK-48716 Agregar jobGroupId a SparkListenerSQLExecutionStart
- SPARK-48888 Eliminar la creación de instantáneas en función del tamaño de las operaciones del registro de cambios
- SPARK-48772 Modo de lector de fuente de cambios del origen de datos de estado
- SPARK-48742 Familia de columnas virtuales para RocksDB
- SPARK-48852 Corrección de la función de recorte de cadenas en la conexión
- SPARK-48343 Introducción al intérprete de scripting de SQL
-
SPARK-48118 Compatibilidad con
SPARK_SQL_LEGACY_CREATE_HIVE_TABLEla variable env - SPARK-48804 Agregar classIsLoadable y realizar verificaciones de OutputCommitter.isAssignableFrom para las configuraciones de clase del output committer
- SPARK-47577 Corregir el uso engañoso de la clave de registro TASK_ID
-
SPARK-48798 Introducción
spark.profile.rendera la generación de perfiles basada en SparkSession - SPARK-48686 Mejora del rendimiento de ParserUtils.unescapeSQLString
- SPARK-48611 registro de TID para el fragmento de entrada en HadoopRDD y NewHadoopRDD
-
SPARK-48720 Alinear el comando
ALTER TABLE ... UNSET TBLPROPERTIES ...en v1 y v2 - SPARK-48710 Uso de tipos compatibles con NumPy 2.0
- SPARK-48810 La API Session stop() debe ser idempotente.
-
SPARK-48818 Simplificación de
percentilefunciones - SPARK-48638 Agregar compatibilidad con ExecutionInfo para DataFrame
- SPARK-48799 Refactorización del versionado de metadatos de operador para lectura y escritura
-
SPARK-46122 Establézcalo
spark.sql.legacy.createHiveTableByDefaultenfalsede forma predeterminada - SPARK-48629 Migración del código residual al marco de registro estructurado
- SPARK-48320 Sincronizar el trait de registro más reciente y los casos de prueba de Spark OSS
- SPARK-48573 Actualización de la versión de ICU
- SPARK-48687 Añadir validación y actualización del esquema de estado en el driver en la fase de planificación de consultas con estado
- SPARK-47579 Migración de logInfo con variables al marco de registro estructurado (PARTE 1–4)
- SPARK-48713 Agregar comprobación de intervalo de índice para UnsafeRow.pointTo cuando baseObject es una matriz de bytes
- SPARK-48498 Aplicar siempre el relleno de caracteres en los predicados
- SPARK-48598 Propagación del esquema almacenado en caché en operaciones de trama de datos
- SPARK-47599 MLLib: Migración de logWarn con variables al marco de registro estructurado
- SPARK-48576 Cambie el nombre de UTF8_BINARY_LCASE a UTF8_LCASE
- SPARK-48650 Mostrar el sitio de llamada correcto desde IPython Notebook
- SPARK-48059 Marco de registro estructurado en el lado java
- SPARK-48482 dropDuplicates y dropDuplicatesWithinWatermark deben aceptar argumentos de longitud variable
-
SPARK-48620 Corregir la fuga de datos brutos interna en
YearMonthIntervalTypeyCalendarIntervalType - SPARK-48555 Compatibilidad con el uso de columnas como parámetros para varias funciones
-
SPARK-48591 Adición de una función auxiliar para simplificar
Column.py - SPARK-48459 Implementación de DataFrameQueryContext en Spark Connect
- SPARK-48610 Reestructuración: use idMap auxiliar en lugar de OP_ID_TAG
-
SPARK-47923 Actualización de la versión mínima del paquete de
arrowR a 10.0.0 - SPARK-48593 Corrección de la representación de cadena de la función lambda
- SPARK-46947 Retrasar la inicialización del administrador de memoria hasta que se cargue el complemento Driver
- SPARK-48220 Permitir pasar la tabla PyArrow para crearDataFrame()
- SPARK-48564 Propagación del esquema almacenado en caché en operaciones de conjunto
-
SPARK-48561 Lanzar
PandasNotImplementedErrorpara funciones de trazado no admitidas - SPARK-48513 Adición de una clase de error para la compatibilidad de esquemas de estado
- SPARK-48553 Almacenar en caché más propiedades
- SPARK-48550 Usar directamente la clase Window primaria
- SPARK-48504 Clase De ventana principal para Spark Connect y Spark classic
-
SPARK-48508 Almacenamiento en caché del esquema especificado por el usuario en
DataFrame.{to, mapInPandas, mapInArrow} - SPARK-48496 Uso de instancias de patrón regex estáticas en JavaUtils
- SPARK-47578 Backport manual: migración de logWarning con variables
- SPARK-47737 Aumentar PyArrow a 10.0.0
- SPARK-48159 Ampliar la compatibilidad con cadenas intercaladas en expresiones datetime
- SPARK-48454 Usar directamente la clase DataFrame primaria
- SPARK-48438 Usar directamente la clase Column primaria
- SPARK-47597 Backport manual: migración de logInfo con variables
-
SPARK-48434 Hacer uso
printSchemadel esquema almacenado en caché -
SPARK-46998 Desaprobación de la configuración de SQL
spark.sql.legacy.allowZeroIndexInFormatString - SPARK-46569 Eliminar ThreadLocal para SecureRandom desde JDK9
- SPARK-46455 Eliminación de la conversión de tipos redundantes
-
SPARK-46270 Uso de expresiones java16
instanceof - SPARK-46479 Uso del método de utilidad de commons-lang3 para la comprobación de la versión de Java
- SPARK-45998 Limpieza de conversiones de tipo redundantes
- SPARK-45533 Use j.l.r.Cleaner en lugar de utilizar `finalize` para RocksDBIterator/LevelDBIterator
- SPARK-45309 Eliminar todas las llamadas a SystemUtils.isJavaVersionAtLeast con JDK 9/11/17
-
SPARK-48295 Activar
compute.ops_on_diff_framespor defecto - SPARK-47960 Permitir encadenar otros operadores con estado después de transformWithState
- SPARK-48367 Corrección de lint-scala para la detección de archivos scalafmt
- SPARK-48247 Usar todos los valores del diccionario para la inferencia del esquema de tipo mapa
- SPARK-48370 Punto de control y localCheckpoint en el cliente de Scala Spark Connect
- SPARK-48258 Punto de control y punto de control local en Spark Connect
- SPARK-48293 Agregar prueba para la encapsulación de interrupciones en ForeachBatchUserFuncException
- SPARK-48031 Descomponer la configuración de viewSchemaMode; agregar soporte SHOW CREATE TABLE
- SPARK-48288 Incorporación de tipo de datos de origen para la expresión de conversión de conector
- SPARK-48310 Las propiedades almacenadas en caché deben devolver copias
-
SPARK-48287 Aplicar método integrado
timestamp_diff - SPARK-44444 Usar el modo SQL ANSI de forma predeterminada
-
SPARK-48276 Se ha añadido lo que faltaba
__repr__paraSQLExpression - SPARK-46991 Intercambiar IllegalArgumentException por SparkIllegalArgumentException en Catalyst
- SPARK-48031 Compatibilidad con la evolución del esquema de la vista
- SPARK-48113 Permitir que los complementos se integren con Spark Connect
- SPARK-47158 Asignar nombre y sqlState a códigos de error heredados
-
SPARK-47545 Compatibilidad con conjuntos de datos
observepara el cliente de Scala - SPARK-47993 Retirar Python 3.8
- SPARK-48260 Deshabilitar la coordinación del confirmador de salida en ParquetIOSuite
- SPARK-47365 Adición del método DataFrame toArrow() a PySpark
- SPARK-47963 Habilitación del registro estructurado para el ecosistema de Spark externo
- SPARK-48045 Corrección de la omisión de la etiqueta de varios agregados as_index=False
- SPARK-47719 Cambiar el valor predeterminado de timeParserPolicy a CORRECTED
- SPARK-48075 Comprobación de tipos para funciones avro de PySpark
- SPARK-48102 Monitorear la duración de las métricas en el progreso de consultas de streaming
- SPARK-47858 Refactorización del contexto de error de DataFrame
-
SPARK-48052 Recuperación
pyspark-connectde CI por clases primarias - SPARK-45284 Actualizar los requisitos mínimos del sistema de SparkR a Java 17
- SPARK-47933 Clase de columna primaria para Spark Connect y classic
- SPARK-48053 SparkSession.createDataFrame debe advertir para las opciones no admitidas
-
SPARK-48044 Caché
DataFrame.isStreaming - SPARK-47594 Migraciones de registros estructurados
- SPARK-47764 Limpieza de dependencias aleatorias por ShuffleCleanupMode
- SPARK-45501 Uso de la coincidencia de patrones para la comprobación y conversión de tipos
-
SPARK-45515 Usar expresiones mejoradas
switchpara reemplazar la instrucción regularswitch - SPARK-47417 Compatibilidad con la intercalación: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences
- SPARK-47909 Clase DataFrame primaria para Spark Connect y Spark classic
- SPARK-47602 Core/MLLib/Resource Managers: migración de registro estructurado
- SPARK-47390 PostgresDialect distingue TIMESTAMP de TIMESTAMP_TZ
- SPARK-47868 Corrección del error de límite de recursividad en SparkConnectPlanner y SparkSession
-
SPARK-45802 Quitar las comprobaciones de Java que ya no son necesarias
majorVersion - SPARK-47818 Introducir caché de plan en SparkConnectPlanner para mejorar el rendimiento de las solicitudes de análisis
-
SPARK-46031 Reemplazar por
!Optional.isPresent()Optional.isEmpty() -
SPARK-45659 Agregar
sincecampo a la API de Java marcada como@Deprecated - SPARK-45596 Use java.lang.ref.Cleaner en lugar de org.apache.spark.sql.connect.client.util.Cleaner
- SPARK-47807 Hacer que pyspark.ml sea compatible con pyspark-connect
-
SPARK-45830 Refactorización
StorageUtils#bufferCleaner -
SPARK-45578 Sustitución del uso de
InaccessibleObjectExceptionportrySetAccessible - SPARK-44895 Agregar "demonio", "prioridad" para ThreadStackTrace
- SPARK-45295 Eliminar la solución alternativa de Utils.isMemberClass para JDK 8
- SPARK-47081 Soporte para el progreso de ejecución de consultas
- SPARK-45322 Usar ProcessHandle para obtener el PID directamente
- SPARK-46812 Hacer que mapInPandas/mapInArrow admitan ResourceProfile
- SPARK-47406 Controlar TIMESTAMP y DATETIME en MYSQLDialect
- SPARK-47712 Permitir que los complementos de conexión creen y procesen conjuntos de datos
-
SPARK-47720 Actualización
spark.speculation.multipliera 3 yspark.speculation.quantilea 0.9 - SPARK-47665 Uso de SMALLINT para escribir ShortType en MYSQL
- SPARK-47722 Espere hasta que finalice el trabajo en segundo plano de RocksDB antes de cerrar
-
SPARK-47610 Establecer siempre
io.netty.tryReflectionSetAccessible=true - SPARK-47372 Adición de compatibilidad con el codificador de estado de clave basado en análisis de intervalos para su uso con el proveedor del almacén de estado
- SPARK-44708 Migración de test_reset_index assert_eq para usar assertDataFrameEqual
- SPARK-47346 Hacer que el modo de demonio sea configurable al crear trabajos de Python Planner
-
SPARK-47419 Mover
log4j2-defaults.propertiesacommon/utils - SPARK-47380 Asegúrese en el lado del servidor de que la SparkSession sea la misma
- SPARK-47055 Actualizar MyPy 1.8.0
-
SPARK-46795 Reemplazar
UnsupportedOperationExceptionporSparkUnsupportedOperationExceptionensql/core -
SPARK-46648 Uso
zstdcomo compresión ORC predeterminada -
SPARK-47322 Asegurar que el manejo de la duplicación de nombres de columna
withColumnsRenamedsea coherente conwithColumnRenamed -
SPARK-47011 Eliminar funcionalidad obsoleta
BinaryClassificationMetrics.scoreLabelsWeight -
SPARK-46332 Migración
CatalogNotFoundExceptiona la clase de errorCATALOG_NOT_FOUND - SPARK-46975 Compatibilidad con métodos de respaldo dedicados
-
SPARK-47069 Introducción
spark.profile.show/dumpa la generación de perfiles basada en SparkSession - SPARK-47062 Traslado de complementos de Conexión a Java para compatibilidad
- SPARK-46833 Intercalaciones: introducción a CollationFactory, que proporciona reglas de comparación y hash para intercalaciones admitidas
- SPARK-46984 Quitar pyspark.copy_func
- SPARK-46849 Ejecutar el optimizador en CREATE TABLE los valores predeterminados de columna
-
SPARK-46976 Implementar
DataFrameGroupBy.corr - SPARK-46911 Añadir el operador deleteIfExists a StatefulProcessorHandleImpl
-
SPARK-46955 Implementar
Frame.to_stata -
SPARK-46936 Implementar
Frame.to_feather -
SPARK-46655 Omitir la captura del contexto de consulta en métodos
DataFrame -
SPARK-46926 Agregar
convert_dtypes,infer_objectsyset_axisen la lista de respaldo - SPARK-46683 Escribir un generador de subconsultas que genere permutaciones de subconsultas para aumentar la cobertura de pruebas
-
SPARK-46777 Refactorización
StreamingDataSourceV2Relationde la estructura del catalizador para ser más a la par con la versión por lotes - SPARK-46620 Introducir un mecanismo de reserva básico para los métodos de marco
- SPARK-46808 Refinar las clases de error en Python con la función de ordenación automática
- SPARK-46686 Compatibilidad básica con el generador de perfiles de UDF de Python basado en SparkSession
-
SPARK-46258 Agregar
RocksDBPersistenceEngine -
SPARK-46665 Eliminar
assertPandasOnSparkEqual -
SPARK-46227 Pasar
withSQLConfdeSQLHelperaSQLConfHelper - SPARK-40876 Ampliación de promociones de tipos en los lectores de Parquet
- SPARK-46101 Reduzca la profundidad de la pila reemplazando (string|array).size por (string|array).length
- SPARK-46170 Admitir la inserción de reglas de estrategia de planificación posterior de consultas adaptativas en SparkSessionExtensions
- SPARK-46246EXECUTE IMMEDIATE Compatibilidad con SQL
- SPARK-46466 El lector de parquet vectorizado nunca debe fusionarse mediante cambio de base para la marca de tiempo ntz.
- SPARK-46399 Añadir el estado de salida al evento Application End para utilizar con el Listener de Spark
- SPARK-45506 Adición de compatibilidad con URI de ivy a SparkConnect addArtifact
- SPARK-45597 Compatibilidad con la creación de tablas mediante un origen de datos de Python en SQL (exec DSv2)
- SPARK-46402 Adición de compatibilidad con getMessageParameters y getQueryContext
-
SPARK-46213 Introducir
PySparkImportErroren el marco de gestión de errores -
SPARK-46226 Migración del resto
RuntimeErroral marco de errores de PySpark -
SPARK-45886 Mostrar la traza completa de la pila en
callSiteel contexto de DataFrame - SPARK-46256 Compatibilidad con compresión paralela para ZSTD
- SPARK-46249 Requerir bloqueo de instancia para adquirir métricas de RocksDB para evitar la carrera con operaciones en segundo plano.
-
SPARK-45667 Limpiar el uso de la API en desuso relacionado con
IterableOnceExtensionMethods - SPARK-46254 Eliminación de la comprobación de versiones obsoletas de Python 3.8/3.7
-
SPARK-46213 Introducir
PySparkImportErroren el marco de gestión de errores - SPARK-46188 Corrección del CSS de las tablas generadas del documento de Spark
-
SPARK-45670 SparkSubmit no admite
--total-executor-coresal implementar en K8s -
SPARK-46169 Asignación de números JIRA adecuados para los parámetros que faltan desde la
DataFrameAPI - SPARK-45022 Proporcionar contexto para errores de API de conjuntos de datos
- SPARK-46062 Sincronizar el indicador isStreaming entre la definición de CTE y la referencia
-
SPARK-45698 Limpiar el uso de la API en desuso relacionado con
Buffer - SPARK-45136 Mejorar la compatibilidad con ClosureCleaner con Ammonite.
- SPARK-44442 Eliminación de la compatibilidad con Mesos
- SPARK-45996 Mostrar mensajes de requisitos de dependencia adecuados para Spark Connect
-
SPARK-45767 Eliminar
TimeStampedHashMapy su UT - SPARK-45912 Mejora de la API XSDToSchema: cambio a la API de HDFS para la accesibilidad del almacenamiento en la nube
-
SPARK-45338 Reemplazar
scala.collection.JavaConvertersporscala.jdk.CollectionConverters - SPARK-45828 Eliminación del método en desuso en dsl
- SPARK-45718 Eliminar características obsoletas restantes de Pandas de Spark 3.4.0
-
SPARK-45990 Actualización
protobufa la versión 4.25.1 para admitirPython 3.11 -
SPARK-45941 Actualización
pandasa la versión 2.1.3 - SPARK-45555 Incluye un objeto depurable para una afirmación fallida
- SPARK-45710 Asignar nombres al error _LEGACY_ERROR_TEMP_21[59,60,61,62]
- SPARK-45733 Compatibilidad con varias directivas de reintento
- SPARK-45503 Adición de Conf para establecer la compresión de RocksDB
- SPARK-45614 Asignar nombres al error _LEGACY_ERROR_TEMP_215[6,7,8]
- SPARK-45680 Sesión de lanzamiento
- SPARK-45620 Corrección de las API orientadas al usuario relacionadas con el UDTF de Python para usar camelCase
-
SPARK-45634 Eliminar
DataFrame.get_dtype_countsde la API de Pandas en Spark - SPARK-44752 XML: Actualización de la documentación de Spark
- SPARK-45523 Devuelve un mensaje de error útil si UDTF devuelve None para cualquier columna que no acepta valores NULL.
- SPARK-45558 Introducción de un archivo de metadatos para el operador con estado de streaming
-
SPARK-45390 Eliminar el uso de
distutils - SPARK-45517 Expansión de más constructores de excepciones para admitir parámetros del marco de error
- SPARK-45427 Adición de la configuración ssl de RPC a SSLOptions y SparkTransportConf
- SPARK-45581 Haga que SQLSTATE sea obligatorio.
- SPARK-44784 Hacer que las pruebas en SBT sean aisladas.
- SPARK-45550 Eliminación de las API en desuso de la API de Pandas en Spark
- SPARK-45415 Permitir la deshabilitación selectiva de "fallocate" en el almacén de estados de RocksDB
- SPARK-45487 Corrección de errores de SQLSTATEs y temp
- SPARK-45505 Refactorización de analyzeInPython para que sea reutilizable
- SPARK-45451 Hacer que el nivel de almacenamiento predeterminado de la caché del conjunto de datos sea configurable
- SPARK-45065 Compatibilidad con Pandas 2.1.0
- SPARK-45450 Corrección de importaciones según PEP8: pyspark.pandas y pyspark (núcleo)
- SPARK-43299 Conversión de StreamingQueryException en el cliente de Scala
-
SPARK-42617 Compatibilidad
isocalendarcon pandas 2.0.0 - SPARK-45441 Introducción de más funciones de utilidad para PythonWorkerUtils
- SPARK-43620 Corrección de las API de Pandas depende de características no admitidas
- SPARK-45330 Actualizar ammonite a 2.5.11
- SPARK-45267 Cambie el valor predeterminado de numeric_only.
- SPARK-45303 Eliminación de la solución alternativa JDK 8/11 en KryoSerializerBenchmark
- SPARK-43433 Alinear el comportamiento con la versión más reciente de Pandas
-
SPARK-45166 Limpiar rutas de código sin usar para
pyarrow<4 - SPARK-44823 Actualice black a 23.9.1 y corrija la comprobación errónea.
-
SPARK-45165 Eliminación
inplacedel parámetro de lasCategoricalIndexAPI -
SPARK-45180 Eliminar entradas booleanas para el
inclusiveparámetro deSeries.between -
SPARK-45164 Eliminación de API en desuso
Index - SPARK-45179 Aumento de la versión mínima de Numpy a la versión 1.21
-
SPARK-45177 Quitar
col_spaceparámetro deto_latex -
SPARK-43241
MultiIndex.appendno verifica la igualdad de los nombres -
SPARK-43123 Generar
TypeErrorparaDataFrame.interpolatecuando todas las columnas son de tipo objeto. -
SPARK-43295 Compatibilidad de columnas de tipo cadena para
DataFrameGroupBy.sum -
SPARK-42619 Agregar
show_countsparámetro para DataFrame.info - SPARK-44863 Añadir un botón para descargar el volcado de subprocesos como archivo de texto en la interfaz de usuario de Spark
- SPARK-44713 Traslado de clases compartidas a sql/api
- SPARK-44692 Mover desencadenador(es) a sql/api
-
SPARK-43563 Quite
squeezederead_csvy habilite más pruebas. -
SPARK-43476 Compatibilidad con
StringMethodspandas 2.0.0 y versiones posteriores -
SPARK-43872 Compatibilidad
(DataFrame|Series).plotcon pandas 2.0.0 y versiones posteriores. -
SPARK-42620 Agregar
inclusiveparámetro para (DataFrame|Serie).between_time -
SPARK-44289 Compatibilidad
indexer_between_timecon pandas 2.0.0 y habilitación de más pruebas. - SPARK-42621 Adición de un parámetro inclusivo para pd.date_range
-
SPARK-43709 Eliminar
closedel parámetro deps.date_rangey habilitar la prueba. -
SPARK-43568 Soporte de API
Categoricalpara pandas 2 - SPARK-44842 Admite funciones de estadísticas para pandas 2.0.0 y habilitación de pruebas.
-
SPARK-43606 Quitar
Int64IndexyFloat64Index -
SPARK-43873 Habilitar
FrameDescribeTests -
SPARK-44841 Compatibilidad
value_countscon pandas 2.0.0 y versiones posteriores. - SPARK-44686 Agregue la capacidad de crear un rowEncoder en Encoders.scala.
- SPARK-41400 Eliminación de la dependencia de Connect Client Catalyst
- SPARK-44538 Restablecer Row.jsonValue y funciones relacionadas
- SPARK-44507 Mover AnalysisException a sql/api
- SPARK-44531 Traslado de la inferencia del codificador a sql/api
- SPARK-43744 Corrección del problema de carga de clases causado por clases de usuario stubs no encontradas en el classpath del servidor
- SPARK-36612 Soporte para construir la combinación externa izquierda o construir la combinación externa derecha en la combinación hash aleatoria
-
SPARK-44541 Quitar función
hasRangeExprAgainstEventTimeColinútil deUnsupportedOperationChecker - SPARK-44059 Adición de compatibilidad con analizadores de argumentos con nombre para funciones integradas
- SPARK-44216 Hacer que assertSchemaEqual API sea pública
- SPARK-43755 Mover la ejecución fuera de SparkExecutePlanStreamHandler y a otro subproceso
- SPARK-44201 Adición de compatibilidad con el agente de escucha de streaming en Scala para Spark Connect
- SPARK-43965 Compatibilidad con UDTF de Python en Spark Connect
- SPARK-44398 Scala foreachBatch API
- SPARK-44044 Mejorar el mensaje de error para las funciones de ventana con streaming
Compatibilidad con el controlador ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 17.0.
Entorno del sistema
- sistema operativo: Ubuntu 24.04.2 LTS
- Java: Zulu17.54+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Bibliotecas de Python instaladas
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | arrow | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| autocommand | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | azure-storage-file-datalake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | black | 24.10.0 |
| bleach | 6.2.0 | blinker | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| click | 8.1.7 | cloudpickle | 3.0.0 | comm | 0.2.1 |
| contourpy | 1.3.1 | cryptography | 43.0.3 | cycler | 0.11.0 |
| Cython | 3.0.12 | databricks-sdk | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorator | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | docstring-to-markdown | 0.11 |
| executing | 0.8.3 | facets-overview | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | filelock | 3.18.0 | fonttools | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| google-cloud-core | 2.4.3 | google-cloud-storage | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifications | 2023.7.1 | jupyter-events | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 2.22.0 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions | 0.53b1 | overrides | 7.4.0 | packaging | 24.1 |
| pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| pillow | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referencing | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| rope | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | starlette | 0.46.2 |
| statsmodels | 0.14.4 | strictyaml | 1.7.3 | tenacity | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unattended-upgrades | 0.1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | webencodings | 0.5.1 |
| websocket-client | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | wrapt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de paquetes dePositiv en 2025-03-20.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| arrow | 19.0.1 | askpass | 1.2.1 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.7 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | chron | 2.3-62 |
| class | 7.3-22 | cli | 3.6.4 | clipr | 0.8.0 |
| clock | 0.7.2 | cluster | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.5 | compiler | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | credentials | 2.0.2 | curl | 6.2.1 |
| data.table | 1.17.0 | datasets | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | ellipsis | 0.3.2 | evaluate | 1.0.3 |
| fansi | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.5 |
| future | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| generics | 0.1.3 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | glue | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| graphics | 4.4.2 | grDevices | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | hardhat | 1.4.1 | haven | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.50 | labeling | 0.4.3 |
| later | 1.4.1 | lattice | 0.22-5 | lava | 1.8.1 |
| lifecycle | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | methods | 4.4.2 |
| mgcv | 1.9-1 | mime | 0.13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.3.2 | parallel | 4.4.2 |
| parallelly | 1.42.0 | pillar | 1.10.1 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | progress | 1.2.3 |
| progressr | 0.15.1 | promises | 1.3.2 | proto | 1.0.0 |
| proxy | 0.4-27 | ps | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reactable | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl | 1.4.5 |
| recipes | 1.2.0 | rematch | 2.0.0 | rematch2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.5 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.3 |
| shape | 1.4.6.1 | shiny | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.0 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | stats | 4.4.2 | stats4 | 4.4.2 |
| stringi | 1.8.4 | stringr | 1.5.1 | survival | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | textshaping | 1.0.0 |
| tibble | 3.2.1 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | timechange | 0.3.0 | timeDate | 4041.110 |
| tinytex | 0.56 | tools | 4.4.2 | tzdb | 0.5.0 |
| urlchecker | 1.0.1 | usethis | 3.1.0 | utf8 | 1.2.4 |
| utils | 4.4.2 | uuid | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| waldo | 0.6.1 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)
| Identificador de grupo | Id. de artefacto | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | stream | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | classmate | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | caffeine | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | error_prone_annotations | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | guava | 33.4.0-jre |
| com.google.guava | listenablefuture | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.0 |
| io.dropwizard.metrics | metrics-annotation | 4.2.30 |
| io.dropwizard.metrics | metrics-core | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | metrics-servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | collector | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | arrow-vector | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.13.0 |
| org.apache.curator | curator-client | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | curator-recipes | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-webapp | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest-compatible | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Tip
Para ver las notas de las versiones de Databricks Runtime que han llegado al fin de soporte (EoS), consulte las Notas de lanzamiento de fin de soporte de Databricks Runtime. Las versiones de EoS Databricks Runtime se han retirado y es posible que no se actualicen.