Compartilhar via


Databricks Runtime 17.1

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 17.1, alimentado pelo Apache Spark 4.0.0.

O Azure Databricks lançou esta versão em agosto de 2025.

Dica

Para ver as notas de release das versões do Databricks Runtime que atingiram o fim do suporte (EoS), confira Notas de release do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.

Novos recursos e melhorias

Expressões SQL espaciais expandidas e tipos de dados GEOMETRY e GEOGRAPHY

Agora você pode armazenar dados geoespaciais em GEOMETRY colunas internas e GEOGRAPHY para melhorar o desempenho de consultas espaciais. Esta versão adiciona mais de 80 novas expressões SQL espaciais, incluindo funções para importar, exportar, medir, construir, editar, validar, transformar e determinar relações topológicas com junções espaciais. Consulte funções geoespaciais st, GEOGRAPHY tipo e GEOMETRY tipo.

GA (expressões de tabela comuns recursivas)

As expressões de tabela comuns recursivas (rCTEs) agora estão disponíveis em geral. Use rCTEs para explorar dados hierárquicos com uma CTE de autorreferência e para seguir relações recursivas.

Funções de Tabela Definidas pelo Usuário em Python (UDTFs) do Catálogo Unity

Agora você pode registrar UDTFs do Python no Catálogo do Unity para governança centralizada e lógica reutilizável em consultas SQL. Consulte UDTFs (funções de tabela definidas pelo usuário) do Python no Catálogo do Unity.

Suporte para ordenação padrão de esquema e nível de catálogo

Agora você pode definir uma ordenação padrão para esquemas e catálogos no Databricks Runtime 17.1. Isso permite que você defina uma ordenação que se aplique a todos os objetos criados no esquema ou catálogo, garantindo um comportamento de ordenação consistente entre seus dados.

Ambiente de execução de isolamento compartilhado para UDFs do Python do Catálogo do Batch Unity

UDFs do Python do Catálogo do Unity do Lote com o mesmo proprietário agora podem compartilhar um ambiente de isolamento por padrão. Isso pode melhorar o desempenho e reduzir o uso de memória reduzindo o número de ambientes separados que precisam ser iniciados.

Para garantir que uma UDF sempre seja executada em um ambiente totalmente isolado, adicione a STRICT ISOLATION cláusula característica. Consulte isolamento de ambiente.

Melhor manipulação de opções JSON com VARIANT

As funções from_json e to_json agora aplicam corretamente as opções JSON ao trabalhar com esquemas VARIANT de nível superior. Isso garante um comportamento consistente com outros tipos de dados com suporte.

display() dá suporte ao modo de Streaming Real-Time.

Você pode usar a função display() com consultas de streaming que usam um gatilho em tempo real. Nesse modo, display() usa o modo de saída update automaticamente e evita a adição de uma cláusula LIMIT, que não tem suporte com update. O intervalo de atualização da tela também é dissociado da duração do lote para melhorar o suporte à interação em tempo real.

A fonte de taxa dá suporte ao Modo Real-Time de Streaming

A fonte de taxa de dados no fluxo estruturado agora funciona com gatilhos em tempo real, permitindo a geração contínua de dados para pipelines de streaming usando o Modo de Streaming Real-Time.

Temporizadores de eventos com suporte para janelas baseadas em tempo

O Azure Databricks dá suporte a gatilhos baseados no tempo do evento para operações de janelas temporais no Modo Real-Time de Streaming. Isso permite uma manipulação mais precisa de dados atrasados e do marcador de tempo, em consultas de streaming de tempo real.

UDFs escalares do Python dão suporte a credenciais de serviço

UDFs escalares do Python podem usar credenciais de serviço do Catálogo do Unity para acessar com segurança serviços de nuvem externos. Isso é útil para integrar operações como tokens baseados em nuvem, criptografia ou gerenciamento de segredos diretamente em suas transformações de dados.

Listagem de esquema aprimorada

O conector Snowflake usa a INFORMATION_SCHEMA tabela em vez do SHOW SCHEMAS comando para listar esquemas. Essa alteração remove o limite de 10.000 esquemas da abordagem anterior e melhora o suporte para bancos de dados com um grande número de esquemas.

Mapeamento aprimorado de colunas de string em gravações do Redshift

Ao escrever tabelas no Redshift usando spark.writecolunas de cadeia de caracteres sem um comprimento explícito são mapeadas VARCHAR(MAX) em vez de TEXT. Isso evita o comportamento padrão do Redshift de interpretar TEXT como VARCHAR(256), o que pode causar erros ao gravar cadeias de caracteres mais longas.

Suporte para DDL, SHOW e DESCRIBE em tabelas controladas pelo acesso

Comandos SQL, como DDL, SHOWe DESCRIBE agora são executados em tabelas refinadas controladas por acesso usando clusters dedicados. Quando necessário para impor controles de acesso, o Azure Databricks roteia esses comandos por meio de computação sem servidor, assim como faz para leituras, mesclagens e acréscimos. Consulte Suporte para DDL, SHOW, DESCRIBE e outros comandos.

Redução do uso de memória para esquemas largos no gravador de fótons

Foram feitas melhorias no mecanismo photon que reduzem significativamente o uso de memória para esquemas largos, abordando cenários que anteriormente resultavam em erros de memória insuficiente.

Suporte para TIMESTAMP SEM sintaxe DE FUSO HORÁRIO

Agora você pode especificar TIMESTAMP WITHOUT TIME ZONE em vez de TIMESTAMP_NTZ. Essa alteração melhora a compatibilidade com o SQL Standard.

Alterações comportamentais

Resolvido problema de correlação de subconsulta

O Azure Databricks não correlaciona mais incorretamente expressões agregadas semanticamente iguais entre uma subconsulta e sua consulta externa. Anteriormente, isso poderia levar a resultados de consulta incorretos.

Literais NTZ de carimbo de data/hora não são mais empurrados para baixo

Para o conector Snowflake e a Federação Snowflake Lakehouse, TIMESTAMP_NTZ literais (carimbo de data/hora sem fuso horário) não são mais empurrados para Snowflake. Essa alteração impede falhas de consulta causadas pelo tratamento incompatível de timestamp e melhora a confiabilidade das consultas afetadas.

Erro gerado para restrições inválidas CHECK

O Azure Databricks agora lança um AnalysisException se uma expressão de restrição CHECK não puder ser resolvida durante a validação da restrição.

O conector Pulsar não expõe mais o Bouncy Castle

A biblioteca Bouncy Castle agora está sombreada no conector Pulsar para evitar conflitos de classpath. Como resultado, os trabalhos do Spark não podem mais acessar classes org.bouncycastle.* do conector. Se o código do aplicativo depender do Bouncy Castle, instale a biblioteca manualmente no cluster.

O Carregador Automático usa eventos de arquivo por padrão, se disponível

O Carregador Automático usa eventos de arquivo em vez de listagem de diretório quando o caminho de carga é um local externo com eventos de arquivo habilitados. O padrão é useManagedFileEvents agora if_available (era false). Isso pode melhorar o desempenho da ingestão e registrar um aviso se os eventos de arquivo ainda não estiverem habilitados.

Propriedades da tabela interna filtradas de SHOW CREATE TABLE

SHOW CREATE TABLE não inclui mais propriedades internas que não podem ser definidas manualmente ou passadas para CREATE TABLE. Isso reduz a confusão e alinha a saída com opções configuráveis pelo usuário.

Regras mais rigorosas para junções de fluxo de fluxo no modo de acréscimo

O Azure Databricks agora não permite que consultas de streaming no modo de acréscimo usem uma junção de fluxo de fluxo seguida de agregação de janela, a menos que as marcas d'água sejam definidas em ambos os lados. Consultas sem marcas d'água adequadas podem produzir resultados não finais, violando garantias de modo de acréscimo.

Conector teradata corrige comparação de cadeia de caracteres que diferencia maiúsculas de minúsculas

O conector do Teradata agora usa como padrão alinhar o comportamento de comparação de cadeias de caracteres com o Azure Databricks, tornando-o sensível a TMODE=ANSImaiúsculas de minúsculas. Essa alteração é configurável e não afeta os usuários existentes, a menos que eles optem.

Atualizações de biblioteca

  • Bibliotecas do Python atualizadas:

    • google-auth da versão 2.40.1 para 2.40.0
    • mlflow-skinny de 3.0.0 a 3.0.1
    • opentelemetry-api de 1.33.0 para 1.32.1
    • opentelemetry-sdk de 1.33.0 para 1.32.1
    • opentelemetry-semantic-conventions from 0.54b0 a 0.53b1
    • packaging de 24.1 para 24.2
    • pip de 24.2 a 25.0.1
  • Bibliotecas R atualizadas:

  • cli de 3.6.4 a 3.6.5

  • curl de 6.2.1 a 6.4.0

  • genéricos de 0.1.3 a 0.1.4

  • global de 0,16.3 a 0.18.0

  • openssl de 2.3.2 a 2.3.3

  • pilar de 1.10.1 a 1.11.0

  • rlang de 1.1.5 a 1.1.6

  • sparklyr de 1.9.0 a 1.9.1

  • stringi de 1.8.4 a 1.8.7

  • tibble de 3.2.1 a 3.3.0

  • utf8 de 1.2.4 a 1.2.6

  • Bibliotecas Java atualizadas:

    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 2.4.1-linux-x86_64 para 2.5.0-linux-x86_64

Apache Spark

O Databricks Runtime 17.1 inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão 17.0, bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:

  • SPARK-52721 Corrigir o parâmetro de mensagem para CANNOT_PARSE_DATATYPE
  • SPARK-51919 Permitir sobrescrever fonte de dados de Python registrada estaticamente
  • SPARK-52632 Reverter: nós de plano de gravação V2 de exibição bonita
  • SPARK-52715 Cadeia de caracteres Pretty SQL de TIME - DAY-TIME INTERVAL
  • SPARK-51268 Tornar o TreeNode sem bloqueio
  • SPARK-52701 Corrigir a ampliação de tipo float32 em mod com bool em ANSI
  • SPARK-52563 Corrigir o bug de nomenclatura da variável no _assert_pandas_almost_equal
  • SPARK-52541 Adicionar guia de programação para Pipelines Declarativos
  • SPARK-51695 Corrigir falhas de teste causadas pela alteração da sintaxe CHECK CONSTRAINT
  • SPARK-52666 Mapear tipo definido pelo usuário para corrigir MutableValue em SpecificInternalRow
  • SPARK-52660 Adicionar tipo de tempo ao CodeGenerator#javaClass
  • SPARK-52693 Suporte a intervalos diurnos de +/- ANSI de/para TIME
  • SPARK-52705 Refatorar verificação determinística para expressões de agrupamento
  • SPARK-52699 Suporte à agregação do tipo TIME no modo interpretado
  • SPARK-52503 Corrigir a queda quando a coluna de entrada não existir
  • SPARK-52535 Melhorar a legibilidade de código da regra ApplyColumnarRulesAndInsertTransitions
  • SPARK-52551 Adicionar um novo predicado de v2 BOOLEAN_EXPRESSION
  • SPARK-52698 Reverter: aprimorar dicas de tipo para o módulo de fonte de dados
  • SPARK-52684 Tornar CACHE TABLE os comandos atômicos ao encontrar erros de execução
  • SPARK-52671 RowEncoder não deve pesquisar uma UDT resolvida
  • SPARK-52670 Tornar o HiveResult compatível com UserDefinedType#stringifyValue
  • SPARK-52692 Suporte ao cache do tipo TIME
  • SPARK-51516 Suporte a TIME pelo servidor Thrift
  • SPARK-52674 Limpar o uso de APIs preteridas relacionadas ao RandomStringUtils
  • SPARK-51428 Atribuir Aliases para árvores de expressão agrupadas deterministicamente
  • SPARK-52672 Não substitua expressões Classificar/Ter por aliases se a expressão existir em Agregação
  • SPARK-52618 Conversão de TIME(n) para TIME(m)
  • SPARK-52656 Corrigir current_time()
  • SPARK-52630 Reorganizar operador de streaming e o código de gerenciamento de estado e diretórios
  • SPARK-52649 Cortar aliases antes de corresponder a expressões Sort/Having/Filter no buildAggExprList
  • SPARK-52578 Adicionar métricas para linhas para acompanhar casos e ações em MergeRowsExec
  • SPARK-49428 Mover o cliente Connect Scala do conector para o SQL
  • SPARK-52494 Suporte à sintaxe do operador de sinal de dois-pontos para acessar campos Variant
  • SPARK-52642 Use daemonWorkers.get(worker) para evitar uma dessincronização inesperada entre idleWorkers e daemonWorkers
  • SPARK-52570 Ativar a operação de divisão por zero no rmod numérico quando ANSI estiver habilitado
  • SPARK-52633 Deduplicar a saída filho única da União antes de DeduplicateRelations
  • SPARK-52600 Mover *CompletionIterator* para *common/utils*
  • SPARK-52626 Permitir agrupamento pelo tipo de hora
  • SPARK-52395 Falha na tarefa do redutor imediatamente quando a solicitação de busca do Prism falha
  • SPARK-52596 Tente fazer TIMESTAMP_NTZ de DATE e TIME
  • SPARK-52595 Renomear a expressão TimeAdd para TimestampAddInterval
  • SPARK-52586 Apresentar AnyTimeType
  • SPARK-52583 Adicionar a API do Desenvolvedor para stringifying values in UserDefinedType
  • SPARK-52354 Adicionar coerção de tipo ao UnionLoop
  • SPARK-52579 Definir despejo de rastreio periódico para trabalhadores do Python
  • SPARK-52456 Reduzir o limite mínimo de spark.eventLog.rolling.maxFileSize
  • SPARK-52536 Definir o diretório de extração do AsyncProfilerLoader para o diretório local do Spark.
  • SPARK-52405 Estender V2JDBCTest para testar a leitura de várias partições
  • SPARK-52303 Promover ExternalCommandRunner para Estável
  • SPARK-52572 Evite CAST_INVALID_INPUT de DataFrame.isin no modo ANSI
  • SPARK-52349 Habilitar testes de divisão booliana com ANSI habilitado
  • SPARK-52402 Corrigir erros de divisão por zero na correlação de Kendall e Pearson no modo ANSI
  • SPARK-52356 Permitir divisão por zero para mod/rmod booleano com ANSI habilitado
  • SPARK-52288 Evite INVALID_ARRAY_INDEX em divisão/rsplit quando o modo ANSI estiver ativado
  • SPARK-52557 Evite CAST_INVALID_INPUT de to_numeric(errors='coerce') no modo ANSI
  • SPARK-52440 Adicionar o extra de instalação do Python para pipelines declarativos
  • SPARK-52569 Corrigir a exceção de conversão de classe em SecondsOfTimeWithFraction
  • SPARK-52540 Criar TIMESTAMP_NTZ a partir de DATE e TIME
  • SPARK-52539 Introduzir ganchos de sessão
  • SPARK-52554 Evitar várias viagens de ida e volta para verificação de configuração no Spark Connect
  • SPARK-52553 Corrigir NumberFormatException ao ler o changelog v1
  • SPARK-52534 Tornar o MLCache e o MLHandler thread-safe
  • SPARK-52460 Armazenar valores de TEMPO internos como nanossegundos
  • SPARK-52482 Suporte do ZStandard para leitor de fonte de dados de arquivo
  • SPARK-52531 OuterReference na agregação de subconsulta está incorretamente vinculada à agregação de consulta externa
  • SPARK-52339 Correção da comparação de instâncias InMemoryFileIndex
  • SPARK-52418 Adicione uma variável de estado noElements ao PercentileHeap para evitar cálculos repetitivos de isEmpty()
  • SPARK-52537 Imprimir stacktrace ao falhar na criação do diretório temporário
  • SPARK-52462 Aplicar coerção de tipo antes da deduplicação da saída de filhos na União
  • SPARK-52528 Habilitar divisão por zero para mod numérico com ANSI habilitado
  • SPARK-52458 Suporte a spark.eventLog.excludedPatterns
  • SPARK-52493 Dar suporte ao TIMESTAMP WITHOUT TIME ZONE
  • SPARK-51563 Suporte ao nome totalmente qualificado do tipo TIME(n) WITHOUT TIME ZONE
  • SPARK-52450 Melhorar a performance da cópia profunda de esquema
  • SPARK-52519 Habilitar divisão por zero para floordiv numérico com ANSI habilitado
  • SPARK-52489 Impedir que existam manipuladores SQLEXCEPTION e NOT FOUND duplicados dentro do script SQL.
  • SPARK-52488 Remover alias antes de encapsular referências externas em HAVING
  • SPARK-52383 Melhorar erros no SparkConnectPlanner
  • SPARK-52335 Unificar o erro de contagem de bucket inválido para Connect e Classic
  • SPARK-52337 Tornar InvalidPlanInput um erro voltado para o usuário
  • SPARK-52312 Ignorar V2WriteCommand ao armazenar dataframe em cache
  • SPARK-52487 Adicionar tempo de envio e duração do estágio aos detalhes da página StagePage
  • SPARK-52433 Unificar a coerção de cadeia de caracteres em createDataFrame
  • SPARK-52427 Normalizar a lista de expressões agregadas coberta por um Projeto
  • SPARK-51745 Aplicar a máquina de estado para RocksDBStateStore
  • SPARK-52447 Transferir a normalização GetViewColumnByNameAndOrdinal para SessionCatalogSuite
  • SPARK-52397 ExecutePlan Idempotent: segundo ExecutePlan com o mesmo operationId e recolocações de plano
  • SPARK-52355 Inferir o tipo de objeto VariantVal como VariantType ao criar um DataFrame
  • SPARK-52425 Refatorar ExtractValue para reutilização na implementação de passagem única
  • SPARK-52249 Habilitar divisão por zero para truediv numérico com ANSI habilitado
  • SPARK-52228 Integrar o microbenchmark de interação de estado ao Quicksilver (TCP)
  • SPARK-48356 Aprimorar a inferência de esquema de coluna da instrução FOR
  • SPARK-48353 Melhorias no tratamento de exceções
  • SPARK-52060 Fazer nó OneRowRelationExec
  • SPARK-52391 Refatorar as funções TransformWithStateExec/vars na classe base para Scala e Python
  • SPARK-52218 Tornar as funções atuais de data e hora avaliáveis novamente
  • SPARK-52350 Corrigir link para o guia de programação do SS na versão 4.0
  • SPARK-52385 Remover TempResolvedColumns do nome InheritAnalysisRules
  • SPARK-52392 Nova funcionalidade do Analisador de passagem única
  • SPARK-52243 Adicionar suporte NERF para erros de "InvalidPlanInput" relacionados a esquemas
  • SPARK-52338 Herdar ordenação padrão do esquema para o modo de exibição
  • SPARK-52307 Suporte ao Iterador Arrow Escalar em UDF
  • SPARK-52300 Fazer com que a resolução UDTVF do SQL use configurações consistentes com a resolução de exibição
  • SPARK-52219 Suporte à ordenação no nível do esquema para tabelas
  • SPARK-52272 V2SessionCatalog não altera esquema no Catálogo do Hive
  • SPARK-51890 Adicionar options parâmetro ao Modo de Exibição de Plano Lógico
  • SPARK-51936 ReplaceTableAsSelect deve substituir a nova tabela em vez de acrescentar
  • SPARK-51302 O Spark Connect dá suporte a JDBC, deve usar a API DataFrameReader
  • SPARK-50137 Evitar fallback para maneiras incompatíveis do Hive na criação da tabela falha
  • SPARK-52184 Encapsular erros de sintaxe JDBC de mecanismos externos com uma exceção unificada
  • SPARK-47618 Utilizar o Magic Committer para todos os buckets S3 por padrão
  • SPARK-52305 Refinar a docstring para isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
  • SPARK-52174 Habilitar spark.checkpoint.compress por padrão
  • SPARK-52224 Introduzir o pyyaml como uma dependência para o cliente Python
  • SPARK-52233 Corrigir o map_zip_with para tipos de pontos flutuantes
  • SPARK-52036 Adicione a característica SQLConfHelper à v2. FileScan
  • SPARK-52159 Remover condição excessivamente ampla para o dialeto MariaDB
  • SPARK-50104 Adicionar suporte a SparkSession.executeCommand no Connect
  • SPARK-52240 Uso de índice de linha corrigido ao explodir matrizes empacotadas no leitor vetorizado
  • SPARK-52153 Corrigir from_json e to_json com variante
  • SPARK-48618 Aprimorar o teste de inexistência para verificar nomes em 3 partes e 2 partes
  • SPARK-52216 Tornar InvalidCommandInput um erro voltado para o usuário
  • SPARK-52299 Substituir JsonNode.fields preterido
  • SPARK-52287 Aprimore o SparkContext para não preencher a configuração o.a.s.internal.io.cloud.* se não existir
  • SPARK-51430 Impedir que o agente de contexto do PySpark propague logs para stdout
  • SPARK-52278 UDF de seta escalar dá suporte a argumentos nomeados
  • SPARK-52026 Bloquear a API do Pandas no Spark no modo ANSI por padrão
  • SPARK-52171 Implementação de junção do StateDataSource para o estado v3
  • SPARK-52159 Tratar corretamente a verificação de existência de tabela para dialetos JDBC
  • SPARK-52158 Adicionar objeto InvalidInputErrors para centralizar erros no SparkConnectPlanner
  • SPARK-52195 Solucionar o problema de eliminação da coluna de estado inicial no Python TWS
  • SPARK-52211 Remover sufixo $ do log de INFORMAÇÕES do SparkConnectServer
  • SPARK-52239 Suporte para registrar uma UDF de seta
  • SPARK-52215 Implementar UDF de seta escalar
  • SPARK-52188 Correção para StateDataSource em que StreamExecution.RUN_ID_KEY não está definido
  • SPARK-52189 Novos testes de arquivo dourado para NATURAL JOIN com GROUP BY, HAVINGORDER BY e LCAs
  • SPARK-52079 Normalizar a ordem dos atributos em listas de projetos internas
  • SPARK-52234 Corrigir erro na entrada não cadeia de caracteres para schema_of_csv/xml
  • SPARK-52221 Refatorar SqlScriptingLocalVariableManager em um gerenciador de contexto mais genérico
  • SPARK-52181 Aumentar o limite de tamanho de variante para 128MiB
  • SPARK-52217 Ignorar a validação de referência externa em Filtrar no resolvedor de passagem única
  • SPARK-51260 Mover V2ExpressionBuilder e PushableExpression para o módulo Catalyst
  • SPARK-52156 Coloque CREATE TEMPORARY herdado TABLE ... Provedor USING sob o sinalizador
  • SPARK-51012 Remover SparkStrategy do Connect Shims
  • SPARK-52109 Adicionar a API listTableSummaries à API de Catálogo de Tabelas V2 da Fonte de Dados
  • SPARK-50915 Adicionar getCondition e preterir getErrorClass em PySparkException
  • SPARK-52022 Adicionar método de check-in padrão para SparkThrowable.getQueryContext
  • SPARK-51147 Refatorar classes relacionadas ao streaming para um diretório de streaming dedicado
  • SPARK-52120 Passar a sessão para ConnectHelper
  • SPARK-52021 Padrões de operador e expressão separados
  • SPARK-51722 Eliminar a origem "stop" de ParseException
  • SPARK-52096 Reclassificar erro de asserção de deslocamento da fonte Kafka
  • SPARK-51985 Remover Experimental do AccumulatorSource
  • SPARK-51156 Suporte à autenticação de token estático no Spark Connect
  • SPARK-52157 Use o nome calculado anteriormente para OuterReference no resolvedor de passagem única
  • SPARK-52100 Habilitar a substituição do limite de nível de recursão na sintaxe
  • SPARK-51605 Criar o diretório pai antes de tocar no logFile
  • SPARK-52127 Otimize o protocolo de MapState KEYS/ VALUES /ITERATOR para transformWithState no PySpark
  • SPARK-52040 ResolveLateralColumnAliasReference deve manter a ID do plano
  • SPARK-51638 Correção da busca de blocos RDD armazenados em disco remoto por meio do serviço de embaralhamento externo
  • SPARK-51983 Preparar o ambiente de teste para a API do Pandas no Spark com o modo ANSI habilitado
  • SPARK-52087 Adicionar a cópia de tags e origens a AliasHelper.trimNonTopLevelAliases
  • SPARK-51210 Adicionar --enable-native-access=ALL-UNNAMED às opções java para Java 24+
  • SPARK-52052 Adicionar .broadcast no objeto complementar de SerializableConfiguration
  • SPARK-51823 Adicionar configuração para não persistir o repositório de estado em executores
  • SPARK-51291 Reclassificar erros de validação gerados do carregamento do repositório de estado
  • SPARK-52006 Excluir o acumulador CollectMetricsExec da interface do usuário do Spark + logs de eventos + pulsações de métrica
  • SPARK-52076 Fecha explicitamente ExecutePlanResponseReattachableIterator após o uso
  • SPARK-51428 Atribuir Aliases para árvores de expressão agrupadas deterministicamente
  • SPARK-52079 Normalizar a ordem dos atributos em listas de projetos internas
  • SPARK-52033 Correção do bug Gerar nó em que a saída do nó filho pode ter várias cópias do mesmo atributo
  • SPARK-51428 Atribuir Aliases para árvores de expressão agrupadas deterministicamente
  • SPARK-52055 Suprime a exceção em ExecutePlanResponseReattachableIterator. del
  • SPARK-51921 Usar tipo longo para duração de TTL em milissegundos em transformWithState
  • SPARK-50763 Adicionar regra do Analisador para resolver funções de tabela SQL
  • SPARK-51884 Adicionar atributos de escopo externo para SubqueryExpression
  • SPARK-50762 Adicionar regra do Analisador para resolver UDFs escalares do SQL
  • SPARK-51814 Usa list(self) em vez de StructType.fields para compatibilidade de versão antiga
  • SPARK-51537 Construir o classloader específico da sessão com base no classloader de sessão padrão no executor
  • SPARK-50777 Remover métodos redundantes no-op init/destroy das classes Filter
  • SPARK-51691 SerializationDebugger deve engolir exceção ao tentar encontrar o motivo do problema de serialização
  • SPARK-51386 Atribuir nome a condições de erro _LEGACY_ERROR_TEMP_3300-3302
  • SPARK-50734 Adicionar API de catálogo para criar e registrar UDFs do SQL
  • SPARK-51989 Adicionar subclasses de filtro ausentes a todas as listas na fonte de dados
  • SPARK-52037 A ordem nas listas de projetos internos da LCA deve respeitar a ordem na lista de projetos original
  • SPARK-52007 Identificadores de expressão não devem estar presentes em expressões de grupo ao usar conjuntos de agrupamento
  • SPARK-51860 Desabilitar spark.connect.grpc.debug.enabled por padrão
  • SPARK-47952 Suporte à recuperação do endereço e da porta GRPC reais do SparkConnectService de forma programática durante a execução no Yarn
  • SPARK-50906 Adicionar uma verificação de nulidade para checar se as entradas de to_avro estão alinhadas com o esquema
  • Spark-50581 corrige o suporte para UDAF em Dataset.observe()
  • SPARK-49946 Exigir uma classe de erro no SparkOutOfMemoryError
  • SPARK-49748 Adicionar getCondition e preterir getErrorClass no SparkThrowable
  • SPARK-51959 Fazer com que as funções não importem ParentDataFrame
  • SPARK-51964 Resolver corretamente os atributos de saída oculta em ORDER BY e HAVING sobre uma agregação no analisador de passagem única
  • SPARK-49942 Renomear errorClass como condição em classifyException()
  • SPARK-51963 Simplificar IndexToString.transform
  • SPARK-51946 Falha impulsiva ao criar tabela de fonte de dados incompatível com o Hive com o nome de partição 'col'
  • SPARK-51553 Modificar EXTRACT para dar suporte ao tipo de dados TIME
  • SPARK-51891 Otimize o protocolo de ListState GET / PUT / APPENDLIST para uso com transformWithState no PySpark
  • SPARK-51931 Adicionar maxBytesPerOutputBatch para limitar o número de bytes do lote de saída do Arrow
  • SPARK-51441 Adicionar APIs DSv2 para restrições
  • SPARK-51814 Use RecordBatch.schema.names em vez de column_names para compatibilidade com o pyarrow antigo
  • SPARK-51913 JDBCTableCatalog#loadTable não deve gerar nenhum erro de tabela corretamente
  • SPARK-51840 Restaurar colunas de partição em HiveExternalCatalog#alterTable
  • SPARK-51414 Adicionar a função make_time()
  • SPARK-49700 Interface Scala unificada para o Connect e o Classic
  • SPARK-51914 Adicionar com.mysql.cj a spark.sql.hive.metastore.sharedPrefixes
  • SPARK-51827 Suporte para o Spark Connect no transformWithState do PySpark
  • SPARK-51901 Não permitir funções de gerador em conjuntos de agrupamento
  • SPARK-51423 Adicionar a função current_time() para o tipo de dados TIME
  • SPARK-51680 Definir o tipo lógico para TIME no gravador parquet
  • SPARK-51889 Corrigir um bug para MapState clear() no Python TWS
  • SPARK-51869 Criar classificação para erros de usuário em UDFs para Scala TransformWithState
  • SPARK-51878 Melhorar o fillDefaultValue executando a expressão padrão avaliada.
  • SPARK-51757 Correção do deslocamento da função LEAD/LAG quando excede o tamanho do grupo de janelas
  • SPARK-51805 Obter função com argumento inadequado deve gerar uma exceção adequada em vez de uma interna
  • SPARK-51900 Gerar corretamente incompatibilidade de tipo de dados no Analisador de passagem única
  • SPARK-51421 Obter segundos de tipos de dados TIME
  • SPARK-51661 Descoberta de partições dos valores da coluna TIME
  • SPARK-51687 Filtros de pushdown com valores TIME para Parquet
  • SPARK-51419 Obter horas de tipos de dados TIME
  • SPARK-51881 Tornar opções Avro comparáveis
  • SPARK-51861 Remover informações duplicadas/desnecessárias do Plano de Detalhes do InMemoryRelation
  • SPARK-51814 Introduzir uma nova transformação de APIWithState no PySpark
  • SPARK-51779 Usar famílias de colunas virtuais para junções fluxo a fluxo
  • SPARK-51649 Gravações/leituras dinâmicas de partições TIME
  • SPARK-51634 Suporte a TIME em vetores de coluna off-heap
  • SPARK-51877 Adicionar funções 'chr', 'random' e 'uuid'
  • SPARK-51610 Suporte aos tipos de dados TIME na fonte de dados parquet
  • SPARK-51420 Obter minutos dos tipos de dados TIME
  • SPARK-51822 Lançando erro classificado quando funções não permitidas são chamadas durante StatefulProcessor.init()
  • SPARK-51868 Mover a validação de coerção de tipos para um objeto separado
  • SPARK-49747 Migrar arquivos do módulo connect para registro estruturado

Suporte ao driver ODBC/JDBC do Azure Databricks

O Azure Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).

Atualizações de manutenção

Confira as atualizações de manutenção do Azure Databricks Runtime 17.1.

Ambiente do sistema

  • Sistema operacional: Ubuntu 24.04.2 LTS
  • Java: Zulu17.58+21-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Bibliotecas do Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 flecha 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 attrs 24.3.0
comando automático 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob 12.23.0 azure-storage-file-datalake 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 preto 24.10.0
bleach 6.2.0 blinker 1.7.0 boto3 1.36.2
botocore 1.36.3 ferramentas de cache 5.5.1 certificado 2025.1.31
cffi 1.17.1 chardet 4.0.0 normalizador de conjunto de caracteres 3.3.2
click 8.1.7 cloudpickle 3.0.0 comm 0.2.1
contourpy 1.3.1 criptografia 43.0.3 ciclista 0.11.0
Cython 3.0.12 databricks-sdk 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 decorador 5.1.1 defusedxml 0.7.1
Deprecado 1.2.13 distlib 0.3.9 docstring-to-markdown 0.11
em execução 0.8.3 Visão geral de facetas 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 bloqueio de arquivo 3.18.0 fonttools 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth (autenticação do Google) 2.40.0
google-cloud-core 2.4.3 armazenamento na nuvem do Google 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets (biblioteca Python para widgets interativos) 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
Especificações do JSON Schema 2023.7.1 eventos Jupyter 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 Servidor Jupyter 2.14.1
Terminais do servidor Jupyter 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-extensions 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
notebook 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
Convenções Semânticas do OpenTelemetry 0,53b1 substituições 7.4.0 empacotamento 24,2
Pandas 2.2.3 pandocfilters 1.5.0 parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
almofada 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 pluggy 1.5.0 prometheus_client 0.21.0
prompt-toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser 2.21
pydantic 2.10.6 pydantic_core 2.27.2 pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server (servidor LSP para Python) 1.12.0
pytoolconfig 1.2.6 pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 referência 0.30.2 Solicitações 2.32.3
rfc3339-validator 0.1.4 rfc3986-validator (validador de RFC 3986) 0.1.1 rico 13.9.4
rope 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy 1.15.1
seaborn 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
seis 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortedcontainers 2.4.0 soupsieve 2,5 sqlparse 0.5.3
ssh-import-id 5.11 stack-data 0.2.0 starlette 0.46.2
statsmodels (biblioteca para modelos estatísticos em Python) 0.14.4 strictyaml 1.7.3 tenacidade 9.0.0
terminado 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornado 6.4.2
traitlets 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
atualizações não supervisionadas 0,1 uri-template 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolors 24.11.1 codificações web 0.5.1
websocket-client (cliente WebSocket) 1.8.0 whatthepatch 1.0.2 wheel 0.45.1
widgetsnbextension 3.6.6 wrapt 1.17.0 yapf 0.40.2
zipp 3.21.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 2025-03-20.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
flecha 19.0.1 AskPass 1.2.1 afirme isso 0.2.1
backports 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit64 4.6.0-1
bitops 1.0-9 blob 1.2.4 ciar 1.3-30
brew 1.0-10 brio 1.1.5 broom 1.0.7
bslib 0.9.0 cachem 1.1.0 callr 3.7.6
sinal de interpolação 7.0-1 cellranger 1.1.0 chron 2.3-62
classe 7.3-22 CLI 3.6.5 clipr 0.8.0
relógio 0.7.2 cluster 2.1.6 codetools 0.2-20
espaço de cores 2.1-1 commonmark 1.9.5 compilador 4.4.2
configuração 0.3.2 conflituoso 1.2.0 cpp11 0.5.2
crayon 1.5.3 credenciais 2.0.2 curl 6.4.0
data.table 1.17.0 conjuntos de dados 4.4.2 DBI 1.2.3
dbplyr 2.5.0 Descrição 1.4.3 devtools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 hash 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 reticências 0.3.2 avaliar 1.0.3
fansi 1.0.6 cores 2.1.2 fastmap 1.2.0
fontawesome 0.5.3 forcats 1.0.0 foreach 1.5.2
estrangeiro 0.8 - 86 forge 0.2.0 fs 1.6.5
futuro 1.34.0 future.apply 1.11.3 gargle 1.5.2
genéricos 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 associar 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
Gráficos 4.4.2 grDevices 4.4.2 grade 4.4.2
gridExtra 2.3 gsubfn 0,7 gt 0.11.1
gtable 0.3.6 capacete de segurança 1.4.1 refúgio 2.5.4
highr 0.11 hms 1.1.3 ferramentas HTML 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1.50 rotulagem 0.4.3
posterior 1.4.1 treliça 0,22-5 lava vulcânica 1.8.1
ciclo de vida 1.0.4 listenv 0.9.1 lubridate 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matriz 1.6-5 memorização 2.0.1 Métodos 4.4.2
mgcv 1.9-1 mime 0.13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.3.3 parallel 4.4.2
parallelly 1.42.0 coluna 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 elogio 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 progresso 1.2.3
progressr 0.15.1 Promessas 1.3.2 proto 1.0.0
proxy 0.4-27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 capaz de reagir 0.4.4
reactR 0.6.1 readr 2.1.5 readxl 1.4.5
Receitas 1.2.0 jogo de revanche 2.0.0 revanche2 2.1.2
remotes 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
escalas 1.3.0 selectr 0.4-2 informações de sessão 1.2.3
forma 1.4.6.1 brilhante 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
espacial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 estatísticas 4.4.2 estatísticas4 4.4.2
stringi 1.8.7 stringr 1.5.1 sobrevivência 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 formatação de texto 1.0.0
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 mudança de horário 0.3.0 data e hora 4041.110
tinytex 0.56 Ferramentas 4.4.2 tzdb 0.5.0
verificador de URL 1.0.1 usethis 3.1.0 utf8 1.2.6
utils 4.4.2 identificador único universal (UUID) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 vroom 1.6.5
Waldo 0.6.1 whisker 0.4.1 withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.1.0
zip 2.3.2

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.13)

ID do grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws SDK Java para o ECS da AWS 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics fluxo 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.5.1
com.fasterxml.jackson.core Anotações do Jackson 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.datatype jackson-module-paranamer 2.18.2
com.fasterxml.jackson.datatype jackson-module-scala_2.13 2.18.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone anotações_propensas_a_erros 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava guava 33.4.0-jre
com.google.guava listenablefuture 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger criador de perfil 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi fansi 2.13 0.5.0
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe configuração 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 2.0.2
io.delta delta-sharing-client_2.13 1.3.3
io.dropwizard.metrics anotação de métricas 4.2.30
io.dropwizard.metrics metrics-core 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics métricas-verificações de saúde 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics metrics-jmx 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics metrics-servlets 4.2.30
io.github.java-diff-utils java-diff-utils 4,15
io.netty Netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx coletor 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant lançador de formigas 1.10.11
org.apache.arrow arrow-format 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow arrow-vector 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.13.0
org.apache.curator curator-client 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator curador de receitas 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby Dérbi 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive API de armazenamento do Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc formato ORC 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus anotações de público-alvo 0.13.0
org.apache.zookeeper zelador de zoológico 3.9.3
org.apache.zookeeper guarda de zoológico-juta 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty jetty-http 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty jetty-plus 9.4.53.v20231009
org.eclipse.jetty jetty-proxy 9.4.53.v20231009
org.eclipse.jetty jetty-security 9.4.53.v20231009
org.eclipse.jetty servidor jetty 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Jetty Webapp 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket API de WebSocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket servidor WebSocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalameta common_2.13 4.13.5
org.scalameta io_2.13 4.13.5
org.scalameta mdoc-parser_2.13 2.6.4
org.scalameta metaconfig-core_2.13 0.15.0
org.scalameta metaconfig-pprint_2.13 0.15.0
org.scalameta metaconfig-typesafe-config_2.13 0.15.0
org.scalameta parsers_2.13 4.13.5
org.scalameta scalafmt-config_2.13 3.9.6
org.scalameta scalafmt-core_2.13 3.9.6
org.scalameta scalafmt-macros_2.13 3.9.6
org.scalameta scalafmt-sysops_2.13 3.9.6
org.scalameta scalameta_2.13 4.13.5
org.scalameta trees_2.13 4.13.5
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatível com scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1,10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel paiges-core_2.13 0.4.4
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
stax stax-api 1.0.1

Dica

Para ver as notas de release das versões do Databricks Runtime que atingiram o fim do suporte (EoS), confira Notas de release do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.