Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 17.1, alimentado pelo Apache Spark 4.0.0.
O Azure Databricks lançou esta versão em agosto de 2025.
Dica
Para ver as notas de release das versões do Databricks Runtime que atingiram o fim do suporte (EoS), confira Notas de release do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Novos recursos e melhorias
- Expressões SQL espaciais expandidas e tipos de dados GEOMETRY e GEOGRAPHY
- GA (expressões de tabela comuns recursivas)
- Funções de Tabela Definidas pelo Usuário em Python no Catálogo do Unity (UDTFs)
- Suporte para ordenação padrão de nível de esquema e de catálogo
- Ambiente de execução de isolamento compartilhado para UDFs do Python do Catálogo do Batch Unity
-
Melhor manipulação de opções JSON com
VARIANT -
display()dá suporte ao Modo de Streaming Real-Time - A fonte de taxa dá suporte ao Modo Real-Time de Streaming
- Temporizadores de eventos com suporte para janelas baseadas em tempo
- UDFs escalares do Python dão suporte a credenciais de serviço
- Listagem de esquema aprimorada
- Mapeamento aprimorado de colunas de string em gravações do Redshift
- Suporte para DDL, SHOW e DESCRIBE em tabelas controladas pelo acesso
- Redução do uso de memória para esquemas largos no gravador de fótons
- Suporte para TIMESTAMP SEM sintaxe DE FUSO HORÁRIO
Expressões SQL espaciais expandidas e tipos de dados GEOMETRY e GEOGRAPHY
Agora você pode armazenar dados geoespaciais em GEOMETRY colunas internas e GEOGRAPHY para melhorar o desempenho de consultas espaciais. Esta versão adiciona mais de 80 novas expressões SQL espaciais, incluindo funções para importar, exportar, medir, construir, editar, validar, transformar e determinar relações topológicas com junções espaciais. Consulte funções geoespaciais st, GEOGRAPHY tipo e GEOMETRY tipo.
GA (expressões de tabela comuns recursivas)
As expressões de tabela comuns recursivas (rCTEs) agora estão disponíveis em geral. Use rCTEs para explorar dados hierárquicos com uma CTE de autorreferência e para seguir relações recursivas.
Funções de Tabela Definidas pelo Usuário em Python (UDTFs) do Catálogo Unity
Agora você pode registrar UDTFs do Python no Catálogo do Unity para governança centralizada e lógica reutilizável em consultas SQL. Consulte UDTFs (funções de tabela definidas pelo usuário) do Python no Catálogo do Unity.
Suporte para ordenação padrão de esquema e nível de catálogo
Agora você pode definir uma ordenação padrão para esquemas e catálogos no Databricks Runtime 17.1. Isso permite que você defina uma ordenação que se aplique a todos os objetos criados no esquema ou catálogo, garantindo um comportamento de ordenação consistente entre seus dados.
Ambiente de execução de isolamento compartilhado para UDFs do Python do Catálogo do Batch Unity
UDFs do Python do Catálogo do Unity do Lote com o mesmo proprietário agora podem compartilhar um ambiente de isolamento por padrão. Isso pode melhorar o desempenho e reduzir o uso de memória reduzindo o número de ambientes separados que precisam ser iniciados.
Para garantir que uma UDF sempre seja executada em um ambiente totalmente isolado, adicione a STRICT ISOLATION cláusula característica. Consulte isolamento de ambiente.
Melhor manipulação de opções JSON com VARIANT
As funções from_json e to_json agora aplicam corretamente as opções JSON ao trabalhar com esquemas VARIANT de nível superior. Isso garante um comportamento consistente com outros tipos de dados com suporte.
display() dá suporte ao modo de Streaming Real-Time.
Você pode usar a função display() com consultas de streaming que usam um gatilho em tempo real. Nesse modo, display() usa o modo de saída update automaticamente e evita a adição de uma cláusula LIMIT, que não tem suporte com update. O intervalo de atualização da tela também é dissociado da duração do lote para melhorar o suporte à interação em tempo real.
A fonte de taxa dá suporte ao Modo Real-Time de Streaming
A fonte de taxa de dados no fluxo estruturado agora funciona com gatilhos em tempo real, permitindo a geração contínua de dados para pipelines de streaming usando o Modo de Streaming Real-Time.
Temporizadores de eventos com suporte para janelas baseadas em tempo
O Azure Databricks dá suporte a gatilhos baseados no tempo do evento para operações de janelas temporais no Modo Real-Time de Streaming. Isso permite uma manipulação mais precisa de dados atrasados e do marcador de tempo, em consultas de streaming de tempo real.
UDFs escalares do Python dão suporte a credenciais de serviço
UDFs escalares do Python podem usar credenciais de serviço do Catálogo do Unity para acessar com segurança serviços de nuvem externos. Isso é útil para integrar operações como tokens baseados em nuvem, criptografia ou gerenciamento de segredos diretamente em suas transformações de dados.
Listagem de esquema aprimorada
O conector Snowflake usa a INFORMATION_SCHEMA tabela em vez do SHOW SCHEMAS comando para listar esquemas. Essa alteração remove o limite de 10.000 esquemas da abordagem anterior e melhora o suporte para bancos de dados com um grande número de esquemas.
Mapeamento aprimorado de colunas de string em gravações do Redshift
Ao escrever tabelas no Redshift usando spark.writecolunas de cadeia de caracteres sem um comprimento explícito são mapeadas VARCHAR(MAX) em vez de TEXT. Isso evita o comportamento padrão do Redshift de interpretar TEXT como VARCHAR(256), o que pode causar erros ao gravar cadeias de caracteres mais longas.
Suporte para DDL, SHOW e DESCRIBE em tabelas controladas pelo acesso
Comandos SQL, como DDL, SHOWe DESCRIBE agora são executados em tabelas refinadas controladas por acesso usando clusters dedicados. Quando necessário para impor controles de acesso, o Azure Databricks roteia esses comandos por meio de computação sem servidor, assim como faz para leituras, mesclagens e acréscimos. Consulte Suporte para DDL, SHOW, DESCRIBE e outros comandos.
Redução do uso de memória para esquemas largos no gravador de fótons
Foram feitas melhorias no mecanismo photon que reduzem significativamente o uso de memória para esquemas largos, abordando cenários que anteriormente resultavam em erros de memória insuficiente.
Suporte para TIMESTAMP SEM sintaxe DE FUSO HORÁRIO
Agora você pode especificar TIMESTAMP WITHOUT TIME ZONE em vez de TIMESTAMP_NTZ. Essa alteração melhora a compatibilidade com o SQL Standard.
Alterações comportamentais
- Problema de correlação de subconsulta resolvido
- Literais NTZ de carimbo de data/hora não são mais empurrados para baixo
-
Erro gerado para restrições inválidas
CHECK - O conector Pulsar não expõe mais o Bouncy Castle
- O Carregador Automático usa eventos de arquivo por padrão, se disponível
-
Propriedades da tabela interna filtradas de
SHOW CREATE TABLE - Regras mais rigorosas para junções de fluxo de fluxo no modo de acréscimo
- Conector teradata corrige comparação de cadeia de caracteres que diferencia maiúsculas de minúsculas
Resolvido problema de correlação de subconsulta
O Azure Databricks não correlaciona mais incorretamente expressões agregadas semanticamente iguais entre uma subconsulta e sua consulta externa. Anteriormente, isso poderia levar a resultados de consulta incorretos.
Literais NTZ de carimbo de data/hora não são mais empurrados para baixo
Para o conector Snowflake e a Federação Snowflake Lakehouse, TIMESTAMP_NTZ literais (carimbo de data/hora sem fuso horário) não são mais empurrados para Snowflake. Essa alteração impede falhas de consulta causadas pelo tratamento incompatível de timestamp e melhora a confiabilidade das consultas afetadas.
Erro gerado para restrições inválidas CHECK
O Azure Databricks agora lança um AnalysisException se uma expressão de restrição CHECK não puder ser resolvida durante a validação da restrição.
O conector Pulsar não expõe mais o Bouncy Castle
A biblioteca Bouncy Castle agora está sombreada no conector Pulsar para evitar conflitos de classpath. Como resultado, os trabalhos do Spark não podem mais acessar classes org.bouncycastle.* do conector. Se o código do aplicativo depender do Bouncy Castle, instale a biblioteca manualmente no cluster.
O Carregador Automático usa eventos de arquivo por padrão, se disponível
O Carregador Automático usa eventos de arquivo em vez de listagem de diretório quando o caminho de carga é um local externo com eventos de arquivo habilitados. O padrão é useManagedFileEvents agora if_available (era false). Isso pode melhorar o desempenho da ingestão e registrar um aviso se os eventos de arquivo ainda não estiverem habilitados.
Propriedades da tabela interna filtradas de SHOW CREATE TABLE
SHOW CREATE TABLE não inclui mais propriedades internas que não podem ser definidas manualmente ou passadas para CREATE TABLE. Isso reduz a confusão e alinha a saída com opções configuráveis pelo usuário.
Regras mais rigorosas para junções de fluxo de fluxo no modo de acréscimo
O Azure Databricks agora não permite que consultas de streaming no modo de acréscimo usem uma junção de fluxo de fluxo seguida de agregação de janela, a menos que as marcas d'água sejam definidas em ambos os lados. Consultas sem marcas d'água adequadas podem produzir resultados não finais, violando garantias de modo de acréscimo.
Conector teradata corrige comparação de cadeia de caracteres que diferencia maiúsculas de minúsculas
O conector do Teradata agora usa como padrão alinhar o comportamento de comparação de cadeias de caracteres com o Azure Databricks, tornando-o sensível a TMODE=ANSImaiúsculas de minúsculas. Essa alteração é configurável e não afeta os usuários existentes, a menos que eles optem.
Atualizações de biblioteca
Bibliotecas do Python atualizadas:
- google-auth da versão 2.40.1 para 2.40.0
- mlflow-skinny de 3.0.0 a 3.0.1
- opentelemetry-api de 1.33.0 para 1.32.1
- opentelemetry-sdk de 1.33.0 para 1.32.1
- opentelemetry-semantic-conventions from 0.54b0 a 0.53b1
- packaging de 24.1 para 24.2
- pip de 24.2 a 25.0.1
Bibliotecas R atualizadas:
cli de 3.6.4 a 3.6.5
curl de 6.2.1 a 6.4.0
genéricos de 0.1.3 a 0.1.4
global de 0,16.3 a 0.18.0
openssl de 2.3.2 a 2.3.3
pilar de 1.10.1 a 1.11.0
rlang de 1.1.5 a 1.1.6
sparklyr de 1.9.0 a 1.9.1
stringi de 1.8.4 a 1.8.7
tibble de 3.2.1 a 3.3.0
utf8 de 1.2.4 a 1.2.6
Bibliotecas Java atualizadas:
- software.amazon.cryptools.AmazonCorrettoCryptoProvider de 2.4.1-linux-x86_64 para 2.5.0-linux-x86_64
Apache Spark
O Databricks Runtime 17.1 inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão 17.0, bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- SPARK-52721 Corrigir o parâmetro de mensagem para CANNOT_PARSE_DATATYPE
- SPARK-51919 Permitir sobrescrever fonte de dados de Python registrada estaticamente
- SPARK-52632 Reverter: nós de plano de gravação V2 de exibição bonita
- SPARK-52715 Cadeia de caracteres Pretty SQL de TIME - DAY-TIME INTERVAL
- SPARK-51268 Tornar o TreeNode sem bloqueio
- SPARK-52701 Corrigir a ampliação de tipo float32 em mod com bool em ANSI
- SPARK-52563 Corrigir o bug de nomenclatura da variável no _assert_pandas_almost_equal
- SPARK-52541 Adicionar guia de programação para Pipelines Declarativos
- SPARK-51695 Corrigir falhas de teste causadas pela alteração da sintaxe CHECK CONSTRAINT
- SPARK-52666 Mapear tipo definido pelo usuário para corrigir MutableValue em SpecificInternalRow
- SPARK-52660 Adicionar tipo de tempo ao CodeGenerator#javaClass
- SPARK-52693 Suporte a intervalos diurnos de +/- ANSI de/para TIME
- SPARK-52705 Refatorar verificação determinística para expressões de agrupamento
- SPARK-52699 Suporte à agregação do tipo TIME no modo interpretado
- SPARK-52503 Corrigir a queda quando a coluna de entrada não existir
- SPARK-52535 Melhorar a legibilidade de código da regra ApplyColumnarRulesAndInsertTransitions
- SPARK-52551 Adicionar um novo predicado de v2 BOOLEAN_EXPRESSION
- SPARK-52698 Reverter: aprimorar dicas de tipo para o módulo de fonte de dados
- SPARK-52684 Tornar CACHE TABLE os comandos atômicos ao encontrar erros de execução
- SPARK-52671 RowEncoder não deve pesquisar uma UDT resolvida
- SPARK-52670 Tornar o HiveResult compatível com UserDefinedType#stringifyValue
- SPARK-52692 Suporte ao cache do tipo TIME
- SPARK-51516 Suporte a TIME pelo servidor Thrift
- SPARK-52674 Limpar o uso de APIs preteridas relacionadas ao RandomStringUtils
- SPARK-51428 Atribuir Aliases para árvores de expressão agrupadas deterministicamente
- SPARK-52672 Não substitua expressões Classificar/Ter por aliases se a expressão existir em Agregação
- SPARK-52618 Conversão de TIME(n) para TIME(m)
- SPARK-52656 Corrigir current_time()
- SPARK-52630 Reorganizar operador de streaming e o código de gerenciamento de estado e diretórios
- SPARK-52649 Cortar aliases antes de corresponder a expressões Sort/Having/Filter no buildAggExprList
- SPARK-52578 Adicionar métricas para linhas para acompanhar casos e ações em MergeRowsExec
- SPARK-49428 Mover o cliente Connect Scala do conector para o SQL
- SPARK-52494 Suporte à sintaxe do operador de sinal de dois-pontos para acessar campos Variant
- SPARK-52642 Use daemonWorkers.get(worker) para evitar uma dessincronização inesperada entre idleWorkers e daemonWorkers
- SPARK-52570 Ativar a operação de divisão por zero no rmod numérico quando ANSI estiver habilitado
- SPARK-52633 Deduplicar a saída filho única da União antes de DeduplicateRelations
- SPARK-52600 Mover *CompletionIterator* para *common/utils*
- SPARK-52626 Permitir agrupamento pelo tipo de hora
- SPARK-52395 Falha na tarefa do redutor imediatamente quando a solicitação de busca do Prism falha
- SPARK-52596 Tente fazer TIMESTAMP_NTZ de DATE e TIME
- SPARK-52595 Renomear a expressão TimeAdd para TimestampAddInterval
- SPARK-52586 Apresentar AnyTimeType
- SPARK-52583 Adicionar a API do Desenvolvedor para stringifying values in UserDefinedType
- SPARK-52354 Adicionar coerção de tipo ao UnionLoop
- SPARK-52579 Definir despejo de rastreio periódico para trabalhadores do Python
- SPARK-52456 Reduzir o limite mínimo de spark.eventLog.rolling.maxFileSize
- SPARK-52536 Definir o diretório de extração do AsyncProfilerLoader para o diretório local do Spark.
- SPARK-52405 Estender V2JDBCTest para testar a leitura de várias partições
- SPARK-52303 Promover ExternalCommandRunner para Estável
- SPARK-52572 Evite CAST_INVALID_INPUT de DataFrame.isin no modo ANSI
- SPARK-52349 Habilitar testes de divisão booliana com ANSI habilitado
- SPARK-52402 Corrigir erros de divisão por zero na correlação de Kendall e Pearson no modo ANSI
- SPARK-52356 Permitir divisão por zero para mod/rmod booleano com ANSI habilitado
- SPARK-52288 Evite INVALID_ARRAY_INDEX em divisão/rsplit quando o modo ANSI estiver ativado
- SPARK-52557 Evite CAST_INVALID_INPUT de to_numeric(errors='coerce') no modo ANSI
- SPARK-52440 Adicionar o extra de instalação do Python para pipelines declarativos
- SPARK-52569 Corrigir a exceção de conversão de classe em SecondsOfTimeWithFraction
- SPARK-52540 Criar TIMESTAMP_NTZ a partir de DATE e TIME
- SPARK-52539 Introduzir ganchos de sessão
- SPARK-52554 Evitar várias viagens de ida e volta para verificação de configuração no Spark Connect
- SPARK-52553 Corrigir NumberFormatException ao ler o changelog v1
- SPARK-52534 Tornar o MLCache e o MLHandler thread-safe
- SPARK-52460 Armazenar valores de TEMPO internos como nanossegundos
- SPARK-52482 Suporte do ZStandard para leitor de fonte de dados de arquivo
- SPARK-52531 OuterReference na agregação de subconsulta está incorretamente vinculada à agregação de consulta externa
- SPARK-52339 Correção da comparação de instâncias InMemoryFileIndex
- SPARK-52418 Adicione uma variável de estado noElements ao PercentileHeap para evitar cálculos repetitivos de isEmpty()
- SPARK-52537 Imprimir stacktrace ao falhar na criação do diretório temporário
- SPARK-52462 Aplicar coerção de tipo antes da deduplicação da saída de filhos na União
- SPARK-52528 Habilitar divisão por zero para mod numérico com ANSI habilitado
- SPARK-52458 Suporte a spark.eventLog.excludedPatterns
- SPARK-52493 Dar suporte ao TIMESTAMP WITHOUT TIME ZONE
- SPARK-51563 Suporte ao nome totalmente qualificado do tipo TIME(n) WITHOUT TIME ZONE
- SPARK-52450 Melhorar a performance da cópia profunda de esquema
- SPARK-52519 Habilitar divisão por zero para floordiv numérico com ANSI habilitado
- SPARK-52489 Impedir que existam manipuladores SQLEXCEPTION e NOT FOUND duplicados dentro do script SQL.
- SPARK-52488 Remover alias antes de encapsular referências externas em HAVING
- SPARK-52383 Melhorar erros no SparkConnectPlanner
- SPARK-52335 Unificar o erro de contagem de bucket inválido para Connect e Classic
- SPARK-52337 Tornar InvalidPlanInput um erro voltado para o usuário
- SPARK-52312 Ignorar V2WriteCommand ao armazenar dataframe em cache
- SPARK-52487 Adicionar tempo de envio e duração do estágio aos detalhes da página StagePage
- SPARK-52433 Unificar a coerção de cadeia de caracteres em createDataFrame
- SPARK-52427 Normalizar a lista de expressões agregadas coberta por um Projeto
- SPARK-51745 Aplicar a máquina de estado para RocksDBStateStore
- SPARK-52447 Transferir a normalização GetViewColumnByNameAndOrdinal para SessionCatalogSuite
- SPARK-52397 ExecutePlan Idempotent: segundo ExecutePlan com o mesmo operationId e recolocações de plano
- SPARK-52355 Inferir o tipo de objeto VariantVal como VariantType ao criar um DataFrame
- SPARK-52425 Refatorar ExtractValue para reutilização na implementação de passagem única
- SPARK-52249 Habilitar divisão por zero para truediv numérico com ANSI habilitado
- SPARK-52228 Integrar o microbenchmark de interação de estado ao Quicksilver (TCP)
- SPARK-48356 Aprimorar a inferência de esquema de coluna da instrução FOR
- SPARK-48353 Melhorias no tratamento de exceções
- SPARK-52060 Fazer nó OneRowRelationExec
- SPARK-52391 Refatorar as funções TransformWithStateExec/vars na classe base para Scala e Python
- SPARK-52218 Tornar as funções atuais de data e hora avaliáveis novamente
- SPARK-52350 Corrigir link para o guia de programação do SS na versão 4.0
- SPARK-52385 Remover TempResolvedColumns do nome InheritAnalysisRules
- SPARK-52392 Nova funcionalidade do Analisador de passagem única
- SPARK-52243 Adicionar suporte NERF para erros de "InvalidPlanInput" relacionados a esquemas
- SPARK-52338 Herdar ordenação padrão do esquema para o modo de exibição
- SPARK-52307 Suporte ao Iterador Arrow Escalar em UDF
- SPARK-52300 Fazer com que a resolução UDTVF do SQL use configurações consistentes com a resolução de exibição
- SPARK-52219 Suporte à ordenação no nível do esquema para tabelas
- SPARK-52272 V2SessionCatalog não altera esquema no Catálogo do Hive
-
SPARK-51890 Adicionar
optionsparâmetro ao Modo de Exibição de Plano Lógico - SPARK-51936 ReplaceTableAsSelect deve substituir a nova tabela em vez de acrescentar
- SPARK-51302 O Spark Connect dá suporte a JDBC, deve usar a API DataFrameReader
- SPARK-50137 Evitar fallback para maneiras incompatíveis do Hive na criação da tabela falha
- SPARK-52184 Encapsular erros de sintaxe JDBC de mecanismos externos com uma exceção unificada
- SPARK-47618 Utilizar o Magic Committer para todos os buckets S3 por padrão
- SPARK-52305 Refinar a docstring para isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
- SPARK-52174 Habilitar spark.checkpoint.compress por padrão
- SPARK-52224 Introduzir o pyyaml como uma dependência para o cliente Python
- SPARK-52233 Corrigir o map_zip_with para tipos de pontos flutuantes
- SPARK-52036 Adicione a característica SQLConfHelper à v2. FileScan
- SPARK-52159 Remover condição excessivamente ampla para o dialeto MariaDB
- SPARK-50104 Adicionar suporte a SparkSession.executeCommand no Connect
- SPARK-52240 Uso de índice de linha corrigido ao explodir matrizes empacotadas no leitor vetorizado
- SPARK-52153 Corrigir from_json e to_json com variante
- SPARK-48618 Aprimorar o teste de inexistência para verificar nomes em 3 partes e 2 partes
- SPARK-52216 Tornar InvalidCommandInput um erro voltado para o usuário
- SPARK-52299 Substituir JsonNode.fields preterido
- SPARK-52287 Aprimore o SparkContext para não preencher a configuração o.a.s.internal.io.cloud.* se não existir
- SPARK-51430 Impedir que o agente de contexto do PySpark propague logs para stdout
- SPARK-52278 UDF de seta escalar dá suporte a argumentos nomeados
- SPARK-52026 Bloquear a API do Pandas no Spark no modo ANSI por padrão
- SPARK-52171 Implementação de junção do StateDataSource para o estado v3
- SPARK-52159 Tratar corretamente a verificação de existência de tabela para dialetos JDBC
- SPARK-52158 Adicionar objeto InvalidInputErrors para centralizar erros no SparkConnectPlanner
- SPARK-52195 Solucionar o problema de eliminação da coluna de estado inicial no Python TWS
- SPARK-52211 Remover sufixo $ do log de INFORMAÇÕES do SparkConnectServer
- SPARK-52239 Suporte para registrar uma UDF de seta
- SPARK-52215 Implementar UDF de seta escalar
- SPARK-52188 Correção para StateDataSource em que StreamExecution.RUN_ID_KEY não está definido
- SPARK-52189 Novos testes de arquivo dourado para NATURAL JOIN com GROUP BY, HAVINGORDER BY e LCAs
- SPARK-52079 Normalizar a ordem dos atributos em listas de projetos internas
- SPARK-52234 Corrigir erro na entrada não cadeia de caracteres para schema_of_csv/xml
- SPARK-52221 Refatorar SqlScriptingLocalVariableManager em um gerenciador de contexto mais genérico
- SPARK-52181 Aumentar o limite de tamanho de variante para 128MiB
- SPARK-52217 Ignorar a validação de referência externa em Filtrar no resolvedor de passagem única
- SPARK-51260 Mover V2ExpressionBuilder e PushableExpression para o módulo Catalyst
- SPARK-52156 Coloque CREATE TEMPORARY herdado TABLE ... Provedor USING sob o sinalizador
- SPARK-51012 Remover SparkStrategy do Connect Shims
- SPARK-52109 Adicionar a API listTableSummaries à API de Catálogo de Tabelas V2 da Fonte de Dados
- SPARK-50915 Adicionar getCondition e preterir getErrorClass em PySparkException
- SPARK-52022 Adicionar método de check-in padrão para SparkThrowable.getQueryContext
- SPARK-51147 Refatorar classes relacionadas ao streaming para um diretório de streaming dedicado
- SPARK-52120 Passar a sessão para ConnectHelper
- SPARK-52021 Padrões de operador e expressão separados
- SPARK-51722 Eliminar a origem "stop" de ParseException
- SPARK-52096 Reclassificar erro de asserção de deslocamento da fonte Kafka
- SPARK-51985 Remover Experimental do AccumulatorSource
- SPARK-51156 Suporte à autenticação de token estático no Spark Connect
- SPARK-52157 Use o nome calculado anteriormente para OuterReference no resolvedor de passagem única
- SPARK-52100 Habilitar a substituição do limite de nível de recursão na sintaxe
- SPARK-51605 Criar o diretório pai antes de tocar no logFile
- SPARK-52127 Otimize o protocolo de MapState KEYS/ VALUES /ITERATOR para transformWithState no PySpark
- SPARK-52040 ResolveLateralColumnAliasReference deve manter a ID do plano
- SPARK-51638 Correção da busca de blocos RDD armazenados em disco remoto por meio do serviço de embaralhamento externo
- SPARK-51983 Preparar o ambiente de teste para a API do Pandas no Spark com o modo ANSI habilitado
- SPARK-52087 Adicionar a cópia de tags e origens a AliasHelper.trimNonTopLevelAliases
- SPARK-51210 Adicionar --enable-native-access=ALL-UNNAMED às opções java para Java 24+
- SPARK-52052 Adicionar .broadcast no objeto complementar de SerializableConfiguration
- SPARK-51823 Adicionar configuração para não persistir o repositório de estado em executores
- SPARK-51291 Reclassificar erros de validação gerados do carregamento do repositório de estado
- SPARK-52006 Excluir o acumulador CollectMetricsExec da interface do usuário do Spark + logs de eventos + pulsações de métrica
- SPARK-52076 Fecha explicitamente ExecutePlanResponseReattachableIterator após o uso
- SPARK-51428 Atribuir Aliases para árvores de expressão agrupadas deterministicamente
- SPARK-52079 Normalizar a ordem dos atributos em listas de projetos internas
- SPARK-52033 Correção do bug Gerar nó em que a saída do nó filho pode ter várias cópias do mesmo atributo
- SPARK-51428 Atribuir Aliases para árvores de expressão agrupadas deterministicamente
- SPARK-52055 Suprime a exceção em ExecutePlanResponseReattachableIterator. del
- SPARK-51921 Usar tipo longo para duração de TTL em milissegundos em transformWithState
- SPARK-50763 Adicionar regra do Analisador para resolver funções de tabela SQL
- SPARK-51884 Adicionar atributos de escopo externo para SubqueryExpression
- SPARK-50762 Adicionar regra do Analisador para resolver UDFs escalares do SQL
- SPARK-51814 Usa list(self) em vez de StructType.fields para compatibilidade de versão antiga
- SPARK-51537 Construir o classloader específico da sessão com base no classloader de sessão padrão no executor
- SPARK-50777 Remover métodos redundantes no-op init/destroy das classes Filter
- SPARK-51691 SerializationDebugger deve engolir exceção ao tentar encontrar o motivo do problema de serialização
- SPARK-51386 Atribuir nome a condições de erro _LEGACY_ERROR_TEMP_3300-3302
- SPARK-50734 Adicionar API de catálogo para criar e registrar UDFs do SQL
- SPARK-51989 Adicionar subclasses de filtro ausentes a todas as listas na fonte de dados
- SPARK-52037 A ordem nas listas de projetos internos da LCA deve respeitar a ordem na lista de projetos original
- SPARK-52007 Identificadores de expressão não devem estar presentes em expressões de grupo ao usar conjuntos de agrupamento
- SPARK-51860 Desabilitar spark.connect.grpc.debug.enabled por padrão
- SPARK-47952 Suporte à recuperação do endereço e da porta GRPC reais do SparkConnectService de forma programática durante a execução no Yarn
- SPARK-50906 Adicionar uma verificação de nulidade para checar se as entradas de to_avro estão alinhadas com o esquema
- Spark-50581 corrige o suporte para UDAF em Dataset.observe()
- SPARK-49946 Exigir uma classe de erro no SparkOutOfMemoryError
- SPARK-49748 Adicionar getCondition e preterir getErrorClass no SparkThrowable
- SPARK-51959 Fazer com que as funções não importem ParentDataFrame
- SPARK-51964 Resolver corretamente os atributos de saída oculta em ORDER BY e HAVING sobre uma agregação no analisador de passagem única
- SPARK-49942 Renomear errorClass como condição em classifyException()
- SPARK-51963 Simplificar IndexToString.transform
- SPARK-51946 Falha impulsiva ao criar tabela de fonte de dados incompatível com o Hive com o nome de partição 'col'
- SPARK-51553 Modificar EXTRACT para dar suporte ao tipo de dados TIME
- SPARK-51891 Otimize o protocolo de ListState GET / PUT / APPENDLIST para uso com transformWithState no PySpark
- SPARK-51931 Adicionar maxBytesPerOutputBatch para limitar o número de bytes do lote de saída do Arrow
- SPARK-51441 Adicionar APIs DSv2 para restrições
- SPARK-51814 Use RecordBatch.schema.names em vez de column_names para compatibilidade com o pyarrow antigo
- SPARK-51913 JDBCTableCatalog#loadTable não deve gerar nenhum erro de tabela corretamente
- SPARK-51840 Restaurar colunas de partição em HiveExternalCatalog#alterTable
- SPARK-51414 Adicionar a função make_time()
- SPARK-49700 Interface Scala unificada para o Connect e o Classic
- SPARK-51914 Adicionar com.mysql.cj a spark.sql.hive.metastore.sharedPrefixes
- SPARK-51827 Suporte para o Spark Connect no transformWithState do PySpark
- SPARK-51901 Não permitir funções de gerador em conjuntos de agrupamento
- SPARK-51423 Adicionar a função current_time() para o tipo de dados TIME
- SPARK-51680 Definir o tipo lógico para TIME no gravador parquet
- SPARK-51889 Corrigir um bug para MapState clear() no Python TWS
- SPARK-51869 Criar classificação para erros de usuário em UDFs para Scala TransformWithState
- SPARK-51878 Melhorar o fillDefaultValue executando a expressão padrão avaliada.
- SPARK-51757 Correção do deslocamento da função LEAD/LAG quando excede o tamanho do grupo de janelas
- SPARK-51805 Obter função com argumento inadequado deve gerar uma exceção adequada em vez de uma interna
- SPARK-51900 Gerar corretamente incompatibilidade de tipo de dados no Analisador de passagem única
- SPARK-51421 Obter segundos de tipos de dados TIME
- SPARK-51661 Descoberta de partições dos valores da coluna TIME
- SPARK-51687 Filtros de pushdown com valores TIME para Parquet
- SPARK-51419 Obter horas de tipos de dados TIME
- SPARK-51881 Tornar opções Avro comparáveis
- SPARK-51861 Remover informações duplicadas/desnecessárias do Plano de Detalhes do InMemoryRelation
- SPARK-51814 Introduzir uma nova transformação de APIWithState no PySpark
- SPARK-51779 Usar famílias de colunas virtuais para junções fluxo a fluxo
- SPARK-51649 Gravações/leituras dinâmicas de partições TIME
- SPARK-51634 Suporte a TIME em vetores de coluna off-heap
- SPARK-51877 Adicionar funções 'chr', 'random' e 'uuid'
- SPARK-51610 Suporte aos tipos de dados TIME na fonte de dados parquet
- SPARK-51420 Obter minutos dos tipos de dados TIME
- SPARK-51822 Lançando erro classificado quando funções não permitidas são chamadas durante StatefulProcessor.init()
- SPARK-51868 Mover a validação de coerção de tipos para um objeto separado
- SPARK-49747 Migrar arquivos do módulo connect para registro estruturado
Suporte ao driver ODBC/JDBC do Azure Databricks
O Azure Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Atualizações de manutenção
Confira as atualizações de manutenção do Azure Databricks Runtime 17.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 24.04.2 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flecha | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| comando automático | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | azure-storage-file-datalake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | preto | 24.10.0 |
| bleach | 6.2.0 | blinker | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | ferramentas de cache | 5.5.1 | certificado | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | normalizador de conjunto de caracteres | 3.3.2 |
| click | 8.1.7 | cloudpickle | 3.0.0 | comm | 0.2.1 |
| contourpy | 1.3.1 | criptografia | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | databricks-sdk | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| Deprecado | 1.2.13 | distlib | 0.3.9 | docstring-to-markdown | 0.11 |
| em execução | 0.8.3 | Visão geral de facetas | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | bloqueio de arquivo | 3.18.0 | fonttools | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth (autenticação do Google) | 2.40.0 |
| google-cloud-core | 2.4.3 | armazenamento na nuvem do Google | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets (biblioteca Python para widgets interativos) | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| Especificações do JSON Schema | 2023.7.1 | eventos Jupyter | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | Servidor Jupyter | 2.14.1 |
| Terminais do servidor Jupyter | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| Convenções Semânticas do OpenTelemetry | 0,53b1 | substituições | 7.4.0 | empacotamento | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| almofada | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server (servidor LSP para Python) | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referência | 0.30.2 | Solicitações | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator (validador de RFC 3986) | 0.1.1 | rico | 13.9.4 |
| rope | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| seis | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | starlette | 0.46.2 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.14.4 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| atualizações não supervisionadas | 0,1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | codificações web | 0.5.1 |
| websocket-client (cliente WebSocket) | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | wrapt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 2025-03-20.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 19.0.1 | AskPass | 1.2.1 | afirme isso | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | ciar | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.7 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| sinal de interpolação | 7.0-1 | cellranger | 1.1.0 | chron | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | clipr | 0.8.0 |
| relógio | 0.7.2 | cluster | 2.1.6 | codetools | 0.2-20 |
| espaço de cores | 2.1-1 | commonmark | 1.9.5 | compilador | 4.4.2 |
| configuração | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | credenciais | 2.0.2 | curl | 6.4.0 |
| data.table | 1.17.0 | conjuntos de dados | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Descrição | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | hash | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | reticências | 0.3.2 | avaliar | 1.0.3 |
| fansi | 1.0.6 | cores | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| estrangeiro | 0.8 - 86 | forge | 0.2.0 | fs | 1.6.5 |
| futuro | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| genéricos | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | associar | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| Gráficos | 4.4.2 | grDevices | 4.4.2 | grade | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.1 |
| gtable | 0.3.6 | capacete de segurança | 1.4.1 | refúgio | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | ferramentas HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.50 | rotulagem | 0.4.3 |
| posterior | 1.4.1 | treliça | 0,22-5 | lava vulcânica | 1.8.1 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Métodos | 4.4.2 |
| mgcv | 1.9-1 | mime | 0.13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.3.3 | parallel | 4.4.2 |
| parallelly | 1.42.0 | coluna | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | progresso | 1.2.3 |
| progressr | 0.15.1 | Promessas | 1.3.2 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl | 1.4.5 |
| Receitas | 1.2.0 | jogo de revanche | 2.0.0 | revanche2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| escalas | 1.3.0 | selectr | 0.4-2 | informações de sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| espacial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.4.2 | estatísticas4 | 4.4.2 |
| stringi | 1.8.7 | stringr | 1.5.1 | sobrevivência | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | formatação de texto | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | mudança de horário | 0.3.0 | data e hora | 4041.110 |
| tinytex | 0.56 | Ferramentas | 4.4.2 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | identificador único universal (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.5.1 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | guava | 33.4.0-jre |
| com.google.guava | listenablefuture | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | fansi 2.13 | 0.5.0 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | configuração | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.3 |
| io.dropwizard.metrics | anotação de métricas | 4.2.30 |
| io.dropwizard.metrics | metrics-core | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | metrics-servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4,15 |
| io.netty | Netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | coletor | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | arrow-format | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | arrow-vector | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.13.0 |
| org.apache.curator | curator-client | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | curador de receitas | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | formato ORC | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotações de público-alvo | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.9.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security | 9.4.53.v20231009 |
| org.eclipse.jetty | servidor jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Webapp | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalameta | common_2.13 | 4.13.5 |
| org.scalameta | io_2.13 | 4.13.5 |
| org.scalameta | mdoc-parser_2.13 | 2.6.4 |
| org.scalameta | metaconfig-core_2.13 | 0.15.0 |
| org.scalameta | metaconfig-pprint_2.13 | 0.15.0 |
| org.scalameta | metaconfig-typesafe-config_2.13 | 0.15.0 |
| org.scalameta | parsers_2.13 | 4.13.5 |
| org.scalameta | scalafmt-config_2.13 | 3.9.6 |
| org.scalameta | scalafmt-core_2.13 | 3.9.6 |
| org.scalameta | scalafmt-macros_2.13 | 3.9.6 |
| org.scalameta | scalafmt-sysops_2.13 | 3.9.6 |
| org.scalameta | scalameta_2.13 | 4.13.5 |
| org.scalameta | trees_2.13 | 4.13.5 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | paiges-core_2.13 | 0.4.4 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Dica
Para ver as notas de release das versões do Databricks Runtime que atingiram o fim do suporte (EoS), confira Notas de release do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.