Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 17.1, desenvolvido pelo Apache Spark 4.0.0.
O Azure Databricks lançou esta versão em agosto de 2025.
Sugestão
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do Databricks Runtime que atingiram o fim do suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Novos recursos e melhorias
- Expressões SQL espaciais expandidas e tipos de dados GEOMETRY e GEOGRAPHY
- Expressões de tabela comuns recursivas (GA)
- Funções de Tabela Definidas pelo Usuário no Unity Catalog em Python (UDTFs)
- Suporte para agrupamento padrão em nível de esquema e catálogo
- Ambiente de execução de isolamento compartilhado para UDFs Python do Batch Unity Catalog
-
Melhor tratamento das opções JSON com
VARIANT -
display()suporta Streaming Real-Time Mode - A fonte de taxa suporta Streaming Modo Real-Time
- Temporizadores baseados no tempo de eventos suportados para janelas baseadas em tempo
- Credenciais de serviço de suporte Scalar Python UDFs
- Listagem de esquema melhorada
- Mapeamento aprimorado da coluna de strings em escritas no Redshift
- Suporte para DDL, SHOW e DESCRIBE em tabelas de acesso controlado
- Uso reduzido de memória para esquemas amplos no gravador de fótons
- Suporte para sintaxe TIMESTAMP WITHOUT TIME ZONE
Expressões SQL espaciais expandidas e tipos de dados GEOMETRY e GEOGRAPHY
Agora você pode armazenar dados geoespaciais em GEOMETRY colunas e GEOGRAPHY incorporados para melhorar o desempenho de consultas espaciais. Esta versão adiciona mais de 80 novas expressões SQL espaciais, incluindo funções para importar, exportar, medir, construir, editar, validar, transformar e determinar relações topológicas com junções espaciais. Consulte Funções, e GEOGRAPHYgeoespaciais ST.
Expressões de tabela comuns recursivas (GA)
Expressões de tabela comuns recursivas (rCTEs) agora estão geralmente disponíveis. Use rCTEs para navegar em dados hierárquicos utilizando uma CTE autorreferenciada, e utilize UNION ALL para seguir relações recursivas.
Unity Catalog Funções de Tabela Definidas pelo Usuário em Python (UDTFs)
Agora você pode registrar UDTFs Python no Unity Catalog para governança centralizada e lógica reutilizável em consultas SQL. Consulte Funções de tabela definidas pelo usuário (UDTFs) do Python no Unity Catalog.
Suporte para agrupamento padrão em nível de esquema e catálogo
Agora você pode definir um agrupamento padrão para esquemas e catálogos no Databricks Runtime 17.1. Isso permite definir um agrupamento que se aplica a todos os objetos criados no esquema ou catálogo, garantindo um comportamento de agrupamento consistente em seus dados.
Ambiente de execução de isolamento compartilhado para UDFs Python do Batch Unity Catalog
UDFs Python do Batch Unity Catalog com o mesmo proprietário agora podem compartilhar um ambiente de isolamento por padrão. Isso pode melhorar o desempenho e reduzir o uso de memória, reduzindo o número de ambientes separados que precisam ser iniciados.
Para garantir que um UDF seja sempre executado em um ambiente totalmente isolado, adicione a STRICT ISOLATION cláusula característica. Ver Isolamento ambiental.
Melhor tratamento das opções JSON com VARIANT
As funções from_json e to_json agora aplicam corretamente as opções JSON ao trabalhar com esquemas VARIANT de nível superior. Isso garante um comportamento consistente com outros tipos de dados suportados.
display() suporta Streaming Real-Time Mode
Você pode usar a função display() com consultas de streaming que usam um gatilho em tempo real. Nesse modo, display() usa automaticamente update modo de saída e evita a adição de cláusula LIMIT, que não é suportada com update. O intervalo de atualização da tela também é dissociado da duração do lote para oferecer melhor suporte à capacidade de resposta em tempo real.
A fonte de taxa suporta o Modo de Streaming Real-Time
A fonte de taxa de fluxo no Streaming Estruturado agora funciona com disparos em tempo real, permitindo a geração contínua de dados para pipelines de streaming usando o Modo de Streaming Real-Time.
Temporizadores orientados a eventos são suportados para janelas temporais
O Azure Databricks dá suporte a gatilhos baseados em tempo de evento para operações de janela temporais no Modo de Streaming Real-Time. Isso permite um tratamento mais preciso de dados atrasados e gestão de marcas temporais em consultas de streaming em tempo real.
Credenciais de serviço de suporte Scalar Python UDFs
UDFs Python escalares podem usar credenciais de serviço Unity Catalog para acessar com segurança serviços de nuvem externos. Isso é útil para integrar operações como tokenização baseada em nuvem, criptografia ou gerenciamento de segredos diretamente em suas transformações de dados.
Listagem de esquema melhorada
O conector Snowflake usa a INFORMATION_SCHEMA tabela em vez do SHOW SCHEMAS comando para listar esquemas. Essa alteração remove o limite de 10.000 esquemas da abordagem anterior e melhora o suporte para bancos de dados com um grande número de esquemas.
Mapeamento de coluna de cadeia de caracteres aprimorado em gravações do Redshift
Ao escrever tabelas no Redshift usando spark.write, as colunas de cadeia de caracteres sem um comprimento explícito são mapeadas para em VARCHAR(MAX) vez de TEXT. Isso evita o comportamento padrão do Redshift de interpretar TEXT como VARCHAR(256), o que poderia causar erros ao escrever cadeias de caracteres mais longas.
Suporte para DDL, SHOW e DESCRIBE em tabelas de acesso controlado
Comandos SQL como DDL, SHOWe DESCRIBE agora são executados em tabelas refinadas com acesso controlado usando clusters dedicados. Quando necessário para impor controles de acesso, o Azure Databricks roteia esses comandos por meio da computação sem servidor, assim como faz para leituras, mesclagens e acréscimos. Consulte Suporte para DDL, SHOW, DESCRIBE e outros comandos.
Uso reduzido de memória para esquemas amplos no gravador de fótons
Foram feitos aprimoramentos no mecanismo Photon que reduzem significativamente o uso de memória para esquemas amplos, abordando cenários que anteriormente resultavam em erros de falta de memória.
Suporte para sintaxe TIMESTAMP WITHOUT TIME ZONE
Agora você pode especificar TIMESTAMP WITHOUT TIME ZONE em vez de TIMESTAMP_NTZ. Essa alteração melhora a compatibilidade com o SQL Standard.
Mudanças comportamentais
- Problema de correlação de subconsulta resolvido
- Literais NTZ de carimbo de data/hora não são mais empurrados para baixo
-
Erro gerado por restrições inválidas
CHECK - Conector Pulsar não expõe mais Bouncy Castle
- O Auto Loader usa eventos de arquivo por padrão, se disponível
-
Propriedades da tabela interna filtradas de
SHOW CREATE TABLE - Regras mais rígidas para junções de fluxo no modo de acréscimo
- O conector Teradata corrige a comparação de cadeias de caracteres que diferenciam maiúsculas de minúsculas
Problema de correlação de subconsulta resolvido
O Azure Databricks não correlaciona mais incorretamente expressões agregadas semanticamente iguais entre uma subconsulta e sua consulta externa. Anteriormente, isso poderia levar a resultados de consulta incorretos.
Literais NTZ de carimbo de data/hora não são mais empurrados para baixo
Tanto para o conector Snowflake quanto para a Snowflake Lakehouse Federation, TIMESTAMP_NTZ (carimbo de data/hora sem fuso horário) os literais não são mais transferidos para o Snowflake. Essa alteração evita falhas de consulta causadas por manipulação de carimbo de data/hora incompatível e melhora a confiabilidade das consultas afetadas.
Erro gerado por restrições inválidas CHECK
Azure Databricks agora gera uma AnalysisException se uma expressão de restrição não puder ser resolvida durante a validação de restrição CHECK.
O conector Pulsar já não expõe mais a Bouncy Castle
A biblioteca Bouncy Castle agora está sombreada no conector Pulsar para evitar conflitos de classpath. Como resultado, os trabalhos do Spark não podem mais acessar org.bouncycastle.* classes a partir do conector. Se o código do aplicativo depender do Bouncy Castle, instale a biblioteca manualmente no cluster.
O Auto Loader usa eventos de arquivo por padrão, se disponível
O Auto Loader usa eventos de arquivo em vez de listagem de diretório quando o caminho de carregamento é um local externo com eventos de arquivo habilitados. O padrão para useManagedFileEvents é agora if_available (was false). Isso pode melhorar o desempenho da ingestão e registra um aviso se os eventos do arquivo ainda não estiverem habilitados.
Propriedades da tabela interna filtradas de SHOW CREATE TABLE
SHOW CREATE TABLE não inclui mais propriedades internas que não podem ser definidas manualmente ou passadas para CREATE TABLE. Isso reduz a confusão e alinha a saída com opções configuráveis pelo usuário.
Regras mais rígidas para junções de fluxo no modo de acréscimo
O Azure Databricks agora não permite consultas de streaming no modo de acréscimo que usam uma junção de fluxo seguida de agregação de janela, a menos que marcas d'água sejam definidas em ambos os lados. Consultas sem marcas d'água adequadas podem produzir resultados não finais, violando as garantias do modo de acréscimo.
O conector Teradata corrige a comparação de cadeias de caracteres que diferenciam maiúsculas de minúsculas
O conector Teradata agora assume TMODE=ANSIcomo padrão , alinhando o comportamento de comparação de cadeia de caracteres com o Azure Databricks, tornando-o sensível a maiúsculas e minúsculas. Essa alteração é configurável e não afeta os usuários existentes, a menos que eles aceitem.
Atualizações da biblioteca
Bibliotecas Python atualizadas:
- google-auth de 2.40.1 a 2.40.0
- mlflow-skinny de 3.0.0 a 3.0.1
- OpenTelemetry-API de 1.33.0 a 1.32.1
- OpenTelemetry-SDK de 1.33.0 a 1.32.1
- OpenTelemetria-Semântica-Convenções de 0,54b0 a 0,53b1
- embalagem de versão 24,1 a 24,2
- pip de 24.2 a 25.0.1
Bibliotecas R atualizadas:
CLI de 3.6.4 a 3.6.5
curvatura de 6.2.1 a 6.4.0
Genéricos de 0.1.3 a 0.1.4
globais de 0.16.3 a 0.18.0
openssl de 2.3.2 a 2.3.3
pilar de 1.10.1 a 1.11.0
RLANG de 1.1.5 a 1.1.6
Sparklyr de 1.9.0 a 1.9.1
stringi de 1.8.4 a 1.8.7
Tibble de 3.2.1 a 3.3.0
utf8 de 1.2.4 a 1.2.6
Bibliotecas Java atualizadas:
- software.amazon.cryptools.AmazonCorrettoCryptoProvider de 2.4.1-linux-x86_64 para 2.5.0-linux-x86_64
Apache Spark
O Databricks Runtime 17.1 inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão 17.0, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- SPARK-52721 Corrigir o parâmetro da mensagem para CANNOT_PARSE_DATATYPE
- Spark-51919 Permitir substituição da fonte de dados Python estaticamente registada
- Faísca-52632 Reverter: Nós de plano de gravação V2 de exibição bonita
- SPARK-52715 String SQL legível de TIME - INTERVALO DAY-TIME
- Faísca-51268 Torne o TreeNode livre de bloqueios
- Faísca-52701 Corrigir alargamento do tipo float32 em mod com bool sob ANSI
- SPARK-52563 Corrigir bug de nome da variável no _assert_pandas_almost_equal
- SPARK-52541 Adicionar guia de programação para Declarative Pipelines
- SPARK-51695 Corrigir falhas de teste causadas pela alteração de sintaxe CHECK CONSTRAINT
- SPARK-52666 Mapear o Tipo Definido pelo Usuário para corrigir corretamente MutableValue em SpecificInternalRow
- Faísca-52660 Adicionar tipo de hora ao CodeGenerator#javaClass
- SPARK-52693 Suporte aos intervalos ANSI de dias e horas para/de TIME
- Refatorar a verificação determinística para expressões de agrupamento
- SPARK-52699 Suporte para agregar o tipo TIME no modo interpretado
- Faísca-52503 Corrigir queda quando a coluna de entrada não existe
- SPARK-52535 Melhorar a legibilidade do código da regra ApplyColumnarRulesAndInsertTransitions
- SPARK-52551 Adicionar um novo predicado v2 BOOLEAN_EXPRESSION
- Faísca-52698 Reverter: melhorar as dicas de tipo para o módulo de fonte de dados
- FAÍSCA-52684 Tornar CACHE TABLE os comandos atômicos ao encontrar erros de execução
- SPARK-52671 RowEncoder não deve procurar por um UDT resolvido
- SPARK-52670 Assegurar que HiveResult funcione com UserDefinedType#stringifyValue
- SPARK-52692 Suporte ao armazenamento em cache do tipo TIME
- SPARK-51516 Suporte do TIME pelo servidor Thrift
- Faísca-52674 Limpar o uso de APIs preteridas relacionadas a RandomStringUtils
- SPARK-51428 Atribuir alíases para árvores de expressão coligadas de forma determinística
- Faísca-52672 Não substitua Classificar/Ter expressões por aliases se a expressão existir no Agregado
- SPARK-52618 Conversão de TIME(n) para TIME(m)
- SPARK-52656 Corrigir current_time()
- SPARK-52630 Reorganizar o operador de streaming e o código de gestão de estado e diretórios
- Faísca-52649 Cortar aliases antes de corresponder expressões Sort/Having/Filter em buildAggExprList
- SPARK-52578 Adicionar métricas para linhas para rastrear casos e ações em MergeRowsExec
- SPARK-49428 Transferir o Connect Scala Client do Connector para o SQL
- SPARK-52494 Suporte à sintaxe do operador de dois pontos para aceder a campos Variant
- SPARK-52642 Use daemonWorkers.get(worker) para evitar desincronizações inesperadas entre idleWorkers e daemonWorkers
- SPARK-52570 Permitir divisão por zero para rmod numérico com o ANSI ativado
- Faísca-52633 Eliminar a duplicação de uma única saída filho da União antes de DeduplicateRelations
- SPARK-52600 Mover CompletionIterator para common/utils
- SPARK-52626 Permitir agrupamento por tipo temporal
- SPARK-52395 Falhar imediatamente a tarefa do redutor quando uma solicitação de fetch do Prism falha
- SPARK-52596 Tentar criar TIMESTAMP_NTZ a partir de DATA e HORA
- Faísca-52595 Renomeie a expressão TimeAdd para TimestampAddInterval
- SPARK-52586 Introduzir AnyTimeType
- Faísca-52583 Adicionar API de desenvolvedor para stringifying valores em UserDefinedType
- SPARK-52354 Adicionar coerção de tipo ao UnionLoop
- SPARK-52579 Definir despejo de rastreamento de forma periódica para processos Python
- Faísca-52456 Diminuir o limite mínimo de spark.eventLog.rolling.maxFileSize
- SPARK-52536 Configurar AsyncProfilerLoader extractionDir para o diretório local do Spark
- SPARK-52405 Amplie o V2JDBCTest para testar a leitura de múltiplas partições
- Faísca-52303 Promova ExternalCommandRunner para estável
- SPARK-52572 Evite CAST_INVALID_INPUT de DataFrame.isin no modo ANSI
- Faísca-52349 Habilite testes de divisão booleana com ANSI habilitado
- SPARK-52402 Corrigir erros de divisão por zero na correlação de Kendall e Pearson no modo ANSI
- SPARK-52356 Permitir a divisão por zero para mod/rmod booleano com ANSI ativado
- FAÍSCA-52288 Evite INVALID_ARRAY_INDEX em split/rsplit quando o modo ANSI estiver ativado
- SPARK-52557 Evite CAST_INVALID_INPUT de to_numeric(errors='coerce') no modo ANSI
- SPARK-52440 Adicionar instalação extra de python para pipelines declarativos
- Faísca-52569 Corrigir a exceção de conversão de classe em SecondsOfTimeWithFraction
- SPARK-52540 Criar TIMESTAMP_NTZ a partir de DATE e TIME
- SPARK-52539 Introduzir ganchos de sessão
- Spark-52554 Evitar múltiplos ciclos de ida e volta para verificação de configuração no Spark Connect
- SPARK-52553 Corrigir NumberFormatException ao ler o changelog da versão 1
- FAÍSCA-52534 Garantir que MLCache e MLHandler sejam seguros para execução simultânea
- SPARK-52460 Armazene os valores internos de TIME como nanossegundos
- SPARK-52482 Suporte ZStandard para leitor de fonte de dados de ficheiro
- FAÍSCA-52531 OuterReference na agregação de subconsulta está incorretamente vinculada à agregação de consulta externa
- Faísca-52339 Corrigir a comparação de instâncias InMemoryFileIndex
- Faísca-52418 Adicione uma variável de estado noElements ao PercentileHeap para evitar cálculos repetitivos de isEmpty()
- SPARK-52537 Imprimir stacktrace ao falhar na criação de diretório temporário
- SPARK-52462 Aplicar a coerção de tipo antes que os outputs sejam desduplicados na União
- SPARK-52528 Permitir a divisão por zero para operador módulo numérico quando o ANSI está ativo
- Faísca-52458 Suporte spark.eventLog.excludedPatterns
- SPARK-52493 Suporte TIMESTAMP SEM FUSO HORÁRIO
- SPARK-51563 Suporta o nome de tipo totalmente qualificado TIME(n) SEM FUSO HORÁRIO
- SPARK-52450 Melhorar o desempenho do esquema deepcopy
- SPARK-52519 Habilite a divisão por zero para floordiv numérico com ANSI ativado
- SPARK-52489 Proibir tratadores SQLEXCEPTION duplicados e NOT FOUND dentro do Script SQL
- SPARK-52488 Remover o alias antes de envolver as referências externas em HAVING
- SPARK-52383 Corrigir erros no SparkConnectPlanner
- Faísca-52335 Unifique o erro de contagem de bucket inválido para Connect e Classic
- SPARK-52337 Tornar InvalidPlanInput um erro voltado para o utilizador
- SPARK-52312 Ignorar o V2WriteCommand ao armazenar em cache o DataFrame
- SPARK-52487 Adicionar Tempo de Submissão e Duração ao Detalhe do StagePage
- SPARK-52433 Unifique a conversão de strings em createDataFrame
- SPARK-52427 Normalizar lista de expressões agregadas cobertas por um Projeto
- SPARK-51745 Impor Máquina de Estados para RocksDBStateStore
- SPARK-52447 Mova a normalização de GetViewColumnByNameAndOrdinal para SessionCatalogSuite
- Faísca-52397 Idempotent ExecutePlan: segundo ExecutePlan com o mesmo operationId e reanexa o plano
- Faísca-52355 Inferir o tipo de objeto VariantVal como VariantType ao criar um DataFrame
- Faísca-52425 Refactor ExtractValue para reutilização em implementação de passagem única
- SPARK-52249 Ativar a divisão por zero para truediv numérico com o ANSI ativado
- SPARK-52228 Integrar o microbenchmark de interação de estado no Quicksilver (TCP)
- SPARK-48356 Melhorar a inferência do esquema de coluna da instrução FOR
- SPARK-48353 Melhorias no tratamento de exceções
- Faísca-52060 Criar nó OneRowRelationExec
- Faísca-52391 Refactor TransformWithStateExec funções/vars em classe base para Scala e Python
- SPARK-52218 Tornar as funções de data e hora atuais passíveis de avaliação novamente
- SPARK-52350 Corrigir link para o guia de programação SS na versão 4.0
- SPARK-52385 Remover TempResolvedColumns do nome InheritAnalysisRules
- SPARK-52392 Nova funcionalidade do Analyzer de single-pass
- SPARK-52243 Adicionar suporte para NERF para erros InvalidPlanInput relacionados ao esquema
- Faísca-52338 Herdar agrupamento padrão do esquema para Exibir
- SPARK-52307 Suporte para o UDF Scalar Arrow Iterator
- Faísca-52300 Faça com que a resolução UDTVF do SQL use configurações consistentes com a resolução de exibição
- SPARK-52219 Suporte de classificação a nível de esquema para tabelas
- SPARK-52272 V2SessionCatalog não altera o esquema no Catálogo do Hive
-
Faísca-51890 Adicionar
optionsparâmetro à Vista de Plano Lógico - Faísca-51936 ReplaceTableAsSelect deve substituir nova tabela em vez de acrescentar
- SPARK-51302 O Spark Connect que suporta JDBC deve utilizar a API DataFrameReader
- Faísca-50137 Evite falhas de fallback para formas incompatíveis com o Hive na criação de tabelas
- SPARK-52184 Envolver erros de sintaxe JDBC do motor externo com uma exceção unificada
- SPARK-47618 Usar o Magic Committer para todos os buckets do S3 por padrão
- SPARK-52305 Refine a docstring para isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
- Faísca-52174 Ativar spark.checkpoint.compress por padrão
- SPARK-52224 Introduzir pyyaml como dependência do cliente Python
- SPARK-52233 Corrigir map_zip_with para tipos de ponto flutuante
- SPARK-52036 Adicione o traço SQLConfHelper a v2.FileScan
- SPARK-52159 Remover condição muito ampla para o dialeto MariaDB
- SPARK-50104 Suporte para SparkSession.executeCommand no Connect
- SPARK-52240 Corrigido o uso do índice de linha ao desagregar matrizes compactadas no leitor vetorizado
- SPARK-52153 Corrigir from_json e to_json com variante
- SPARK-48618 Melhorar teste 'not exists' para verificar os nomes de 3 partes e 2 partes
- SPARK-52216 Tornar InvalidCommandInput um erro voltado para o utilizador
- Faísca-52299 Substituir JsonNode.fields preterido
- Faísca-52287 Melhore a configuração SparkContext para não preencher o.a.s.internal.io.cloud.*, se não existir
- SPARK-51430 Impeça o registrador de contexto PySpark de propagar logs para stdout
- SPARK-52278 Suporte a argumentos nomeados de UDF Arrow escalar
- SPARK-52026 Bloquear a API de pandas no modo ANSI do Spark por padrão
- SPARK-52171 implementação de join do StateDataSource para a versão de estado v3
- SPARK-52159 Manipular corretamente a verificação de existência da tabela para dialetos jdbc
- SPARK-52158 Adicionar o objeto InvalidInputErrors para centralizar os erros no SparkConnectPlanner
- SPARK-52195 corrigir problema de remoção de coluna de estado inicial para Python TWS
- Faísca-52211 Sufixo Strip $ do log INFO do SparkConnectServer
- Faísca-52239 Suporte registrar uma seta UDF
- Faísca-52215 Implementar UDF de seta escalar
- SPARK-52188 correção para StateDataSource, onde StreamExecution.RUN_ID_KEY não está configurado
- SPARK-52189 Novos testes de arquivo dourado para NATURAL JOIN com GROUP BY, HAVING, ORDER BY e LCAs
- SPARK-52079 Normalizar a ordem dos atributos nas listas internas de projetos
- SPARK-52234 Corrigir erro na entrada não-string para schema_of_csv/xml
- Faísca-52221 Refatore SqlScriptingLocalVariableManager em um gerenciador de contexto mais genérico
- SPARK-52181 Aumentar o limite de tamanho da variante para 128 MiB
- SPARK-52217 Ignorar validação de referência externa em Filtro no resolvedor de passada única
- SPARK-51260 Mover V2ExpressionBuilder e PushableExpression para o módulo Catalyst
- SPARK-52156 Coloque o legado de CREATE TEMPORARY TABLE ... USANDO provedor sob o sinalizador
- Faísca-51012 Remover SparkStrategy do Connect Shims
- SPARK-52109 Adicionar a API listTableSummaries à API do Catálogo de Tabelas da Fonte de Dados V2
- Faísca-50915 Adicionar getCondition e depreciar getErrorClass em PySparkException
- Faísca-52022 Adicionar método padrão de check-in para SparkThrowable.getQueryContext
- SPARK-51147 Refatorar classes relacionadas com streaming para um diretório de streaming dedicado
- SPARK-52120 Passar a sessão para o ConnectHelper
- SPARK-52021 Separar operadores e padrões de expressão
- SPARK-51722 Remover a origem "stop" de ParseException
- SPARK-52096 Reclassificar erro de asserção de deslocamento de fonte Kafka
- Faísca-51985 Remover Experimental de AccumulatorSource
- SPARK-51156 Suporte à autenticação de token estático no Spark Connect
- SPARK-52157 Use o nome calculado anteriormente para OuterReference no resolvedor de passagem única
- SPARK-52100 Permitir a substituição do limite de nível de recursão na sintaxe
- Faísca-51605 Crie o diretório pai antes de tocar no logFile
- SPARK-52127 Reduzir o protocolo de MapState KEYS / VALUES / ITERATOR para transformWithState no PySpark
- SPARK-52040 ResolveLateralColumnAliasReference deve manter o id do plano
- Faísca-51638 Corrigir a busca de blocos RDD armazenados em disco remoto através do serviço de shuffle externo
- SPARK-51983 Preparar o ambiente de teste para a API pandas do Spark com o modo ANSI ligado
- SPARK-52087 Adiciona a cópia de tags e origem a AliasHelper.trimNonTopLevelAliases
- Faísca-51210 Adicionar --enable-native-access=ALL-UNNAMED às opções do Java para Java 24+
- Faísca-52052 Adicionar .broadcast no objeto complementar de SerializableConfiguration
- SPARK-51823 Adicionar configuração para não persistir o armazenamento nos executores
- SPARK-51291 Reclassificar erros de validação lançados durante o carregamento da store de estado
- SPARK-52006 Excluir o acumulador CollectMetricsExec da interface do usuário do Spark + logs de eventos + pulsações métricas
- SPARK-52076 Encerramento explícito de ExecutePlanResponseReattachableIterator após o uso
- SPARK-51428 Atribuir alíases para árvores de expressão coligadas de forma determinística
- SPARK-52079 Normalizar a ordem dos atributos nas listas internas de projetos
- Faísca-52033 Corrigir Gerar bug de nó onde a saída do nó filho pode ter várias cópias do mesmo atributo
- SPARK-51428 Atribuir alíases para árvores de expressão coligadas de forma determinística
- SPARK-52055 Suprimir a exceção em ExecutePlanResponseReattachableIterator. del
- SPARK-51921 Use o tipo long para a duração do TTL em milissegundos em transformWithState
- FAÍSCA-50763 Adicionar regra de análise para resolver funções de tabelas SQL
- Faísca-51884 Adicionar atributos de escopo externo para SubqueryExpression
- SPARK-50762 Adicionar regra do analyzer para resolver UDFs escalares SQL
- Faísca-51814 Usa list(self) em vez de StructType.fields para compat de versão antiga
- SPARK-51537 Construa o carregador de classes específico da sessão com base no carregador de classes de sessão padrão no executor
- Faísca-50777 Remover métodos redundantes no-op init/destroy das classes Filter
- SPARK-51691 SerializationDebugger deve engolir exceção ao tentar encontrar o motivo do problema de serialização
- ** SPARK-51386 Atribuir nome às condições de erro _LEGACY_ERROR_TEMP_3300-3302
- SPARK-50734 Adicionar API de Catálogo para criar e registar SQL UDFs
- SPARK-51989 Adicionar subclasses de Filtro ausentes à lista completa na fonte de dados
- SPARK-52037 A ordem nas listas de projetos internos da LCA deve respeitar a ordem na lista de projetos original
- SPARK-52007 Identificadores de expressão não devem estar presentes nas expressões de agrupamento ao usar conjuntos de grupos
- Faísca-51860 Desativar spark.connect.grpc.debug.enabled por padrão
- SPARK-47952 Suporte para recuperar o endereço GRPC real do SparkConnectService e a porta de forma programática ao ser executado no Yarn
- SPARK-50906 Adicionar verificação de anulabilidade para que as entradas de to_avro alinhem com o esquema
- SPARK-50581 corrigir o suporte para UDAF em Dataset.observe()
- FAÍSCA-49946 Exigir uma classe de erro em SparkOutOfMemoryError
- FAÍSCA-49748 Adicionar getCondition e depreciar getErrorClass em SparkThrowable
- FAÍSCA-51959 Assegurar que as funções não importem ParentDataFrame
- FAÍSCA-51964 Resolva corretamente atributos de saída oculta em ORDER BY e HAVING sobre um "Aggregate" no analisador de etapa única.
- FAÍSCA-49942 Renomeie errorClass para condition em classifyException()
- SPARK-51963 Simplificar IndexToString.transform
- SPARK-51946 Falha imediata ao criar uma tabela de origem de dados incompatível com o Hive com 'col' como nome de partição.
- SPARK-51553 Modificar o EXTRACT para suportar o tipo de dados TIME
- SPARK-51891 Compactar o protocolo de ListState GET / PUT / APPENDLIST para transformWithState no PySpark
- SPARK-51931 Adicione maxBytesPerOutputBatch para limitar o número de bytes do lote de saída de Arrow
- SPARK-51441 Adicionar APIs DSv2 para restrições
- SPARK-51814 Use RecordBatch.schema.names em vez de column_names para compatibilidade com a antiga pyarrow
- SPARK-51913 JDBCTableCatalog#loadTable deve lançar corretamente um erro de tabela inexistente
- SPARK-51840 Restaurar colunas de partição em HiveExternalCatalog#alterTable
- SPARK-51414 Adicionar a função make_time()
- SPARK-49700 Interface Scala Unificada para Connect e Classic
- SPARK-51914 Adicione com.mysql.cj a spark.sql.hive.metastore.sharedPrefixes
- SPARK-51827 Suporte a Spark Connect em transformWithState no PySpark
- SPARK-51901 Não permitir funções geradoras em conjuntos de agrupamento
- SPARK-51423 Adicione a função current_time() para o tipo de dados TIME
- SPARK-51680 Definir o tipo de dados lógico para TEMPO no gravador de parquet
- SPARK-51889 Corrigir um erro no MapState clear() em Python TWS
- < c0 >SPARK-51869< /c0 > Criar classificação para erros de usuário em UDFs para Scala TransformWithState
- SPARK-51878 Melhore fillDefaultValue executando a expressão padrão dobrável.
- SPARK-51757 Corrigir deslocamento da função LEAD/LAG que excede o tamanho da janela do grupo
- SPARK-51805 Função de obtenção com argumento impróprio deve lançar exceção apropriada em vez de uma interna
- SPARK-51900 Lançar corretamente incompatibilidade de tipo de dados no analisador de passagem única
- SPARK-51421 Obter segundos do tipo de dados TIME
- SPARK-51661 Descoberta de partições de valores da coluna TIME
- SPARK-51687 Filtros pushdown com valores TIME para parquet
- SPARK-51419 Obter horas do tipo de dado TIME
- SPARK-51881 Tornar AvroOpções comparáveis
- SPARK-51861 Remover informações duplicadas/desnecessárias dos detalhes do plano de InMemoryRelation
- Faísca-51814 Introduza uma nova API transformWithState no PySpark
- SPARK-51779 Usar famílias de colunas virtuais para junções de fluxo com fluxo
- SPARK-51649 Gravações/leituras dinâmicas de partições TIME
- SPARK-51634 Suporte TIME em vetores de coluna off-heap
- SPARK-51877 Adicionar funções 'chr', 'random' e 'uuid'
- SPARK-51610 Suporte ao tipo de dado TIME na fonte de dados parquet
- SPARK-51420 Obter minutos do tipo de dados TIME
- SPARK-51822 Lançamento de erro classificado quando funções não autorizadas são invocadas no contexto de StatefulProcessor.init()
- SPARK-51868 mover validação de coerção de tipo para um objeto separado
- FAÍSCA-49747 Migrar conecte/arquivos para o log estruturado
Suporte ao driver ODBC/JDBC do Azure Databricks
O Azure Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Atualizações de manutenção
Consulte Atualizações de manutenção do Azure Databricks Runtime 17.1.
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.2 LTS
- Java: Zulu17.58+21-CA
- Escala: 2.13.16
- Píton: 3.12.3
- R: 4.4.2
- Lago Delta: 4.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos com anotações | 0.7.0 | anyio | 4.6.2 | Argão2-CFFI | 21.3.0 |
| argon2-cffi-vinculações | 21.2.0 | seta | 1.3.0 | AstTokens | 2.0.5 |
| "Astunparse" | 1.6.3 | Async-LRU | 2.0.4 | Atributos | 24.3.0 |
| Comando automático | 2.2.2 | Azure-Comum | 1.1.28 | azure-core | 1.34.0 |
| azure-identity (serviços de identidade do Azure) | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| Azure Storage Blob | 12.23.0 | Armazenamento de Ficheiros Azure Data Lake | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | BeautifulSoup4 | 4.12.3 | preto | 24.10.0 |
| lixívia | 6.2.0 | pisca | 1.7.0 | boto3 | 1.36.2 |
| Botocore | 1.36.3 | Ferramentas de cache | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | Normalizador de Charset | 3.3.2 |
| clicar | 8.1.7 | Cloudpickle | 3.0.0 | Comunicação | 0.2.1 |
| contorno | 1.3.1 | criptografia | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | Databricks-SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| Preterido | 1.2.13 | Distlib | 0.3.9 | convertendo docstring em markdown | 0.11 |
| executar | 0.8.3 | facetas-visão geral | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.21.1 | bloqueio de arquivo | 3.18.0 | Fonttools | 4.55.3 |
| FQDN (Nome de Domínio Completo) | 1.5.1 | fsspec | 2023.5.0 | GitDB | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-Auth (Autenticação) | 2.40.0 |
| Google Cloud Core | 2.4.3 | google-armazenamento-em-nuvem | 3.1.0 | Google-CRC32C | 1.7.1 |
| google-media-reutilizável | 2.7.2 | googleapis-common-protos | 1.65.0 | Grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | flexionar | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | Ipykernel | 6.29.5 |
| IPython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduração | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | Joblib | 1.4.2 |
| JSON5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-especificações | 2023.7.1 | Jupyter-Eventos | 0.10.0 | Jupyter-LSP | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_servidor | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | Jupyterlab | 4.3.4 | JupyterLab-Pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | Matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 2.0.4 | mlflow-skinny | 3.0.1 | MMH3 | 5.1.0 |
| more-itertools | 10.3.0 | MSAL | 1.32.3 | MSAL-extensões | 1.3.1 |
| mypy extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| bloco de notas | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| OAuthlib | 3.2.2 | OpenTelemetry API | 1.32.1 | OpenTelemetry SDK | 1.32.1 |
| Convenções Semânticas de OpenTelemetry | 0,53b1 | sobrescrições | 7.4.0 | embalagem | 24,2 |
| pandas | 2.2.3 | PandocFilters | 1.5.0 | Parso | 0.8.4 |
| PathSpec | 0.10.3 | vítima | 1.0.1 | pexpect | 4.8.0 |
| almofada | 11.1.0 | pip (o gestor de pacotes do Python) | 25.0.1 | platformdirs | 3.10.0 |
| enredo | 5.24.1 | Pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| kit de ferramentas de prompt | 3.0.43 | Proto-Plus | 1.26.1 | Protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| puro-eval | 0.2.2 | Pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-módulos | 0.2.8 | pyccolo | 0.0.71 | Pycparser | 2.21 |
| Pidântico | 2.10.6 | pydantic_core | 2.27.2 | Pyflakes | 3.2.0 |
| Pigmentos | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| Pyright | 1.1.394 | Pytest | 8.3.5 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.12.0 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| Pyzmq | 26.2.0 | referenciação | 0.30.2 | pedidos | 2.32.3 |
| rfc3339-verificador | 0.1.4 | rfc3986-validador | 0.1.1 | rico | 13.9.4 |
| corda | 1.12.0 | rpds-py | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.6.1 | SciPy | 1.15.1 |
| nascido no mar | 0.13.2 | Send2Trash | 1.8.2 | Ferramentas de configuração | 74.0.0 |
| seis | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| contentores classificados | 2.4.0 | Coador de sopa | 2,5 | SQLPARSE | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | Starlette | 0.46.2 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.4 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| terminado | 0.17.1 | Threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | Tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 | tipos-python-dateutil | 2.9.0.20241206 |
| typing_extensions (extensões de digitação) | 4.12.2 | tzdata | 2024.1 | Ujson | 5.10.0 |
| Atualizações não supervisionadas | 0.1 | uri-modelo | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | Webcolors | 24.11.1 | codificações da web | 0.5.1 |
| Websocket-cliente | 1.8.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | embrulhado | 1.17.0 | Yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir da versão instantânea do CRAN do Posit Package Manager em 2025-03-20.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 19.0.1 | AskPass | 1.2.1 | afirme que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | pouco | 4.6.0 | bit-64 | 4.6.0-1 |
| Bitops | 1.0-9 | blob | 1.2.4 | inicialização | 1.3-30 |
| fabricação de cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.7 |
| bslib | 0.9.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| caret | 7.0-1 | CellRanger | 1.1.0 | crono | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| relógio | 0.7.2 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.5 | compilador | 4.4.2 |
| Configurações | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.5.2 |
| lápis de cor | 1.5.3 | credenciais | 2.0.2 | encaracolar | 6.4.0 |
| tabela de dados | 1.17.0 | conjuntos de dados | 4.4.2 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.37 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| e1071 | 1.7-16 | reticências | 0.3.2 | avaliar | 1.0.3 |
| Fansi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.3 | forçados | 1.0.0 | foreach | 1.5.2 |
| estrangeiro/a | 0.8 a 86 | forjar | 0.2.0 | fs | 1.6.5 |
| Futuro | 1.34.0 | futuro.apply | 1.11.3 | gargarejo | 1.5.2 |
| genérico | 0.1.4 | Gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | Git2R | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | Globais | 0.18.0 | cola | 1.8.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| gráficos | 4.4.2 | grDispositivos | 4.4.2 | grelha | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | GT | 0.11.1 |
| tabela g | 0.3.6 | capacete de segurança | 1.4.1 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| httr2 | 1.1.1 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9 a 15 | Banda isobárica | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1,50 | etiquetagem | 0.4.3 |
| mais tarde | 1.4.1 | treliça | 0.22-5 | lave | 1.8.1 |
| ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.4 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI | 0.1.1.1 |
| Mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| Munsell | 0.5.1 | nlme | 3.1-164 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.3.3 | paralelo | 4.4.2 |
| Paralelamente | 1.42.0 | pilar | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| Prodlim | 2024.06.25 | profvis | 0.4.0 | Progressos | 1.2.3 |
| progressr | 0.15.1 | promessas | 1.3.2 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 |
| reactR | 0.6.1 | Readr | 2.1.5 | readxl | 1.4.5 |
| receitas | 1.2.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | Informação da sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.10.0 | ferramentas de código-fonte | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| espacial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.4.2 | estatísticas4 | 4.4.2 |
| string | 1.8.7 | stringr | 1.5.1 | Sobrevivência | 3.5-8 |
| Charme | 5.17.14.1 | Sistema | 3.4.3 | fontes do sistema | 1.2.1 |
| tcltk (uma linguagem de programação) | 4.4.2 | testthat | 3.2.3 | formatação de texto | 1.0.0 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | mudança de hora | 0.3.0 | data e hora | 4041.110 |
| Tinytex | 0.56 | Ferramentas | 4.4.2 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.1.0 | UTF8 | 1.2.6 |
| utilitários | 4.4.2 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 6.0.2 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vruum | 1.6.5 |
| Waldo | 0.6.1 | vibrissas | 0.4.1 | murchar | 3.0.2 |
| xfun | 0.51 | XML2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | Zeallot | 0.1.0 |
| ZIP | 2.3.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | AWS Java SDK para SES | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | sombra kriogénica | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | Curvesapi | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-comum-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | Falha no acesso | 1.0.2 |
| com.google.guava | Goiaba | 33.4.0-JRE |
| com.google.guava | ListenableFuture | 9999.0-vazio-para-evitar-conflito-com-Guava |
| com.google.j2objc | j2objc-anotações | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | fansi_2.13 | 0.5.0 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| IO.Delta | delta-sharing-client_2.13 | 1.3.3 |
| io.dropwizard.metrics | métricas e anotação | 4.2.30 |
| io.dropwizard.metrics | métricas-base | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | métricas em formato JSON | 4.2.30 |
| io.dropwizard.metrics | métricas do JVM | 4.2.30 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | Netty Comum | 4.1.118.Final |
| io.netty | Netty Handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | Netty-Transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.118.Final |
| io.prometeu | simpleclient | 0.16.1-databricks |
| io.prometeu | simpleclient_comum | 0.16.1-databricks |
| io.prometeu | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometeu | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel_agente | 0.16.1-databricks |
| io.prometheus.jmx | recoletor | 0.18.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| Jakarta.validação | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserva | 1.5 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 18.2.0 |
| org.apache.arrow | núcleo de memória Arrow | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | "patch-do-buffer-da-memória-arrow-netty" | 18.2.0 |
| org.apache.arrow | vetor de seta | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | AVRO-IPC | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.13.0 |
| org.apache.curador | curador e cliente | 5.7.1 |
| org.apache.curador | Framework de Curadoria | 5.7.1 |
| org.apache.curador | curador de receitas | 5.7.1 |
| org.apache.datasketches | Datasketches-Java | 6.1.1 |
| org.apache.datasketches | datasketches-memória | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.1 |
| org.apache.hive | colmeia-abelha | 2.3.10 |
| org.apache.hive | Hive-CLI | 2.3.10 |
| org.apache.hive | Hive-JDBC | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | Hive-Serde | 2.3.10 |
| org.apache.hive | colmeias-calços | 2.3.10 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-protobuf sombreado |
| org.apache.orc | formato ORC | 1.1.0-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 2.1.1-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 2.1.1 |
| org.apache.poi | POI | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-completo | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-sombreado | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.3 |
| org.checkerframework | verificador de qualidade | 3.43.0 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-JNDI | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | servidor jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-XML | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | Jersey comum | 2.41 |
| org.glassfish.jersey.core | servidor Jersey | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.jline | Jline | 3.27.1-JDK8 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | JSON4S-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2,13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalameta | common_2.13 | 4.13.5 |
| org.scalameta | io_2.13 | 4.13.5 |
| org.scalameta | MDOC-parser_2,13 | 2.6.4 |
| org.scalameta | metaconfig-core_2.13 | 0.15.0 |
| org.scalameta | metaconfig-pprint_2.13 | 0.15.0 |
| org.scalameta | metaconfig-typesafe-config_2.13 | 0.15.0 |
| org.scalameta | parsers_2.13 | 4.13.5 |
| org.scalameta | SCALAFMT-config_2,13 | 3.9.6 |
| org.scalameta | Scalafmt-core_2,13 | 3.9.6 |
| org.scalameta | scalafmt-macros_2.13 | 3.9.6 |
| org.scalameta | SCALAFMT-sysops_2.13 | 3.9.6 |
| org.scalameta | scalameta_2.13 | 4.13.5 |
| org.scalameta | trees_2.13 | 4.13.5 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | escalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.16 |
| org.slf4j | jul-para-slf4j | 2.0.16 |
| org.slf4j | SLF4J-API | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen-Extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | paiges-core_2,13 | 0.4.4 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Sugestão
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do Databricks Runtime que atingiram o fim do suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.