Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.4 LTS, alimentado pelo Apache Spark 3.5.2.
O Databricks lançou esta versão do LTS em maio de 2025. Há duas variantes para esta versão, uma compatível com o Scala 2.12 e outra com suporte para Scala 2.13.
A partir do DBR 17 (Spark 4), somente o Scala 2.13 terá suporte. Para ajudá-lo na transição, duas imagens estão disponíveis no 16.4 LTS: uma com Scala 2.12 e outra com Scala 2.13. Use a imagem 2.13 para testar e atualizar sua base de código para o Scala 2.13 antes de migrar para o DBR 17.
Diretrizes de migração do Scala 2.13
- Todos os outros recursos são os mesmos em ambas as versões do Databricks Runtime 16.4 LTS.
- As versões de dependência podem ser diferentes entre as imagens do Databricks Runtime 16.4 Scala 2.12 e do Scala 2.13. As versões das bibliotecas com suporte em cada imagem estão listadas abaixo nesta página.
- Verifique se o código está escrito no Scala 2.13 e se o executável é compilado com o Scala 2.13.
- Crie seu projeto no Spark 3.5.
Se o código usar a biblioteca sparklyr R, você deverá usar a imagem que fornece suporte ao Scala 2.12.
Alterações interruptivas entre o Scala 2.12 e 2.13
Grandes alterações interruptivas
O Databricks Runtime considera uma alteração interruptiva grande quando exige que você faça alterações significativas de código para que haja suporte.
Incompatibilidade da coleção: leia esta página oficial de documentos do Scala para obter detalhes sobre como migrar coleções para o Scala 2.13. Se o código usar uma versão anterior do código Scala, as coleções serão a principal fonte de incompatibilidades ao usar o Databricks, especialmente com parâmetros de API e tipos de retorno.
Algoritmo de hash: ao revisar o código criado com o Scala 2.12, não dependa da ordem implícita das estruturas de dados que não garantem a ordenação, como
HashMapeSet. Coleções que fazem ordenação implícita podem ordenar seus elementos de forma diferente quando executadas na versão 2.13 (em comparação com 2.12) ao iterar sobre eles.
Pequenas alterações interruptivas
O Databricks Runtime considera uma alteração interruptiva pequena quando não há mensagens de erro específicas geradas devido a alterações de versão, mas que possam impedir a compilação de seu código na versão. Nesse caso, as mensagens de erro podem fornecer informações suficientes para atualizar seu código.
- Inferência de tipo mais rigorosa: Ao compilar o código desenvolvido para Scala 2.12 com 2.13, o compilador pode relatar que não consegue inferir o tipo ou indicar uma ambiguidade de tipo. Anotar explicitamente as variáveis com seu tipo de dados geralmente resolve esse problema.
-
Remoção de sintaxe específica: alguns itens de sintaxe foram preteridos no Scala 2.13, como a literal de cadeia de caracteres de aspa única, o operador
+para a concatenação de cadeia de caracteres quando usado com um tipo nãoStringà esquerda e o operador postfix (use a notação de ponto em vez disso). Para obter mais detalhes, confira: Os recursos descartados do Scala nos documentos oficiais do Scala. -
Mensagens de saída: os resultados de texto para mensagens retornadas do REPL podem ser diferentes entre o Scala 2.12 e 2.13. Qualquer discrepância não significa que a sintaxe ou a computação esteja errada; em vez disso, a mensagem descreve o problema ou o contexto de forma diferente ou apresenta-o em um formato representacional diferente. Por exemplo,
f: Foo = Foo(1)pode se tornarf: Foo = Foo(i = 1)em algumas mensagens.
A lista de versões de biblioteca compatíveis com cada versão do Scala do Databricks Runtime 16.4 LTS:
Novos recursos e melhorias
- Painéis, alertas e consultas contam com suporte como arquivos de workspace
- Melhoria de autocompactação de clustering líquido
- O Carregador Automático agora pode limpar arquivos processados no diretório de origem
- Suporte à ampliação de tipos adicionado para o streaming de tabelas Delta
- IDENTIFIER suporte agora disponível no DBSQL para operações de catálogo
- Expressões agrupadas agora fornecem aliases transitórios gerados automaticamente
- Adicionar suporte à API de pushdown de filtro a fontes de dados do Python
- Melhoria de rastreamento de UDF do Python
- UNION/EXCEPT/INTERSECT em uma exibição e EXECUTE IMMEDIATE agora retorna os resultados corretos
- Guia de configuração e migração do plano armazenado em cache da fonte de dados
-
Novas
listaggestring_aggfunções -
O suporte para
MERGE INTOtabelas com controle de acesso refinado na computação dedicada agora está disponível (GA)
Painéis, alertas e consultas contam com suporte como arquivos de workspace
Agora há suporte para painéis, alertas e consultas como arquivos de workspace. Agora você pode interagir programaticamente com esses objetos do Databricks de qualquer lugar em que o sistema de arquivos do workspace esteja disponível, incluindo gravar, ler e excluí-los como qualquer outro arquivo. Para saber mais, confira O que são arquivos de workspace? E interaja programaticamente com arquivos de workspace.
Melhoria de autocompactação de clustering líquido
Agora, as tabelas de clusterização líquida gerenciadas pelo Unity Catalog acionam a auto-compactação para automaticamente reduzir problemas relacionados a arquivos pequenos entre as execuções de OPTIMIZE.
Para obter mais detalhes, consulte Compactação automática para Delta Lake no Azure Databricks.
O Carregador Automático agora pode limpar arquivos processados no diretório de origem
Os clientes agora podem instruir o Carregador Automático a mover ou excluir automaticamente arquivos que foram processados. Opte por esse recurso usando a opção cloudFiles.cleanSource Carregador Automático.
Para obter mais detalhes, consulte as opções do Carregador Automático em cloudFiles.cleanSource.
Suporte à ampliação de tipos adicionado para o streaming de tabelas Delta
Esta versão adiciona o suporte ao streaming de uma tabela Delta que tenha dados de coluna ampliados por tipo e para compartilhamento de uma tabela Delta com ampliação de tipos habilitada usando o Compartilhamento Delta de Databricks para Databricks. No momento, o recurso de ampliação de tipo está atualmente em Versão Prévia Pública.
Para obter mais detalhes, consulte Ampliação de tipos.
IDENTIFIER suporte agora disponível no DBSQL para operações de catálogo
Os clientes do Azure Databricks agora podem usar a IDENTIFIER cláusula ao executar as seguintes operações de catálogo:
CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Essa nova sintaxe permite que os clientes especifiquem dinamicamente nomes de catálogo usando parâmetros definidos para essas operações, permitindo fluxos de trabalho SQL mais flexíveis e reutilizáveis. Como exemplo da sintaxe, considere CREATE CATALOG IDENTIFIER(:param) onde param está um parâmetro fornecido para especificar um nome de catálogo.
Para obter mais detalhes, consulte IDENTIFIER a cláusula.
Expressões agrupadas agora fornecem aliases transitórios gerados automaticamente
Os aliases gerados automaticamente para expressões agrupadas agora sempre incorporarão de forma determinística a informação COLLATE. Os aliases gerados automaticamente são transitórios (instáveis) e não devem ser confiados. Em vez disso, como prática recomendada, use expression AS alias de forma consistente e explícita.
Adicionar suporte à API de pushdown de filtro a fontes de dados do Python
No Databricks Runtime 16.4 LTS, o Azure Databricks adicionou suporte a pushdown de filtro na leitura em lote da fonte de dados do Python como uma API semelhante à interface SupportsPushDownFilters. Agora você pode implementar DataSourceReader.pushFilters para receber os filtros que podem ser passados às camadas inferiores. Você também pode implementar essa API para fornecer lógica na seleção de filtros a serem propagados, rastrear esses filtros e retornar os filtros restantes para que sejam aplicados pelo Apache Spark.
O pushdown de filtro permite que a fonte de dados lide com um subconjunto de filtros. Isso pode melhorar o desempenho reduzindo a quantidade de dados que precisam ser processados pelo Spark.
O filtro pushdown é suportado apenas para leituras em lote, não para leituras de streaming. A nova API deve ser adicionada a DataSourceReader e não a DataSource ou DataSourceStreamReader. A lista de filtros deve ser interpretada como a lógica AND dos elementos na implementação. Este método é executado uma vez durante o planejamento da consulta. Na implementação padrão, ela retorna todos os filtros que indiquem que não há filtros que possam ser passados às camadas inferiores. Use subclasses para substituir este método e implementar sua lógica para a filtragem descendente.
Inicialmente e para manter a API simples, o Azure Databricks dá suporte apenas a filtros V1 que têm uma coluna, um operador booliano e um valor literal. A serialização de filtro é um espaço reservado e será implementada em uma PR futura. Por exemplo:
class DataSourceReader(ABC):
...
def pushFilters(self, filters: List["Filter"]) -> Iterable["Filter"]:
O Azure Databricks recomenda implementar esse método apenas para fontes de dados que dão suporte nativo à filtragem, como bancos de dados e APIs do GraphQL.
Melhoria de rastreamento de UDF do Python
O rastreamento de UDF do Python agora inclui quadros do driver e do executor, juntamente com os quadros do cliente, resultando em melhores mensagens de erro que mostram detalhes maiores e mais relevantes (como o conteúdo de linha de quadros dentro de uma UDF).
UNION/EXCEPT/INTERSECT em uma exibição e EXECUTE IMMEDIATE agora retorna os resultados corretos
Consultas para definições de exibições temporárias e persistentes com UNION/EXCEPT/INTERSECT no nível superior e colunas sem alias anteriormente retornavam resultados incorretos porque as palavras-chave UNION/EXCEPT/INTERSECT eram consideradas aliases. Agora, essas consultas executarão corretamente toda a operação do conjunto.
EXECUTE IMMEDIATE ... INTO com UNION/EXCEPT/INTERSECT de nível superior e com colunas sem aliases também gravavam um resultado incorreto de uma operação de conjunto na variável especificada porque o analisador interpretava essas palavras-chave como aliases. Da mesma forma, consultas SQL com texto final inválido também foram permitidas. As operações de conjunto nesses casos agora atribuem o resultado correto à variável especificada ou falham caso o texto SQL seja inválido.
Guia de configuração e migração do plano armazenado em cache da fonte de dados
A partir do DBR 16.4.0, a leitura de uma tabela de origem de arquivo respeitará corretamente as opções de consulta, por exemplo, os delimitadores. Anteriormente, o primeiro plano de consulta era armazenado em cache e as alterações de opção subsequentes eram ignoradas. Para restaurar o comportamento anterior, defina spark.sql.legacy.readFileSourceTableCacheIgnoreOptions como true.
Novas listagg e string_agg funções
A partir desta versão, você pode usar as listagg funções ou string_agg para agregar STRING e BINARY valores dentro de um grupo.
Consulte string_agg para obter mais detalhes.
O suporte para MERGE INTO tabelas com controle de acesso refinado na computação dedicada agora está disponível (GA)
No Databricks Runtime 16.3 e versões posteriores, a computação dedicada dá suporte a tabelas MERGE INTO do Unity Catalog que usam controle de acesso granular. Esse recurso agora está em disponibilidade geral.
Consulte o controle de acesso refinado na computação dedicada.
Alterações comportamentais de DBR 16.4 LTS
- Tabelas Delta: "DESCRIBE DETAIL table" agora passará a exibir o status de clusterByAuto da tabela
- Correção para respeitar as opções de planos armazenados em cache da fonte de dados
- Regra de redação movida do analisador para o otimizador
- variant_get e get_json_object agora consideram os principais espaços em caminhos no Apache Spark
- Habilitar o sinalizador para impedir a desabilitação da materialização de origem em operações MERGE
- Mover a âncora de habilitação do log de metadados de partição para a tabela
- Rebaixamento de Json4s de 4.0.7 para 3.7.0-M11 no DBR 16.2 e 16.3
Tabelas Delta: "DESCRIBE DETAIL table" agora passará a exibir o status de clusterByAuto da tabela
DESCRIBE DETAIL {table} agora mostrará o status da tabela clusterByAuto (verdadeiro ou falso) ao lado das colunas de agrupamento atuais. Para obter mais detalhes sobre clusterByAuto, veja:Agrupamento líquido automático.
Correção para respeitar as opções de planos armazenados em cache da fonte de dados
Essa atualização garante que as leituras de tabelas respeitem as opções definidas para todos os planos de fonte de dados ao serem armazenadas em cache, não apenas na primeira leitura de tabela em cache.
Anteriormente, as leituras da tabela de fonte de dados armazenavam em cache o primeiro plano, mas não contavam com opções diferentes nas consultas subsequentes.
Por exemplo, a seguinte consulta:
spark.sql("CREATE TABLE t(a string, b string) USING CSV".stripMargin)
spark.sql("INSERT INTO TABLE t VALUES ('a;b', 'c')")
spark.sql("SELECT * FROM t").show()
spark.sql("SELECT * FROM t WITH ('delimiter' = ';')")
produziria esta saída:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
Com essa correção, agora ela retorna a saída esperada:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a | b,c|
+----+----+
Se suas cargas de trabalho tiverem dependências do comportamento incorreto anterior, você poderá ver resultados diferentes após essa alteração.
Regra de redação movida do analisador para o otimizador
Anteriormente, o DataFrames poderia criar tabelas que continham valores redigidos quando funções SQL SECRET válidas eram usadas. Essa alteração remove a redação ao salvar DataFrames com acesso secreto válido a uma tabela e a regra de redação foi movida do analisador para o otimizador.
variant_get e get_json_object agora consideram os principais espaços em caminhos no Apache Spark
Antes dessa alteração, os espaços em branco à esquerda e as guias nos caminhos nas expressões variant_get e get_json_object eram ignorados com o Photon desabilitado. Por exemplo, select get_json_object('{" key": "value"}', '$[' key']') não seria eficaz na extração do valor de " key". No entanto, os usuários poderão extrair essas chaves.
Habilitar o sinalizador para impedir a desabilitação da materialização de origem em operações MERGE
Anteriormente, os usuários podiam desabilitar a materialização de origem em MERGE definindo merge.materializeSource como none. Com o novo sinalizador habilitado, isso será proibido e causará um erro. O Databricks planeja habilitar o sinalizador somente para clientes que não usaram esse sinalizador de configuração antes, portanto, nenhum cliente deve notar qualquer alteração no comportamento.
Mover a âncora de habilitação do log de metadados de partição para a tabela
O recurso de registro de metadados de partição foi alterado para que, ao criar uma tabela com spark.databricks.nonDelta.partitionLog.enabled = true, você possa associá-la a uma tabela específica, evitando que um cluster aplique spark.databricks.nonDelta.partitionLog.enabled = true a todas as tabelas processadas pelo cluster.
Fazer o downgrade do Json4s de 4.0.7 para 3.7.0-M11 no DBR 16.2 e 16.3
Os clientes não podem usar o databricks-connect 16.1+ e o Apache Spark™ 3.5.x juntos no mesmo aplicativo devido a discrepâncias significativas no comportamento da API entre o Json4s versão 3.7.0-M11 e a versão 4.0.7. Para resolver isso, o Azure Databricks rebaixou o Json4s para 3.7.0-M11.
Atualizações de biblioteca (aplica-se somente à imagem Scala 2.12)
- Bibliotecas do R atualizadas:
- sparklyr de 1.8.4 para 1.8.6 (aplica-se apenas à imagem do Scala 2.12 para a versão do Databricks Runtime 16.4 LTS)
- Bibliotecas Java atualizadas:
- io.delta.delta-sharing-client_2.12 de 1.2.3 a 1.2.4
- org.json4s.json4s-ast_2.12 de 4.0.7 para 3.7.0-M11
- org.json4s.json4s-core_2.12 de 4.0.7 para 3.7.0-M11
- org.json4s.json4s-jackson_2.12 de 4.0.7 para 3.7.0-M11
- org.json4s.json4s-scalap_2.12 de 4.0.7-M11 para 3.7.0-M11
A versão do Scala 2.13 Databricks Runtime é considerada uma versão "nova" e pode ter versões de biblioteca diferentes da 2.12. Consulte a tabela abaixo para versões de biblioteca específicas nessa imagem de versão. Ele não inclui sparklyr nesta versão.
Apache Spark
O Databricks Runtime 16.4 LTS inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.3 (EoS), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- [SPARK-51206] [PYTHON][Connect] Mover os auxiliares de conversão do Arrow direto do Spark Connect
- [SPARK-51566] [PYTHON] Melhoria de rastreamento de UDF do Python
- [SPARK-51675] [SS] Corrigir a criação da família de colunas após abrir o banco de dados local para evitar a criação de instantâneo, se não for necessário
- [SPARK-50892] [SQL]Adicionar UnionLoopExec, operador físico para recursão, para executar a execução de consultas recursivas
- [SPARK-51670] [SQL] Refatorar Intersect e Except para seguir o exemplo Union para reutilização no Analisador de passagem única
- [SPARK-47895] [BEHAVE-266][sql] agrupamento por alias deve ser idempotente
- [SPARK-51614] [SQL] Introduza a regra ResolveUnresolvedHaving no Analisador
- [SPARK-51662] [SQL] Tornar OrcFileFormat comparável
- [SPARK-51374] Reverter "[CORE] Alternar para usar java.util.Map em APIs de log"
- [SPARK-51652] [SQL] Refatorar a computação de SetOperation para reutilização no Analisador de passagem única
- [SPARK-51622] [Interface do usuário] Titulação das seções na Página de Execução
- [SPARK-51586] [SS] inicializar as partições de entrada independentemente do suporte columnar no modo contínuo
-
[SPARK-51070] [SQL] Usar
scala.collection.Setem vez de Definir em ValidateExternalType - [SPARK-51559] [SQL] Tornar configurável o tamanho máximo da tabela de difusão
- [SPARK-51496] [SQL] A comparação CaseInsensitiveStringMap deve ignorar as diferenças entre maiúsculas e minúsculas
- [SPARK-50416] [CORE] Um teste mais portátil para terminal/pipe necessário para bin/load-spark-env.sh
-
[SPARK-51509] [CORE][ui] Fazer com que a página de ambiente do
Spark Masterdê suporte a filtros - [SPARK-51374] [CORE] Alternar para usar java.util.Map em APIs de log
- [SPARK-50820] [SQL] DSv2: anulificação condicional de colunas de metadados no DML
- [SPARK-48922] [SQL] Evite a transformação de matriz redundante de expressão idêntica para o tipo de mapa
- [SPARK-51446] [SQL] Aprimorar codecNameMap para o codec de compactação
- [SPARK-51341] [CORE] Cancelar a tarefa de tempo adequadamente.
- [SPARK-51452] [UI] Melhorar a pesquisa na tabela de despejo de thread
-
[SPARK-51444] [CORE] Remover o ramo inacessível
ifdeTaskSchedulerImpl#statusUpdate -
[SPARK-51401] [SQL] Alterar
ExplainUtils.generateFieldStringpara chamar diretamenteQueryPlan.generateFieldString - [SPARK-49507] [SQL] Corrigir o problema de caso depois de habilitar metastorePartitionPruningFastFallback
- [SPARK-51506] [PYTHON][ss] Não imponha que os usuários implementem close() em TransformWithStateInPandas
- [SPARK-51624] [SQL] Propagar os metadados de GetStructField em CreateNamedStruct.dataType
- [SPARK-51201] [SQL] Permitir que dicas de particionamento suportem valores do tipo byte e short
-
[SPARK-51186] [PYTHON] Adicionar
StreamingPythonRunnerInitializationExceptionà exceção base do PySpark - [SPARK-50286] [SQL] Propagar corretamente as opções de SQL para WriteBuilder
- [SPARK-51616] [SQL] Executar CollationTypeCasts antes de ResolveAliases e ResolveAggregateFunctions
- SPARK-51023 [CORE] registrar o endereço remoto na exceção de RPC
- [SPARK-51087] [PYTHON][connect] Emitir um aviso quando o memory-profiler não estiver instalado para análise de memória
-
[SPARK-51073] [SQL] Remover
Unstableda característicaSparkSessionExtensionsProvider - [SPARK-51471] [SS] RatePerMicroBatchStream – classificar o erro ASSERT quando o deslocamento/carimbo de data/hora em startOffset for maior que endOffset
- [SPARK-51062] [PYTHON] Corrigir assertSchemaEqual para comparar a precisão e a escala decimais
- [SPARK-51612] [SQL] Exibir configurações do Spark definidas na criação do modo de exibição no Desc As Json
- [SPARK-51573] [SS] Correção de condição de corrida checkpointInfo de Streaming State Checkpoint v2
- [SPARK-51252] [SS] Adicionar métricas de instância para a última versão do instantâneo carregado nos Repositórios de Estado do HDFS
- [SPARK-51552] [SQL] Não permite variáveis temporárias em exibições persistentes quando sob identificador
- [SPARK-51625] [SQL] Comando nas relações CTE deve ser disparado em linha
- [SPARK-51584] [SQL] Adicionar regra que empurra o Project por meio de Offset e Suite que a testa
-
[SPARK-51593] [SQL] Refatorar a instanciação
QueryExecutionMetering - [SPARK-49082] [SQL] Suporte para ampliar Date para TimestampNTZ no leitor Avro
- [SPARK-50220] [PYTHON] Suporte ao listagg no PySpark
-
[SPARK-51581] [CORE][sql] Usar
nonEmpty/isEmptypara empty checkIterableexplícito - [SPARK-42746] [SQL] Correção na classificação de classe de erro para novas exceções com listagg
-
[SPARK-51580] [SQL] Gerar mensagem de erro adequada para o usuário quando a função lambda estiver fora do lugar em
HigherOrderFunction - [SPARK-51589] [SQL] Corrigir um pequeno bug que causa falha ao verificar se há funções de agregação em |>SELECT
- [SPARK-50821] [PYTHON] Atualizar Py4J de 0.10.9.8 para 0.10.9.9
- [SPARK-42746] [SQL] Implementar função LISTAGG
- [SPARK-48399] [SQL] Teradata: ByteType deve ser mapeado para BYTEINT em vez de BYTE(binary)
- [SPARK-43221] [CORE] A busca de bloco local do host deve usar um status de bloco de um bloco armazenado em disco
- [SPARK-51467] [Interface do usuário] Tornar as tabelas da página de ambiente filtradas
-
[SPARK-51569] [SQL] Não reinstanciar
InSubqueryemInTypeCoercionse não houver alterações de tipo - [SPARK-51280] [CONNECT] Melhorar a classe de erro RESPONSE_ALREADY_RECEIVED
- [SPARK-51525] [SQL] Campo de agrupamento para Desc As JSON StringType
- [SPARK-51565] [SQL] Suporte a parâmetros SQL na cláusula window frame
- [SPARK-51544] [SQL] Adicionar somente colunas de metadados exclusivas e necessárias
- [SPARK-49349] [SQL] Melhorar a mensagem de erro para LCA com Generate
- [SPARK-51418] [SQL] Corrigir as colunas de partição incompatíveis de tipo de TABLE DataSource PARTITON com Hive
- [SPARK-51269] [SQL] Simplificar AvroCompressionCodec removendo defaultCompressionLevel
- [SPARK-50618] [SS][sql] Fazer DataFrameReader e DataStreamReader aproveitarem mais o analisador
- [SPARK-51097] [SS} Reintroduzir as métricas de instância da última versão do instantâneo carregado do armazenamento de estado do RocksDB
- [SPARK-51321] [SQL] Adicionar o suporte a rpad e lpad para pushdown das expressões PostgresDialect e MsSQLServerDialect
- [SPARK-51428] [BEHAVE-264][sql] Reatribuir Aliases para árvores de expressão agrupadas deterministicamente
- [SPARK-51528] [SQL] Não compare códigos de hash diretamente no ProtobufCatalystDataConversionSuite
- [SPARK-51443] [SS] Corrigir singleVariantColumn no DSv2 e em readStream.
- [SPARK-51397] [SS] Corrigir o problema em lidar com o desligamento do pool de manutenção que estiver causando longos tempos de teste
- [SPARK-51522] [SQL] Desabilitar o teste de lazy union children do Analisador de passagem única
- SPARK-51079 [Encaminhamento de correção] Suporte a tipos de variáveis grandes em pandas UDF, createDataFrame e toPandas com o Arrow
-
[SPARK-51112] [ES-1348599][Connect] Evitar usar
to_pandasde pyarrow em uma tabela vazia - [SPARK-51438] [SQL] Tornar CatalystDataToProtobuf e ProtobufDataToCatalyst adequadamente comparáveis e hasháveis
- [SPARK-50855] [DBR16.x][ss][CONNECT] Suporte do Spark Connect para TransformWithState in Scala
-
[SPARK-51208] [SQL]
ColumnDefinition.toV1Columndeve preservar a resoluçãoEXISTS_DEFAULT - [SPARK-51468] [SQL] Reverter "A função de json/xml não deve alterar agrupamentos no esquema especificado"
- [SPARK-51453] [SQL] AssertTrue usa toPrettySQL em vez de simpleString
- SPARK-51409 [SS] Adicionar a classificação de erro no caminho de alterações
- [SPARK-51440] [SS] classifica o NPE quando o valor do campo de tópico nulo está nos dados da mensagem kafka e não há nenhuma opção de tópico
-
[SPARK-51425] [Conectar] Adicionar API do cliente para definir personalizado
operation_id - [SPARK-50652] [SS] Adicionar verificações à compatibilidade com versões anteriores do RocksDB V2
- [SPARK-49164] [SQL] Correção de not NullSafeEqual no predicado da consulta SQL na Relação JDBC
- [SPARK-50880] [SQL] Adicionar um novo método visitBinaryComparison a V2ExpressionSQLBuilder
- [SPARK-50838] [SQL]Executa verificações adicionais dentro de CTEs recursivos para gerar um erro se for encontrado um caso proibido
- [SPARK-51307] [SQL] locationUri in CatalogStorageFormat deve ser decodificado para exibição
- [SPARK-51079] [PYTHON] Suporte a tipos de variáveis grandes em pandas UDF, createDataFrame e toPandas com o Arrow
- [SPARK-50792] [SQL] Formatar os dados binários como um literal binário em JDBC.
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers lançados recentemente aqui:
Ambiente do sistema
-
Sistema operacional: Ubuntu 24.04.2 LTS.
- Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15 ou 2.13.10
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.1
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| comando automático | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 2.0.4 | click | 8.1.7 |
| cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecado | 1.2.14 | distlib | 0.3.8 |
| docstring-to-markdown | 0.11 | em execução | 0.8.3 | Visão geral de facetas | 1.1.1 |
| bloqueio de arquivo | 3.15.4 | fonttools | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth | 2.35.0 |
| google-cloud-core | 2.4.1 | armazenamento na nuvem do Google | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | idna | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets (biblioteca Python para widgets interativos) | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | Convenções Semânticas do OpenTelemetry | 0.48b0 | empacotamento | 24.1 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.6 | pexpect | 4.8.0 | almofada | 10.3.0 |
| pip | 24,2 | platformdirs | 3.10.0 | plotly | 5.22.0 |
| pluggy | 1.0.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | python-dateutil | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server (servidor LSP para Python) | 1.10.0 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | Solicitações | 2.32.2 |
| rope | 1.12.0 | rsa | 4.9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy | 1.13.1 | seaborn | 0.13.2 |
| setuptools | 74.0.0 | seis | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id | 5.11 | stack-data | 0.2.0 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.14.2 | tenacidade | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.4.1 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| tipos de solicitações | 2.31.0.0 | types-setuptools | 68.0.0.0 | types-six | 1.16.0 |
| types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 | ujson | 5.10.0 |
| atualizações não supervisionadas | 0,1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | whatthepatch | 1.0.2 |
| wheel | 0.43.0 | wrapt | 1.14.1 | yapf | 0.33.0 |
| zipp | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 2024-08-04.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 16.1.0 | AskPass | 1.2.0 | afirme isso | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | ciar | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
| sinal de interpolação | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| classe | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
| espaço de cores | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| configuração | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | credenciais | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | hash | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| fansi | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| estrangeiro | 0.8 - 86 | forge | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
| genéricos | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | associar | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| Gráficos | 4.4.0 | grDevices | 4.4.0 | grade | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | refúgio | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | ferramentas HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | rotulagem | 0.4.3 |
| posterior | 1.3.2 | treliça | 0,22-5 | lava vulcânica | 1.8.0 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matriz | 1.6-5 | memoise | 2.0.1 | Métodos | 4.4.0 |
| mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
| parallelly | 1.38.0 | coluna | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progresso | 1.2.3 |
| progressr | 0.14.0 | Promessas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | capaz de reagir | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| Receitas | 1.1.0 | jogo de revanche | 2.0.0 | revanche2 | 2.1.2 |
| remotos | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| escalas | 1.3.0 | selectr | 0.4-2 | informações de sessão | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr (veja a observação abaixo) | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.4.0 | estatísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | sobrevivência | 3.6-4 | swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | formatação de texto | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| mudança de horário | 0.3.0 | data e hora | 4032.109 | tinytex | 0.52 |
| Ferramentas | 4.4.0 | tzdb | 0.4.0 | verificador de URL | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| identificador único universal (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | Waldo | 0.5.2 |
| whisker | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | zip | 2.3.1 |
Observação
Só há suporte para o sparklyr na imagem de versão do Databricks Runtime 16.4 LTS com suporte para Scala 2.12. Essa função não é suportada na imagem de release do DBR 16.4 com suporte ao Scala 2.13.
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.13 | 2.15.2 |
| com.github.ben-manes.caffeine | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | configuração | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.27 |
| io.delta | delta-sharing-client_2.13 | 1.2.3 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.github.java-diff-utils | java-diff-utils | 4.12 |
| io.netty | Netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.jline | jline | 3.21.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 3.7.0-M11 |
| org.json4s | json4s-core_2.13 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.13 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.13 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.10 |
| org.scala-lang | scala-library_2.13 | 2.13.10 |
| org.scala-lang | scala-reflect_2.13 | 2.13.10 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.0.4 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.13 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.14.2 |
| org.scalactic | scalactic_2.13 | 3.2.16 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.16 |
| org.scalatest | scalatest_2.13 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.azure | azure-core | 1.30.0 |
| com.azure | azure-core-http-netty | 1.12.3 |
| com.azure | azure-identity | 1.5.3 |
| com.azure | azure-security-keyvault-keys | 4.4.4 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-xml | 2.13.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.15.2 |
| com.fasterxml.woodstox | woodstox-core | 6.4.0 |
| com.github.ben-manes.caffeine | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.stephenc.jcip | jcip-annotations | 1.0-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.azure | msal4j | 1.13.0 |
| com.microsoft.azure | msal4j-persistence-extension | 1.1.0 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.nimbusds | tipo de conteúdo | 2,2 |
| com.nimbusds | lang-tag | 1.6 |
| com.nimbusds | nimbus-jose-jwt | 9.31 |
| com.nimbusds | oauth2-oidc-sdk | 9.35 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.4 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | Netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-dns | 4.1.77.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-resolver-dns | 4.1.77.Final |
| io.netty | netty-resolver-dns-classes-macos | 4.1.77.Final |
| io.netty | netty-resolver-dns-native-macos | 4.1.77.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.projectreactor | núcleo do reator | 3.4.19 |
| io.projectreactor.netty | reactor-netty-core | 1.0.20 |
| io.projectreactor.netty | reactor-netty-http | 1.0.20 |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.java.dev.jna | jna-platform | 5.6.0 |
| net.minidev | accessors-smart | 2.4.11 |
| net.minidev | json-smart | 2.4.11 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.bouncycastle | bcprov-jdk15on | 1.70 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.codehaus.woodstox | stax2-api | 4.2.1 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.ow2.asm | asm | 9.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.reactivestreams | reactive-streams | 1.0.4 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Dica
Para ver as notas de release das versões do Databricks Runtime que atingiram o fim do suporte (EoS), confira Notas de release do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.