Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte o histórico de fim de suporte. Para todas as versões do Databricks Runtime com suporte, consulte as versões de versão do Databricks Runtime e a compatibilidade.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.2, alimentado pelo Apache Spark 3.5.2.
O Databricks lançou esta versão em fevereiro de 2025.
Alterações comportamentais
O ANALYZE agora ignora colums com tipos sem suporte
ANALYZE TABLE não resulta mais em uma mensagem de erro quando executada em uma tabela com tipos sem suporte, como ARRAY ou MAP. As colunas sem suporte agora são ignoradas automaticamente. Os usuários que implementaram a lógica que espera esses erros devem atualizar seu código.
No Compartilhamento Delta, o histórico de tabelas é habilitado por padrão
Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table> agora têm o compartilhamento de histórico (WITH HISTORY) habilitado por padrão. Consulte ALTER SHARE.
Instruções SQL de credencial retornam um erro quando há uma incompatibilidade de tipo de credencial
Com essa versão, se o tipo de credencial especificado em uma instrução SQL de gerenciamento de credenciais não corresponder ao tipo do argumento de credencial, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name', se credential-name não for uma credencial de armazenamento, a instrução falhará com um erro.
Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, essas instruções eram executadas com êxito, mesmo que fosse passada uma credencial que não correspondesse ao tipo de credencial especificado. Por exemplo, a instrução a seguir removeria storage-credentialcom êxito: DROP SERVICE CREDENTIAL storage-credential.
Essa mudança afeta as seguintes declarações:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… EM... CREDENCIAL
- REVOKE… EM... CREDENCIAL
- SHOW GRANTS SOBRE... CREDENCIAL
Novos recursos e aprimoramentos
-
Criar aplicativos personalizados com estado com
transformWithState - Autenticar no armazenamento de objetos de nuvem com credenciais de serviço
- Agora, o acesso controlado pelo Catálogo do Unity nos serviços de nuvem externos que usam as credenciais de serviço está em disponibilidade geral
- Há suporte para notebooks como arquivos de workspace
-
Usar as
timestampdiffexpressões de coluna ×tampaddin geradas - Suporte para sintaxe de pipeline do SQL
-
Fazer solicitação HTTP usando a
http_requestfunção -
Atualizar para
DESCRIBE TABLEretornar metadados como JSON estruturado - Agrupamentos insensíveis em branco à direita
- Converter tabelas do Apache Iceberg com particionamento de bucket em tabelas Delta não particionadas
-
A computação do modo de acesso padrão (antigo modo de acesso compartilhado) agora dá suporte aos métodos
foreachforeachBatchDo Spark Scala eflatMapGroupsWithState
Criar aplicativos personalizados com estado com transformWithState
Agora você pode usar transformWithState e apIs relacionadas para implementar aplicativos com estado personalizados como parte de consultas de Streaming Estruturado. Consulte Criar um aplicativo com estado personalizado.
Autenticar no armazenamento de objetos de nuvem com credenciais de serviço
Agora você pode usar as credenciais de serviço do Databricks para autenticar no armazenamento de objetos de nuvem com o Carregador Automático. Consulte Configurar fluxos do Carregador Automático no modo de notificação de arquivo.
O acesso controlado pelo Catálogo do Unity a serviços de nuvem externos usando credenciais de serviço agora é GA
As credenciais de serviço habilitam a autenticação simples e segura com os serviços do locatário de nuvem do Azure Databricks. Com o Databricks Runtime 16.2, as credenciais de serviço geralmente estão disponíveis e agora dão suporte a SDKs do Scala, além do SDK do Python com suporte na Visualização Pública. Consulte Criar credenciais de serviço.
Há suporte para notebooks como arquivos de workspace
No Databricks Runtime 16.2 e superior, há suporte para notebooks como arquivos de workspace. Agora você pode interagir programaticamente com notebooks de qualquer lugar em que o sistema de arquivos do workspace esteja disponível, incluindo escrever, ler e excluir blocos de anotações como qualquer outro arquivo. Para saber mais, consulte Programaticamente criar, atualizar e excluir arquivos e diretórios.
Usar o timestampdiff & timestampadd em expressões de coluna geradas
No Databricks Runtime 16.2 e superior, você pode usar as funções timestampdiff e timestampadd em expressões de coluna geradas pelo Delta Lake. Confira Colunas geradas pelo Delta Lake.
Suporte para a sintaxe dos pipelines do SQL
No Databricks Runtime 16.2 e superior, você pode redigir pipelines SQL. Um pipeline do SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para saber mais sobre a sintaxe com suporte para pipelines SQL, consulte SQL Pipeline Syntax.
Para obter informações básicas sobre essa extensão intersetorial, consulte O SQL tem problemas. Podemos corrigi-los: Sintaxe de pipe no SQL (por Google Research).
Fazer solicitação HTTP usando a http_request função
No Databricks Runtime 16.2 e superior, você pode criar conexões HTTP e, por meio delas, fazer solicitações HTTP usando a função http_request .
Atualizar para DESCRIBE TABLE retorna metadados como JSON estruturado
No Databricks Runtime 16.2 e superior, você pode usar o DESCRIBE TABLE AS JSON comando para retornar metadados de tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório legível por humanos padrão e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.
Ordenações que não diferenciam branco à direita
O Databricks Runtime 16.2 adiciona suporte para agrupamentos insensíveis à direita, adicionando ao suporte de ordenação adicionado ao Databricks Runtime 16.1. Por exemplo, essas colações tratam 'Hello' e 'Hello ' como sendo iguais. Para saber mais, consulte Ordenação RTRIM.
Converter tabelas do Apache Iceberg com particionamento de bucket em tabelas Delta não particionadas
As CONVERT TO DELTA instruções e CREATE TABLE CLONE agora dão suporte à conversão de uma tabela Apache Iceberg com particionamento de bucket em uma tabela Delta não particionada.
A computação do modo de acesso padrão (antigo modo de acesso compartilhado) agora dá suporte aos métodos foreachforeachBatchDo Spark Scala eflatMapGroupsWithState
No Databricks Runtime 16.2 e superior, a computação do modo de acesso padrão agora dá suporte aos métodos DataStreamWriter.foreachBatch Scala e KeyValueGroupedDataset.flatMapGroupsWithState. No Databricks Runtime 16.1 e superior, a computação do modo de acesso padrão agora dá suporte ao método DataStreamWriter.foreachScala.
Correções
Processamento do clone incremental aprimorado
Esta versão inclui uma correção para um caso extremo em que um CLONE incremental pode recopiar arquivos já copiados de uma tabela de origem para uma tabela de destino. Consulte Clonar uma tabela no Azure Databricks.
Atualizações de biblioteca
- Bibliotecas do Python atualizadas:
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-scalap_2.12 de 3.7.0-M11 a 4.0.7
Apache Spark
O Databricks Runtime 16.2 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.1 (EoS), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
-
[SPARK-49966] Reverter "[SC-179501][sql] Usar
Invokepara implementarJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Correção da execução da consulta do andador de expressão de ordenação
- [SPARK-49666] [SQL] Habilitar testes de corte para a expressão InSet
- [SPARK-50669] [SC-184566][es-1327450][SQL] Alterar a assinatura da expressão TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Carimbo de data/hora da Loja como
longtipo nodescribeLinkedHashMap - [SPARK-50870] [SC-186950][sql] Adicionar o fuso horário ao converter em carimbo de data/hora em V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][connect] Falha em ExecuteResponseObserver resulta em solicitações de reanexação infinita
- [SPARK-50522] [SC-186500][sql] Suporte para ordenação indeterminada
- [SPARK-50525] [SC-186058][sql] Definir a Regra do Otimizador InsertMapSortInRepartitionExpressions
- [SPARK-50679] [SC-184572][sql] Expressões comuns duplicadas em diferentes Com devem ser projetadas apenas uma vez
- [SPARK-50847] [SC-186916] [SQL] Negar a aplicação de ApplyCharTypePadding em expressões específicas
- [SPARK-50714] [SC-186786][sql][SS] Habilitar a evolução do esquema para TransformWithState quando a codificação Avro é usada
-
[SPARK-50795] [SC-186390][sql] Exibir todas as datas DESCRIBE AS JSON no formato ISO-8601 e tipos como
dataType.simpleString - [SPARK-50561] [SC-185924][sql] DBR 16.x cherrypick: Aprimorar a coerção do tipo e a verificação de limites para a função SQL UNIFORME
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalogdábuiltinsuporte a valor mágico - [SPARK-50831] [SC-186736][sql] Habilitar a ordenação de corte por padrão
-
[SPARK-50263] [SC-186793][conectar] Substituir
System.currentTimeMillisporSystem.nanoTime - [SPARK-48730] [SC-184926][sql] Implementar CreateSQLFunctionCommand para Funções Escalares e de Tabela SQL
- [SPARK-50830] [SC-186718] [SQL] Retornar resultado de passe único como o resultado da análise de execução dupla
- [SPARK-50707] [SC-186098][sql] Habilitar a conversão para/de char/varchar
- [SPARK-49490] [SC-182137][sql] Adicionar parâmetros de comparação para o initCap
-
[SPARK-50529] [SC-184535][sql] Alterar o comportamento char/varchar sob a
spark.sql.preserveCharVarcharTypeInfoconfiguração - [SPARK-49632] [SC-184179][sql] Remova a sugestão de configuração ANSI no CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Corrigir bug em que passar variantes nulas no createDataFrame faz com que ele falhe e adicione suporte variant em createDataFrame no Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] Preterir
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Conjunto analisado sobre falha na análise
- [SPARK-50824] [SC-186472][python] Evite importar pacotes opcionais do Python para verificação
- [SPARK-50755] [SC-185521][sql] Exibição de plano bonita para InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] As entradas para agregações tipadas devem ser analisadas
- [SPARK-50791] [SC-185867][sc-186338][SQL] Corrigir NPE no tratamento de erros do Repositório de Estado
-
[SPARK-50801] [SC-186365] [SQL] Aprimorar
PlanLogger.logPlanResolutionpara que ele mostre apenas planos não resolvidos e resolvidos - [SPARK-50749] [SC-185925][sql] Corrigir bug de ordenação no método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Canonicalize o nome e o layout do arquivo de resultados do criador de perfil JVM no DFS
- [SPARK-50790] [SC-186354][python] Implementar json de análise no pyspark
- [SPARK-50738] [SC-184856][python] Atualizar preto para 23.12.1
- [SPARK-50764] [SC-185930][python] Refinar a docstring de métodos relacionados ao xpath
-
[SPARK-50798] [SC-186277][sql] Aprimorar
NormalizePlan - [SPARK-49883] [SC-183787][ss] Integração da Estrutura de Checkpoint da State Store V2 com RocksDB e RocksDBFileManager
- [SPARK-50779] [SC-186062][sql] Adicionando sinalizador de recurso para ordenações no nível do objeto
- [SPARK-50778] [SC-186183][python] Adicionar metadadosColumn ao PySpark DataFrame
- [SPARK-49565] [SC-186056][sql] DBR 16.x cherrypick: Aprimorar aliases de expressão gerada automaticamente com operadores SQL de pipe
- [SPARK-50541] [16.x][sc-184937] Descrever tabela como JSON
- [SPARK-50772] [SC-185923][sql] DBR 16.x cherrypick: Manter aliases de tabela após SET, EXTEND, operadores DROP
- [SPARK-50769] [SC-185919][sql] Fix ClassCastException in HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar a diferença de código Delta com a DBR
- [SPARK-50752] [SC-185547][python][SQL] Introduza configurações para ajustar o UDF do Python sem seta
-
[SPARK-50705] [SC-185944][sql] Tornar
QueryPlansem bloqueio - [SPARK-50690] [16.x][sc-184640][SQL] Corrigir discrepância nas DESCRIBE TABLE colunas de saída da consulta de exibição entre aspas
- [SPARK-50746] [SC-184932][sql] Substitua por VariantPathSegment.
-
[SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builderdefine as configurações em lote - [SPARK-50480] [SC-183359][sql] Estender CharType e VarcharType de StringType
- [SPARK-50675] [SC-184539][sql] Suporte a ordenações de nível de tabela e exibição
-
[SPARK-50409] [SC-184516][sql] Correção da instrução set para ignorar
;no final deSET;,SET -v;eSET key; - [SPARK-50743] [SC-185528][sql] Normalize IDs CTERelationDef e CTERelationRef
- [SPARK-50693] [SC-184684][connect] As entradas para TypedScalaUdf devem ser analisadas
- [SPARK-50744] [SC-184929][sql] Adicionar um caso de teste para precedência de resolução de nome de exibição/CTE
- [SPARK-50710] [SC-184767][connect] Adicionar suporte para reconexão opcional do cliente às sessões após a versão
- [SPARK-50703] [SC-184843][python] Refinar a docstring de regexp_replace, regexp_substr e regexp_instr
-
[SPARK-50716] [SC-184823][core] Corrigir a lógica de limpeza para links simbólicos no
JavaUtils.deleteRecursivelyUsingJavaIOmétodo - [SPARK-50630] [SC-184443][sql] Corrigir GROUP BY suporte ordinal para operadores DE AGREGAÇÃO DE SQL de pipe
- [SPARK-50614] [SC-184729][sql] Adicionar suporte de fragmentação Variant para Parquet
- [SPARK-50661] [SASP-4936] Adicionar compatibilidade com versões anteriores para FEB do cliente antigo.
-
[SPARK-50676] [SC-184641][sql] Remover não utilizado
private lazy val mapValueContainsNullElementAt -
[SPARK-50515] [SC-183813][core] Adicionar interface somente leitura a
SparkConf - [SPARK-50697] [SC-184702][sql] Habilitar a recursão final sempre que possível
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Corrigir o esquema de estado para FlatMapGroupsWithState no Spark Connect quando não houver estado inicial
- [SPARK-50701] [SC-184704][python] Fazer plotagem exigir a versão de plotagem mínima
- [SPARK-50702] [SC-184727][python] Refinar a docstring de regexp_count, regexp_extract e regexp_extract_all
- [SPARK-50499] [SC-184177][python] Expor métricas do BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Adicionar suporte a pushdown do RPAD
- [SPARK-50682] [SC-184579][sql] O alias interno deve ser canonizado
- [SPARK-50699] [SC-184695][python] Analisar e gerar cadeia de caracteres DDL com uma sessão especificada
- [SPARK-50573] [SC-184568][ss] Adicionando id de esquema de estado a linhas de estado à evolução do esquema
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Correção do Spark Connect Scala foreachBatch impl. para dar suporte ao conjunto de dados[T].
- [SPARK-50689] [SC-184591][sql] Impor ordenação determinística em listas de projetos LCA
- [SPARK-50696] [SC-184667][python] Otimizar chamada Py4J para método de análise de DDL
- [SPARK-49670] [SC-182902][sql] Habilitar ordenação de corte para todas as expressões de passagem
-
[SPARK-50673] [SC-184565][ml] Evite atravessar coeficientes de modelo duas vezes no
Word2VecModelconstrutor - [SPARK-50687] [SC-184588][python] Otimize a lógica para obter rastreamentos de pilha para DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Armazene o esquema analisado para MapInXXX e ApplyInXXX
- [SPARK-50674] [SC-184589][python] Correção da verificação da existência do método 'terminate' na avaliação UDTF
- [SPARK-50684] [SC-184582][python] Melhorar o desempenho de Py4J no DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Adicionar suporte para a nova versão dos metadados de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][sql] Corrigir transposição para mostrar uma mensagem de erro adequada quando colunas de índice inválidas são especificadas
- [SPARK-50650] [SC-184532][sql] Melhorar o registro em log no Analisador de passagem única
- [SPARK-50665] [SC-184533][sql] Substituir LocalRelation por ComparableLocalRelation em NormalizePlan
- [SPARK-50644] [SC-184486][sql] Ler struct variant no leitor Parquet.
- [SPARK-49636] [SC-184089][sql] Remova a sugestão de configuração ANSI em INVALID_ARRAY_INDEX e INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Refatorar cálculo de saída da União para reutilizá-lo no Analisador de única passagem.
- [SPARK-50659] [SC-184512][sql] Mover erros relacionados à União para QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Corrigir cálculo de contexto de tipo de cadeia de caracteres implícita incorreta
- [SPARK-50546] [SC-183807][sql] Adicionar suporte de conversão de subconsultas à coerção do tipo de ordenação
- [SPARK-50405] [SC-182889][sql] Manipular coerção de tipo de ordenação de tipos de dados complexos corretamente
- [SPARK-50637] [SC-184434][sql] Corrigir o estilo de código para o Analisador de passagem única
- [SPARK-50638] [SC-184435][sql] Refatorar a resolução de exibição para o arquivo separado para reutilizá-la no Analisador de passagem única
- [SPARK-50615] [SC-184298][sql] Empurrar variante na varredura.
- [SPARK-50619] [SC-184210][sql] Refatorar VariantGet.cast para empacotar os argumentos de conversão
- [SPARK-50599] [SC-184058][sql] Criar a característica do DataEncoder que permite a codificação Avro e UnsafeRow
- [SPARK-50076] [SC-183809] Corrigir teclas de log
- [SPARK-50597] [SC-183972][sql] Refatorar a construção em lote em Optimizer.scala e SparkOptimizer.scala
- [SPARK-50339] [SC-183063][spark-50360][SS] Habilitar a caixa de alteração para armazenar informações de linhagem
- [SPARK-50526] [SC-183811][ss] Adicionar configuração de formato de codificação do repositório ao log de deslocamento e impedir que operadores com estado sem suporte usem avro
- [SPARK-50540] [SC-183810][python][SS] Corrigir esquema de cadeia de caracteres para StatefulProcessorHandle
- [SPARK-50157] [SC-183789][sql] Usando SQLConf fornecido primeiro pelo SparkSession.
- [SPARK-48898] [SC-183793][sql] Definir a nulidade corretamente no esquema Variant
- [SPARK-50559] [SC-183814][sql] Armazenar saídas de Exceto, Intersecção e União como valores preguiçosos
- [SPARK-48416] [SC-183643][sql] Suporte aninhado com expressão
- [SPARK-50428] [SC-183566][ss][PYTHON] Suporte a TransformWithStateInPandas em consultas em lote
- [SPARK-50063] [SC-183350][sql][CONNECT] Adicionar suporte para Variant no cliente Do Spark Connect Scala
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementar
StructType.toDDL - [SPARK-50443] [SC-182590][ss] Corrigindo erros de build do Maven introduzidos pelo cache Guava no RocksDBStateStoreProvider
- [SPARK-50491] [SC-183434][sql] Corrigir bug em que blocos BEGIN END vazios geram um erro
-
[SPARK-50536] [SC-183443][core] O log baixou tamanhos de arquivo morto dentro e dentro
SparkContextExecutor - [SPARK-45891] [SC-183439][sql] Recompilar binário variante de dados desfiados.
- [SPARK-49565] [SC-183465][sql] Adicionar sintaxe de pipe SQL para o operador FROM
- [SPARK-50497] [SC-183338][sql] Falhar consultas com mensagem adequada se MultiAlias contiver função não-geradora
- [SPARK-50460] [SC-183375][python][CONNECT] Generalize e simplifique o tratamento de exceções do Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Corrigir a opção de compactação que está sendo substituída em
df.write.parquet - [SPARK-50329] [SC-183358][sql] fix InSet$toString
-
[SPARK-50524] [SC-183364][sql] Mensagem de aviso inferior
RowBasedKeyValueBatch.spillao nível de depuração -
[SPARK-50528] [SC-183385][conectar] Mover
InvalidCommandInputpara o módulo comum - [SPARK-50017] [SC-182438][ss] Suporte à codificação Avro para o operador TransformWithState
-
[SPARK-50463] [SC-182833][sql] Correção
ConstantColumnVectorcom a conversão Columnar to Row - [SPARK-50235] [SC-180786][sql] Limpar o recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Corrigir o teste relacionado ao estado de inicialização para usar StreamManualClock
- [SPARK-50478] [SC-183188][sql] Corrigir a correspondência stringType
- [SPARK-50492] [SC-183177][ss] Corrigir java.util.NoSuchElementException quando a coluna de hora do evento é descartada após dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Adicionar sintaxe de pipe SQL para o SET operador
- [SPARK-50449] [SC-183178][sql] Corrigir gramática de script SQL permitindo corpos vazios para loops, SE e CASE
-
[SPARK-50251] [SC-180970][python] Adicionar
getSystemPropertyao PySparkSparkContext - [SPARK-50421] [SC-183091][core] Correção da configuração de memória relacionada ao executor incorreta quando vários perfis de recurso funcionavam
- [SPARK-49461] [SC-179572][ss] ID de ponto de verificação persistente para confirmar logs e lê-la de volta
- [SPARK-50343] [SC-183119][spark-50344][SQL] Adicionar sintaxe de pipe SQL para os operadores DROP e AS
-
[SPARK-50481] [SC-182880][core] Melhorar
SortShuffleManager.unregisterShufflepara ignorar a lógica do arquivo de soma de verificação se a soma de verificação estiver desabilitada -
[SPARK-50498] [SC-183090][python] Evite chamadas py4j desnecessárias em
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Corrigir a autojunção após
applyInArrow - [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres fixe push-down do xor
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Atualizações de manutenção
Consulte as atualizações de manutenção do Databricks Runtime 16.2.
Ambiente do sistema
-
Sistema operacional: Ubuntu 24.04.1 LTS
- Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | asttokens | 2.0.5 | Astunparse | 1.6.3 |
| autocomando | 2.2.2 | azure-core | 1.31.0 | Armazenamento em Blob do Azure | 12.23.0 |
| Azure Armazenamento Arquivos Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| antolho | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 2.0.4 | clique | 8.1.7 |
| cloudpickle | 2.2.1 | Comunicação | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| docstring-to-markdown | 0.11 | pontos de entrada | 0.4 | em execução | 0.8.3 |
| Visão geral de facetas | 1.1.1 | bloqueio de arquivo | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth | 2.35.0 | google-cloud-core | 2.4.1 | armazenamento na nuvem do Google | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| inflect | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-magro | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0,48b0 |
| empacotando | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
| pathspec | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
| almofada | 10.3.0 | caroço | 24.2 | platformdirs | 3.10.0 |
| enredo | 5.22.0 | Pluggy | 1.0.0 | kit de ferramentas de prompt | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server (servidor LSP para Python) | 1.10.0 | pytoolconfig | 1.2.6 |
| Pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| requests | 2.32.2 | corda | 1.12.0 | RSA | 4.9 |
| s3transfer | 0.10.2 | scikit-aprender | 1.4.2 | Scipy | 1.13.1 |
| seaborn (biblioteca de visualização em Python) | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.14.2 | tenacidade | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | tipos de solicitações | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | atualizações não supervisionadas | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch | 1.0.2 | wheel | 0.43.0 | embrulhado | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas do R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | bota | 1.3-30 |
| Cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | chamador | 3.7.6 |
| acento circunflexo | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| classe | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | Conflito | 1.2.0 | cpp11 | 0.4.7 |
| pastel | 1.5.3 | credenciais | 2.0.1 | cacho | 5.2.1 |
| data.table | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Desc | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | hash | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| fansi | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| estrangeiro | 0.8-86 | forja | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | future.apply | 1.11.2 | gargarejar | 1.5.2 |
| genéricos | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globais | 0.16.3 | cola | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Gráficos | 4.4.0 | grDevices | 4.4.0 | grade | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | refúgio | 2.5.4 |
| highr | 0.11 | Hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | malhador | 1.48 | rotulagem | 0.4.3 |
| posterior | 1.3.2 | reticulado | 0.22-5 | lava | 1.8.0 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | redução de preço | 1.13 | MISSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memoise | 2.0.1 | Métodos | 4.4.0 |
| mgcv | 1.9-1 | mímica | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelador | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| paralelamente | 1.38.0 | coluna | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | louvar | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progresso | 1.2.3 |
| progressador | 0.14.0 | Promessas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | Ps | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reativa | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| Receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | reprex | 2.1.1 | remodelar2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| balança | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| forma | 1.4.6.1 | reluzente | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| Splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.4.0 | stats4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | sobrevivência | 3.6-4 | Swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | textshaping | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| timechange | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| Ferramentas | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| uuid | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| bigode | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | nada | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraryes | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Sininho | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | goiaba | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| coleções commons | coleções commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolvedor | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1,3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | formato de seta | 15.0.0 |
| org.apache.arrow | seta-memória-core | 15.0.0 |
| org.apache.arrow | seta-memória-netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curador-receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | anotações de audiência | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenésia | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest-compatible | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |