Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Notas de versão do Databricks Runtime: versões e compatibilidade.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, alimentado pelo Apache Spark 3.3.0. O Databricks lançou esta versão em outubro de 2022.
Observação
LTS significa que essa versão possui suporte de longo prazo. Confira Ciclo de vida da versão de LTS do Databricks Runtime.
Alterações comportamentais
[Alteração significativa] A nova versão do Python requer a atualização de clientes Python do Databricks Connect V1
Observação
Uma atualização subsequente move a versão do Python no Databricks Runtime 11.3 LTS para 3.9.21. A versão 3.9.21 não apresenta nenhuma alteração comportamental.
Para aplicar os patches de segurança necessários, a versão do Python no Databricks Runtime 11.3 LTS é atualizada da versão 3.9.5 para a 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 para Python com o Databricks Runtime 11.3 LTS devem ser atualizados para o Python 3.9.7 ou posterior.
Novos recursos e melhorias
- Python atualizado da 3.9.19 para a 3.9.21
- O gatilho no Streaming Estruturado "Trigger Once" foi descontinuado
- Alterar o caminho de origem do Carregador Automático
- O conector do Databricks Kinesis agora dá suporte à leitura de fluxos de dados Kinesis no modo EFO
- Novas funções geoespaciais H3 e suporte ao Photon adicionado para todas as funções H3
- Novos recursos para E/S Preditiva
- Aumentando as partições iniciais para verificar consultas seletivas
- Visualização de novas versões do plano do AQE
- Novos modos de rastreamento de progresso assíncrono e limpeza de logs
-
O Streaming Estruturado no Catálogo do Unity agora dá suporte
display() - Os eventos de pipeline agora estão registrados no formato JSON
- Processamento com estado arbitrário no streaming estruturado com Python
- Inferência de data em arquivos CSV
- Suporte a clonagem para tabelas Apache Parquet e Apache Iceberg (Versão Prévia Pública)
- Uso de SQL para especificar locais de armazenamento no nível do esquema e do catálogo para tabelas gerenciadas do Catálogo do Unity
Python atualizado da 3.9.19 para a 3.9.21
A versão do Python no Databricks Runtime 11.3 LTS é atualizada da versão 3.9.19 para a 3.9.21.
Gatilho de streaming estruturado uma vez preterido
A Trigger.Once configuração foi preterida. O Databricks recomenda que você use Trigger.AvailableNow. Confira Configurar intervalos de gatilho do Fluxo Estruturado.
Alterar o caminho de origem do Carregador Automático
Agora você pode alterar o caminho de entrada do diretório para o Carregador Automático configurado com o modo de listagem de diretório sem precisar escolher um novo diretório de ponto de verificação. Consulte Alterar o caminho de origem do Carregador Automático.
O conector do Databricks Kinesis agora suporta a leitura de Fluxos de Dados Kinesis no modo EFO
Agora você pode usar a fonte de streaming estruturada do Databricks Kinesis no Databricks Runtime 11.3 LTS para executar consultas que leem dos fluxos de dados do Kinesis no modo de fan-out aprimorado. Isso permite largura de banda dedicada por fragmento, por consumidor e distribuição de registros no modo push.
Novas funções geoespaciais H3 e adição de suporte ao Photon para todas as funções H3
Apresentando 4 novas funções H3, h3_maxchild, h3_minchilde h3_pointash3h3_pointash3string. Essas funções estão disponíveis em SQL, Scala e Python. Todas as expressões H3 agora têm suporte no Photon. Confira Funções geoespaciais H3
Novos recursos para E/S Preditiva
O Photon dá suporte ao modo de alcance para a execução de quadros, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. O Photon também dá suporte ao modo de intervalo para quadros crescentes, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.
Aumentando as partições iniciais para verificar consultas seletivas
O valor das partições iniciais para escanear foi aumentado para 10 para consulta seletiva com take/tail/limit em clusters habilitados para Photon e LIMIT no Databricks SQL. Com 10 partições, você pode evitar a sobrecarga de iniciar várias tarefas pequenas e um escalonamento lento. Você também pode configurar isso por meio de spark.sql.limit.selectiveInitialNumPartitions.
Visualização de novas versões de planos do AQE
Apresentando versões de plano do AQE que permitem visualizar as atualizações de planos de execução a partir da execução de consulta adaptativa (AQE).
Novos modos de rastreamento de progresso assíncrono e limpeza de logs
Apresentando modos de Streaming Estruturado chamados de acompanhamento de progresso assíncrono e limpeza de log assíncrono. O modo de purgação de logs assíncrono reduz a latência das consultas de streaming ao remover logs usados para acompanhamento de progresso em segundo plano.
O Streaming Estruturado no Catálogo do Unity agora dá suporte display()
Agora você pode usar display() quando usar o Streaming Estruturado para trabalhar com tabelas registradas no Catálogo do Unity.
Os eventos de pipeline agora estão registrados no formato JSON
O Azure Databricks agora grava eventos de pipeline no log do driver no formato JSON. Embora cada evento seja possível de ser analisado em JSON, eventos grandes podem não conter todos os campos, ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received: . Veja a seguir um evento de exemplo.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Processamento com estado arbitrário no streaming estruturado com Python
Introdução à applyInPandasWithState função que pode ser usada para executar processamento com estado arbitrário no PySpark. Isso é equivalente à flatMapGroupsWithState função na API Java.
Inferência de data em arquivos CSV
Introdução à inferência aprimorada de colunas de tipo de data em arquivos CSV. Quando o formato de data é consistente entre os registros de uma coluna, essas colunas podem ser inferidas como DateType. Você também pode ter uma combinação de formatos de data em colunas diferentes. O Azure Databricks pode inferir automaticamente o formato de data para cada coluna. As colunas de data em arquivos CSV antes do Databricks Runtime 11.3 LTS são deixadas como StringType.
Suporte à clonagem para tabelas Apache Parquet e Apache Iceberg (Prévia Pública)
Clone agora pode ser usado para criar e atualizar incrementalmente tabelas Delta que espelham as tabelas Apache Parquet e Apache Iceberg. Você pode atualizar sua tabela Parquet de origem e aplicar as alterações de forma incremental e gradual à sua tabela Delta clonada com o comando clone. Consulte Clonar incrementalmente as tabelas Parquet e Apache Iceberg no Delta Lake.
Usar o SQL para especificar locais de armazenamento no nível do esquema e do catálogo para tabelas gerenciadas do Catálogo do Unity
Agora você pode usar o MANAGED LOCATION comando SQL para especificar um local de armazenamento em nuvem para tabelas gerenciadas nos níveis de catálogo e esquema. Consulte CREATE CATALOG e CREATE SCHEMA.
Alterações de comportamento
Databricks Connect 11.3.2
Agora há suporte para a atualização de cliente do Databricks Connect 11.3.2. Confira as notas de versão do Databricks Connect e do Databricks Connect.
Conector Snowflake do Azure Databricks atualizado
O conector Snowflake do Azure Databricks foi atualizado para a versão mais recente do código do repositório de software livre, Snowflake Data Source for Apache Spark. Agora ele é totalmente compatível com o Databricks Runtime 11.3 LTS, incluindo pushdown de predicado e pushdown de plano de consulta interno, mantendo todos os recursos da versão open-source.
O cache do Hadoop para S3A agora está desabilitado
O cache do Hadoop ( API FileSystem Apache Hadoop Main 3.3.4) para S3A agora está desabilitado. Isso é para se alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, verifique se os sistemas de arquivos recém-criados são fornecidos com as configurações corretas do Hadoop, incluindo provedores de credenciais.
O esquema de coleção de estatísticas do Delta Lake agora corresponde à ordem da coluna na definição de esquema de tabela
Essa alteração aborda um bug no protocolo Delta Lake em que as estatísticas não foram coletadas para colunas devido a uma incompatibilidade no DataFrame e na ordenação de colunas de tabela. Em alguns casos, você pode encontrar degradação do desempenho de escrita devido à coleta de estatísticas em campos anteriormente não rastreados. Consulte Ignorar dados no Delta Lake.
applyInPandasWithState gerará um erro se a consulta tiver um embaralhamento após o operador
O operador applyInPandasWithState gerará um erro se a consulta tiver shuffle após o operador. Isso acontece quando o usuário adiciona shuffle após a operação ou o otimizador ou coletor adiciona shuffle implicitamente.
Atualizações de biblioteca
- Bibliotecas do Python atualizadas:
- distlib de 0.3.5 a 0.3.6
- Bibliotecas do R atualizadas:
- broom da versão 1.0.0 para a 1.0.1
- callr de 3.7.1 para 3.7.2
- dplyr de 1.0.9 a 1.0.10
- dtplyr de 1.2.1 para 1.2.2
- forcats de 0.5.1 a 0.5.2
- futuro de 1.27.0 a 1.28.0
- Atualização de versão do future.apply de 1.9.0 para 1.9.1
- gert de 1.7.0 para 1.8.0
- globais de 0,16.0 a 0.16.1
- gtable de 0.3.0 a 0.3.1
- atualização do haven da versão 2.5.0 para a 2.5.1
- hms de 1.1.1 a 1.1.2
- httr de 1.4.3 a 1.4.4
- knitr da versão 1.39 para a 1.40
- modelr de 0.1.8 para 0.1.9
- pilar de 1.8.0 a 1.8.1
- progressr de 0.10.1 para 0.11.0
- readxl de 1.4.0 para 1.4.1
- reprex de 2.0.1 para 2.0.2
- rlang de 1.0.4 a 1.0.5
- rmarkdown de 2.14 a 2.16
- RSQLite de 2.2.15 a 2.2.16
- rstudioapi de 0.13 a 0.14
- rversions de 2.1.1 até 2.1.2
- rvest de 1.0.2 para 1.0.3
- escala de 1.2.0 para 1.2.1
- sparklyr de 1.7.7 a 1.7.8
- stringr de 1.4.0 a 1.4.1
- sobrevivência de 3.2-13 a 3.4-0
- tinytex de 0,40 a 0,41
- viridisLite de 0.4.0 a 0.4.1
- Bibliotecas Java atualizadas:
- com.fasterxml.jackson.core.jackson-annotations de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
- org.apache.hadoop.hadoop-client-api de 3.3.2-databricks para 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime de 3.3.2 a 3.3.4
- org.apache.orc.orc-core de 1.7.5 a 1.7.6
- org.apache.orc.orc-mapreduce de 1.7.5 a 1.7.6
- org.apache.orc.orc-shims de 1.7.5 a 1.7.6
- org.apache.parquet.parquet-column de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-common de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet de 2.34 a 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core de 2.34 a 2.36
- org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
- org.glassfish.jersey.core.jersey-common de 2.34 a 2.36
- org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
- org.glassfish.jersey.inject.jersey-hk2 de 2.34 a 2.36
Apache Spark
O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.2 (EoS), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- [SPARK-39957] [WARMFIX][sc-111425][CORE] Atraso aoDesconectar para habilitar que o Driver receba ExecutorExitCode
- [SPARK-39955] [WARMFIX][sc-111424][CORE] Aprimorar o processo de LaunchTask para evitar falhas de estágio causadas por mensagens de falha ao enviar LaunchTask.
- [SPARK-40474] [SC-106248][cherry-pick] Corrigir o comportamento de inferência de esquema CSV para colunas de data e hora e introduzir a detecção automática para campos de data.
- [SPARK-40535] [SC-111243][sql] Corrigir bug o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implementar applyInPandasWithState no PySpark
-
[SPARK-40460] [SC-110832][ss] Corrigir métricas de streaming ao selecionar
_metadata -
[SPARK-40324] [SC-109943][sql] Fornecer um contexto de consulta de
ParseException - [SPARK-40466] [SC-110899][ss] Melhorar a mensagem de erro quando dSv2 estiver desabilitado enquanto DSv1 não estiver disponível
- [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext deve poder ser chamado repetidamente de forma econômica
- [SPARK-40169] [SC-110772][sql] Não aplicar filtros Parquet que não fazem referência ao esquema de dados
- [SPARK-40467] [SC-110759][ss] Dividir FlatMapGroupsWithState em vários conjuntos de testes
- [SPARK-40468] [SC-110813][sql] Corrigir a remoção de colunas no CSV quando _corrupt_record for selecionado
- [SPARK-40291] [SC-110085][sql] Melhorar a mensagem para a coluna que não está em grupo por erro de cláusula
- [SPARK-40398] [SC-110762][core][SQL] Use Loop em vez de Arrays.stream api
- [SPARK-40433] [SC-110684][ss][PYTHON] Adicionar toJVMRow em PythonSQLUtils para converter uma linha PySpark serializada para linha JVM
- [SPARK-40414] [SC-110568][sql][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
- [SPARK-40352] [SC-109945][sql] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
- [SPARK-40470] [SC-110761][sql] Manipular GetArrayStructFields e GetMapValue na função "arrays_zip"
- [SPARK-40387] [SC-110685][sql] Aprimorar a implementação do Spark Decimal
- [SPARK-40429] [SC-110675][sql] Definir somente KeyGroupedPartitioning quando a coluna referenciada estiver na saída
- [SPARK-40432] [SC-110716][ss][PYTHON] Introduza os GroupStateImpl e GroupStateTimeout no PySpark
- [SPARK-39915] [SC-110496][sql] Verifique se o particionamento de saída é especificado pelo usuário no AQE
- [SPARK-29260] [SQL] Suporte caso o HMS ofereça suporte
- [SPARK-40185] [SC-110056][sql] Remover sugestão de coluna quando a lista de candidatos estiver vazia
- [SPARK-40362] [SC-110401][sql] Corrigir canonicalização binaryComparison
- [SPARK-40411] [SC-110381][ss] Refatorar FlatMapGroupsWithStateExec para ter um trait pai
- [SPARK-40293] [SC-110084][sql] Tornar a mensagem de erro da tabela V2 mais significativa
-
[SPARK-38734] [SC-110383][sql] Remover a classe de erro
INDEX_OUT_OF_BOUNDS - [SPARK-40292] [SC-110300][sql] Corrigir nomes de coluna na função "arrays_zip" quando as matrizes são referenciadas de estruturas aninhadas
- [SPARK-40276] [SC-109674][core] Reduza o tamanho do resultado de RDD.takeOrdered
- [SPARK-40197] [SC-109176][sql] Substitua o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Migrar para a
DATATYPE_MISMATCHclasse de erro - [SPARK-40149] [SC-110055][sql] Propagar colunas de metadados por meio do Project
- [SPARK-40280] [SC-110146][sql] Adicionar suporte para o push parquet para int anotado e longo
- [SPARK-40220] [SC-110143][sc-109175][SQL] Não exibir o mapa vazio dos parâmetros da mensagem de erro
- [SPARK-40295] [SC-110070][sql] Permitir funções v2 com argumentos literais na distribuição/ordenação de gravação
-
[SPARK-40156] [SC-109264][sql]
url_decode()deve retornar uma classe de erro - [SPARK-39195] [SQL] Spark OutputCommitCoordinator deve anular o estágio quando o arquivo confirmado não é consistente com o status da tarefa
- [SPARK-40260] [SC-109424][sql] Use classes de erro nos erros de compilação de GROUP BY uma posição
- [SPARK-40205] [SC-110144][sc-109082][SQL] Forneça um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676][sql] Aprimorar a função TO_BINARY()
- [SPARK-40209] [SC-109081][sql] Não altere o valor do intervalo de Decimal em caso de erros
- [SPARK-40319] [SC-109873][sql] Remover método de erro de execução de consulta duplicado para PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Try_add/try_divide/try_subtract/try_multiply numéricos devem lançar erro a partir de seus filhos
- [SPARK-40183] [SC-108907][sql] Utilize a classe de erro NUMERIC_VALUE_OUT_OF_RANGE para excesso na conversão de decimais
-
[SPARK-40180] [SC-109069][sql] Formatar mensagens de erro por
spark-sql - [SPARK-40153] [SC-109165][sql] Unificar funções de resolução e funções com valor de tabela
-
[SPARK-40308] [SC-109880][sql] Permitir argumentos delimitadores não flexíveis na função
str_to_map - [SPARK-40219] [SC-110052][sc-109663][SQL] Plano lógico de exibição resolvido deve conter o esquema para evitar pesquisa redundante
- [SPARK-40098] [SC-109939][sc-108693][SQL] Formatar mensagens de erro no Thrift Server
- [SPARK-39917] [SC-109038][sql] Use classes de erro diferentes para estouro aritmético numérico/intervalo
- [SPARK-40033] [SC-109875][sql] Suporte à poda de esquema aninhado por meio do 'element_at'
- [SPARK-40194] [SC-109660][sql] A função SPLIT em regex vazio deve truncar a cadeia de caracteres vazia no final.
- [SPARK-40228] [SC-109835][sql] Não simplifique multiLike se filho não for uma expressão barata
- [SPARK-40039] [SC-109896][sc-109260][SS] Apresentando um gerenciador de arquivos de ponto de verificação de streaming baseado na interface Abortable do Hadoop
-
[SPARK-40285] [SC-109679][sql] Simplificar o
roundTo[Numeric]para SparkDecimal - [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison deve funcionar quando o literal de In/InSet rebaixamento falhou
- [SPARK-40040] [SC-109662][sql] Propagar o limite local para ambos os lados se a condição de união estiver vazia
- [SPARK-40055] [SC-109075][sql] listCatalogs deve também retornar spark_catalog mesmo quando a implementação de spark_catalog é defaultSessionCatalog
- [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) pode não criar N partições na parte não AQE
- [SPARK-40207] [SC-109401][sql] Especifique o nome da coluna quando o tipo de dados não tiver suporte pela fonte de dados
- [SPARK-40245] [SC-109295][sql] Corrigir a verificação de igualdade do FileScan quando as colunas de partição ou de filtro de dados não são lidas
- [SPARK-40113] [SC-109405][sql] Implementações de interface de reator ParquetScanBuilder DataSourceV2
- [SPARK-40211] [SC-109226][core][SQL] Permitir personalizar o número de partições iniciais no comportamento take()
-
[SPARK-40252] [SC-109379][sql] Substituir
Stream.collect(Collectors.joining)porStringJoinerAPI - [SPARK-40247] [SC-109272][sql] Correção da verificação de igualdade do BitSet
- [SPARK-40067] [SQL] Use Table#name() em vez de Scan#name() para preencher o nome da tabela no nó BatchScan no SparkUI
- [SPARK-39966] [SQL] Usar filtro V2 no SupportsDelete
- [SPARK-39607] [SC-109268][sql][DSV2] Função de suporte de distribuição e ordenação V2 por escrito
- [SPARK-40224] [SC-109271][sql] Fazer com que o ObjectHashAggregateExec libere memória de forma antecipada ao recorrer ao método baseado em ordenação
-
[SPARK-40013] [SQL] As expressões DS V2 devem ter o padrão
toString - [SPARK-40214] [SC-109079][python][SQL] adicione 'get' às funções
- [SPARK-40192] [SC-109089][sql][ML] Remover agrupamento redundante
- [SPARK-40146] [SC-108694][sql] Simplificar o codegen para a obtenção de valor do mapa
- [SPARK-40109] [SQL] Nova função SQL: get()
- [SPARK-39929] [SQL] O DS V2 dá suporte a funções de cadeia de caracteres push down (não ANSI)
- [SPARK-39819] [SQL] O push de agregação do DS V2 pode funcionar com Top N ou Paginação (Classificar com expressões)
- [SPARK-40213] [SC-109077][sql] Suporte à conversão de valor ASCII para caracteres Latino-1
- [SPARK-39887] [SQL] RemoveRedundantAliases deve manter aliases que tornam a saída de nós de projeção exclusiva
- [SPARK-39764] [SQL] Tornar o PhysicalOperation igual ao ScanOperation
- [SPARK-39964] [SQL] DS V2 pushdown deve unificar o caminho de tradução
- [SPARK-39528] [SQL] Usar filtro V2 em SupportsRuntimeFiltering
- [SPARK-40066] [SQL] Modo ANSI: sempre retornar nulo no acesso inválido à coluna do mapa
- [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
- [SPARK-39833] [SC-108736][sql] Desabilitar o índice de coluna Parquet no DSv1 para corrigir um problema de exatidão no caso de sobreposição entre partições e colunas de dados
- [SPARK-39880] [SQL] O comando V2 SHOW FUNCTIONS deve exibir o nome qualificado da função, assim como o v1.
- [SPARK-39767] [SQL] Remover UnresolvedDBObjectName e adicionar UnresolvedIdentifier
- [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Map)
- [SPARK-40136] [SQL] Corrigir o fragmento de contextos de consulta SQL
- [SPARK-40107] [SC-108689][sql] Extrair a conversão empty2null do FileFormatWriter
- [SPARK-40121] [PYTHON][sql] Inicializar projeção usada para o Python UDF
- [SPARK-40128] [SQL] Fazer com que o VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação de coluna autônoma
- [SPARK-40132] [ML] Restaurar rawPredictionCol em MultilayerPerceptronClassifier.setParams
-
[SPARK-40050] [SC-108696][sql] Aprimorar
EliminateSortspara dar suporte à remoção de classificações por meio deLocalLimit - [SPARK-39629] [SQL] Suporte à versão 2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Adicionar sobrecarga de array_sort(coluna, comparador) às operações do DataFrame
- [SPARK-40117] [PYTHON][sql] Converter condição em java em DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Melhorar a repartição em ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Adicionar o nome do catálogo de sessão para a tabela de banco de dados e função v1
- [SPARK-39889] [SQL] Use classes de erro diferentes para numérico/intervalo dividido por 0
- [SPARK-39741] [SQL] Dar suporte à codificação/decodificação de URL como função interna e organizar funções relacionadas à URL
- [SPARK-40102] [SQL] Use SparkException em vez de IllegalStateException no SparkPlan
- [SPARK-40014] [SQL] Suporte para conversão de decimais para intervalos ANSI
- [SPARK-39776] [SQL][follow] Atualização UT de PlanStabilitySuite no modo ANSI
-
[SPARK-39963] [SQL] Simplificar
SimplifyCasts.isWiderCast
Atualizações de manutenção
Confira as atualizações de manutenção do Databricks Runtime 11.3.
Ambiente do sistema
-
Sistema operacional: Ubuntu 20.04.5 LTS
- Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.21
- R: 4.1.3
- Delta Lake: 2.1.0
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| argon2-cffi | 20.1.0 | gerador assíncrono | 1.10 | atributos | 21.2.0 |
| chamada de retorno | 0.2.0 | backports.entry-points-selectable | 1.1.1 | preto | 22.3.0 |
| bleach | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
| certificado | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
| normalizador de conjunto de caracteres | 2.0.4 | click | 8.0.3 | criptografia | 3.4.8 |
| ciclista | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
| debugpy | 1.4.1 | decorador | 5.1.0 | defusedxml | 0.7.1 |
| distlib | 0.3.6 | pontos de entrada | 0,3 | Visão geral de facetas | 1.0.0 |
| bloqueio de arquivo | 3.8.0 | IDNA | 3.2 | ipykernel | 6.12.1 |
| ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
| Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jsonschema | 3.2.0 | Cliente Jupyter | 6.1.12 |
| jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
| matplotlib-inline | 0.1.2 | Mistune | 0.8.4 | mypy-extensions | 0.4.3 |
| nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | notebook | 6.4.5 | numpy | 1.20.3 |
| empacotamento | 21,0 | Pandas | 1.3.4 | pandocfilters | 1.4.3 |
| parso | 0.8.2 | pathspec | 0.9.0 | patsy | 0.5.2 |
| pexpect | 4.8.0 | pickleshare | 0.7.5 | Almofada | 8.4.0 |
| pip | 21.2.4 | platformdirs | 2.5.2 | enredo | 5.9.0 |
| prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| Pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
| PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | Pytz | 2021.3 |
| pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
| s3transfer | 0.5.2 | scikit-aprender | 0.24.2 | scipy | 1.7.1 |
| seaborn (biblioteca de visualização em Python) | 0.11.2 | Send2Trash | 1.8.0 | Ferramentas de configuração | 58.0.4 |
| seis | 1.16.0 | ssh-import-id | 5.10 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.12.2 |
| tenacidade | 8.0.1 | terminado | 0.9.4 | caminho de teste | 0.5.0 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.1.0 | extensões de digitação | 3.10.0.2 |
| atualizações não supervisionadas | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | codificações web | 0.5.1 | wheel | 0.37.0 |
| widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas do R são instaladas a partir do snapshot do Microsoft CRAN em 2022-09-08. O instantâneo não está mais disponível.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1.1 | afirme isso | 0.2.1 | backports | 1.4.1 |
| base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.3 | ciar | 1.3-28 |
| Fabricação de cerveja | 1.0-7 | brio | 1.1.3 | vassoura | 1.0.1 |
| bslib | 0.4.0 | cachem | 1.0.6 | callr | 3.7.2 |
| sinal de interpolação | 6.0-93 | Cellranger | 1.1.0 | chron | 2.3-57 |
| classe | 7.3-20 | CLI | 3.3.0 | clipr | 0.8.0 |
| cluster | 2.1.3 | codetools | 0.2-18 | espaço de cores | 2.0-3 |
| commonmark | 1.8.0 | compilador | 4.1.3 | config | 0.3.1 |
| cpp11 | 0.4.2 | crayon | 1.5.1 | credenciais | 1.3.2 |
| encurvar | 4.3.2 | Tabela de Dados | 1.14.2 | conjuntos de dados | 4.1.3 |
| DBI | 1.1.3 | dbplyr | 2.2.1 | Descrição | 1.4.1 |
| devtools | 2.4.4 | diffobj | 0.3.5 | hash | 0.6.29 |
| downlit | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
| e1071 | 1.7-11 | reticências | 0.3.2 | avaliar | 0.16 |
| fansi | 1.0.3 | cores | 2.1.1 | mapa rápido | 1.1.0 |
| fontawesome | 0.3.0 | forcats | 0.5.2 | foreach | 1.5.2 |
| estrangeiro | 0.8-82 | forge | 0.2.0 | fs | 1.5.2 |
| futuro | 1.28.0 | future.apply | 1.9.1 | gargle | 1.2.0 |
| genéricos | 0.1.3 | gert | 1.8.0 | ggplot2 | 3.3.6 |
| gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
| globals | 0.16.1 | cola | 1.6.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.1 | gower | 1.0.0 | Gráficos | 4.1.3 |
| grDevices | 4.1.3 | grade | 4.1.3 | gridExtra | 2.3 |
| gsubfn | 0.7 | gtable | 0.3.1 | capacete de segurança | 1.2.0 |
| refúgio | 2.5.1 | mais alto | 0,9 | hms | 1.1.2 |
| ferramentas HTML | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
| httr | 1.4.4 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-13 | isoband | 0.2.5 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
| knitr | 1.40 | rotulagem | 0.4.2 | posterior | 1.3.0 |
| treliça | 0.20-45 | lava vulcânica | 1.6.10 | ciclo de vida | 1.0.1 |
| ouça | 0.8.0 | lubrificado | 1.8.0 | magrittr | 2.0.3 |
| markdown | 1.1 | MASS | 7.3-56 | Matriz | 1.4-1 |
| memorização | 2.0.1 | Métodos | 4.1.3 | mgcv | 1.8-40 |
| mime | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
| modelr | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
| nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
| paralelo | 4.1.3 | parallelly | 1.32.1 | coluna | 1.8.1 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
| elogio | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| processx | 3.7.0 | Prodlim | 2019.11.13 | profvis | 0.3.7 |
| progresso | 1.2.2 | progressr | 0.11.0 | Promessas | 1.2.0.1 |
| proto | 1.0.0 | proxy | 0.4-27 | P.S. | 1.7.1 |
| purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | Readr | 2.1.2 | readxl | 1.4.1 |
| Receitas | 1.0.1 | jogo de revanche | 1.0.1 | revanche2 | 2.1.2 |
| remotes | 2.4.2 | reprex | 2.0.2 | reshape2 | 1.4.4 |
| rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
| roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
| Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0,14 |
| rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.2 |
| escamas | 1.2.1 | Seletor | 0.4-2 | informações de sessão | 1.2.2 |
| forma | 1.4.6 | brilhante | 1.7.2 | sourcetools | 0.1.7 |
| sparklyr | 1.7.8 | SparkR | 3.3.0 | espacial | 7.3-11 |
| splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.1.3 | estatísticas4 | 4.1.3 | stringi | 1.7.8 |
| stringr | 1.4.1 | sobrevivência | 3.4-0 | sys | 3.4 |
| systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
| formatação de texto | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
| tidyselect | 1.1.2 | tidyverse | 1.3.2 | data e hora | 4021.104 |
| tinytex | 0,41 | Ferramentas | 4.1.3 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
| utils | 4.1.3 | identificador único universal (UUID) | 1.1-0 | vctrs | 0.4.1 |
| viridisLite | 0.4.1 | vroom | 1.5.7 | Waldo | 0.4.0 |
| whisker | 0.4 | murchar | 2.5.0 | xfun | 0,32 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.3.5 | zip | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.5.1 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | Netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | Netty Resolver | 4.1.74.Final |
| io.netty | Netty Tcnative Classes | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-comum | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1,2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.14 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | arrow-format | 7.0.0 |
| org.apache.arrow | arrow-memory-core | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | arrow-vector | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.9 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | ivy | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orc-calços | 1.7.6 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-comum | 1.12.0-databricks-0007 |
| org.apache.parquet | codificação-parquet | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | anotações de público-alvo | 0.5.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
| org.eclipse.jetty | servidor jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Webapp | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey-common | 2.36 |
| org.glassfish.jersey.core | jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | Calços | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,2 |
| org.scalanlp | breeze_2.12 | 1,2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |