Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, alimentado pelo Apache Spark 3.3.0. A Databricks lançou esta versão em outubro de 2022.
Observação
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Mudanças comportamentais
[Mudança de rutura] Nova versão do Python requer atualização de clientes Python Databricks Connect V1
Observação
Uma atualização subsequente move a versão Python no Databricks Runtime 11.3 LTS para 3.9.21. A versão 3.9.21 não introduz alterações comportamentais.
Para aplicar os patches de segurança necessários, a versão Python no Databricks Runtime 11.3 LTS é atualizada de 3.9.5 para 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 for Python com Databricks Runtime 11.3 LTS devem ser atualizados para Python 3.9.7 ou posterior.
Novos recursos e melhorias
- Python atualizado de 3.9.19 para 3.9.21
- Structured Streaming trigger once está obsoleto
- Alterar o caminho de origem do Auto Loader
- O conector Databricks Kinesis agora suporta a leitura de fluxos de dados do Kinesis no modo EFO
- Novas funções geoespaciais H3 e adicionado suporte a fótons para todas as funções H3
- Novos recursos para E/S preditiva
- Aumentando as partições iniciais para examinar consultas seletivas
- Visualização de novas versões do plano AQE
- Novos modos assíncronos de acompanhamento de progresso e limpeza de logs
-
O streaming estruturado no Unity Catalog agora é compatível com
display() - Os eventos de pipeline agora são registrados no formato JSON
- Processamento arbitrário com estado em streaming estruturado com Python
- Inferência de data em arquivos CSV
- Suporte de clonagem para tabelas Apache Parquet e Apache Iceberg (Visualização pública)
- Use SQL para especificar locais de armazenamento no nível de esquema e catálogo para tabelas gerenciadas do Unity Catalog
Python atualizado de 3.9.19 para 3.9.21
A versão Python no Databricks Runtime 11.3 LTS é atualizada de 3.9.19 para 3.9.21.
O modo 'trigger once' do Structured Streaming foi descontinuado.
A Trigger.Once configuração foi preterida. A Databricks recomenda o uso do Trigger.AvailableNow. Consulte Configurar intervalos de ativação do Streaming Estruturado.
Alterar o caminho de origem do Auto Loader
Agora você pode alterar o caminho de entrada do diretório para o Auto Loader configurado com o modo de listagem de diretórios sem ter que escolher um novo diretório de ponto de verificação. Consulte Alterar o caminho de origem do Auto Loader.
O conector Databricks Kinesis agora suporta a leitura de fluxos de dados do Kinesis no modo EFO
Agora pode usar a fonte de streaming estruturada do Databricks Kinesis no Databricks Runtime 11.3 LTS para executar consultas que lêem fluxos do Kinesis Data Streams no modo fan-out melhorado. Isso permite largura de banda dedicada por fragmento, por consumidor, e entrega de dados no modo push.
Novas funções geoespaciais H3 e adicionado suporte a fótons para todas as funções H3
Apresentamos 4 novas funções H3, h3_maxchild, h3_minchild, h3_pointash3, e h3_pointash3string. Essas funções estão disponíveis em SQL, Scala e Python. Todas as expressões H3 agora são suportadas no Photon. Veja funções geoespaciais H3 .
Novos recursos para E/S preditiva
Photon suporta o modo de alcance para executar quadros, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Photon também suporta o modo de alcance dinâmico para quadros em expansão, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.
Aumentar as partições iniciais para escanear consultas seletivas
O valor das partições iniciais a serem verificadas foi aumentado para 10 para consulta seletiva com take/tail/limit em clusters habilitados para Photon e LIMIT em Databricks SQL. Com 10 partições, você pode evitar a sobrecarga de iniciar vários trabalhos pequenos e uma expansão lenta. Você também pode configurar isso através do spark.sql.limit.selectiveInitialNumPartitions.
Visualização das novas versões do plano AQE
Apresentando versões do plano AQE que permitem visualizar as atualizações do plano durante o tempo de execução provenientes da execução de consultas adaptativas (AQE).
Novos modos assíncronos de acompanhamento de progresso e limpeza de logs
Introdução aos modos de Streaming Estruturado chamados acompanhamento de progresso assíncrono e limpeza assíncrona de logs. O modo assíncrono de limpeza de logs reduz a latência das consultas de streaming, removendo os logs usados para o acompanhamento do progresso em segundo plano.
Streaming estruturado no catálogo Unity agora suporta display()
Agora podes usar display() quando utilizas o Structured Streaming para trabalhar com tabelas registadas no Unity Catalog.
Os eventos de pipeline agora são registrados no formato JSON
O Azure Databricks agora grava eventos de pipeline no log do driver no formato JSON. Embora cada evento seja analisável por JSON, eventos grandes podem não conter todos os campos ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received: . Segue-se um exemplo de evento.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Processamento arbitrário com estado em 'Structured Streaming' utilizando Python
Apresentando a função applyInPandasWithState que pode ser usada para executar processamento arbitrário com estado no PySpark. Isso é equivalente à flatMapGroupsWithState função na API Java.
Inferência de data em arquivos CSV
Introdução de inferência melhorada de colunas de tipo de data em ficheiros CSV. Quando o formato de data é consistente entre os registros de uma coluna, essas colunas podem ser inferidas como DateType. Você também pode ter uma combinação de formatos de data em várias colunas. O Azure Databricks pode inferir automaticamente o formato de data para cada coluna. As colunas de data em arquivos CSV anteriores ao Databricks Runtime 11.3 LTS são deixadas como StringType.
Suporte de clonagem para tabelas Apache Parquet e Apache Iceberg (Visualização pública)
O clone agora pode ser usado para criar e atualizar incrementalmente tabelas Delta que espelham tabelas Apache Parquet e Apache Iceberg. Você pode atualizar sua tabela Parquet de origem e aplicar incrementalmente as alterações à tabela Delta clonada com o comando clone. Veja Clonagem incremental de tabelas Parquet e Apache Iceberg para Delta Lake.
Use SQL para especificar locais de armazenamento no nível de esquema e catálogo para tabelas gerenciadas do Unity Catalog
Agora você pode usar o MANAGED LOCATION comando SQL para especificar um local de armazenamento em nuvem para tabelas gerenciadas nos níveis de catálogo e esquema. Consulte CREATE CATALOG e CREATE SCHEMA.
Alterações de comportamento
Databricks Connect 11.3.2
A atualização 11.3.2 do cliente Databricks Connect agora é suportada. Consulte Databricks Connect e Notas de versão do Databricks Connect.
Atualizado o conector Snowflake do Azure Databricks
O conector Snowflake do Azure Databricks foi atualizado para a versão mais recente do código do repositório de código aberto, Snowflake Data Source for Apache Spark. Agora é totalmente compatível com Databricks Runtime 11.3 LTS, incluindo o pushdown de predicados e o pushdown do plano de consulta interno, mantendo todos os recursos da versão de código aberto.
O cache do Hadoop para S3A agora está desativado
O cache Hadoop (FileSystem Apache Hadoop Main 3.3.4 API) para S3A agora está desativado. Isso é para alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, certifique-se de que os sistemas de arquivos recém-criados sejam fornecidos com as configurações corretas do Hadoop, incluindo provedores de credenciais.
O esquema de coleta de estatísticas do Delta Lake agora corresponde à ordem das colunas na definição do esquema da tabela
Essa alteração resolve um bug no protocolo Delta Lake em que as estatísticas não foram coletadas para colunas devido a uma incompatibilidade no DataFrame e na ordem de colunas da tabela. Em alguns casos, poderá detetar uma diminuição de desempenho na escrita devido à coleta de estatísticas em campos anteriormente não monitorizados. Consulte Omissão de dados para Delta Lake.
applyInPandasWithState lança um erro se a consulta tiver um shuffle após o operador
O operador applyInPandasWithState lança um erro se a consulta tiver shuffle depois do operador. Isso acontece quando o usuário adiciona shuffle após a operação, ou o otimizador ou coletor adiciona shuffle implicitamente.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- distlib de 0.3.5 a 0.3.6
- Bibliotecas R atualizadas:
- broom de 1.0.0 para 1.0.1
- callr de 3.7.1 para 3.7.2
- dplyr de 1.0.9 a 1.0.10
- dtplyr de 1.2.1 a 1.2.2
- forcats de 0.5.1 a 0.5.2
- futuro de 1.27.0 a 1.28.0
- future.apply de 1.9.0 a 1.9.1
- gert de 1.7.0 para 1.8.0
- globais de 0.16.0 a 0.16.1
- gtable de 0.3.0 a 0.3.1
- refúgio de 2.5.0 a 2.5.1
- HMS de 1.1.1 a 1.1.2
- httr de 1.4.3 a 1.4.4
- knitr de 1,39 a 1,40
- Modelador de 0.1.8 a 0.1.9
- pilar de 1.8.0 a 1.8.1
- progredir de 0.10.1 a 0.11.0
- readxl de 1.4.0 a 1.4.1
- Atualização de reprex da versão 2.0.1 para 2.0.2
- RLANG de 1.0.4 a 1.0.5
- Rmarkdown de 2,14 para 2,16
- RSQLite de 2.2.15 a 2.2.16
- rstudioapi de 0.13 a 0.14
- Versões de 2.1.1 para 2.1.2
- rvest de 1.0.2 para 1.0.3
- escalas de 1.2.0 a 1.2.1
- Sparklyr de 1.7.7 a 1.7.8
- stringr de 1.4.0 a 1.4.1
- sobrevivência de 3,2-13 para 3,4-0
- tinytex de 0,40 a 0,41
- viridisLite de 0.4.0 a 0.4.1
- Bibliotecas Java atualizadas:
- com.fasterxml.jackson.core.jackson-annotations de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
- org.apache.hadoop.hadoop-client-api de 3.3.2-databricks para 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime da versão 3.3.2 para a versão 3.3.4
- org.apache.orc.orc-core de 1.7.5 a 1.7.6
- org.apache.orc.orc-mapreduce de 1.7.5 para 1.7.6
- org.apache.orc.orc-shims de 1.7.5 a 1.7.6
- org.apache.parquet.parquet-column de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-comum de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet de 2.34 a 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core de 2,34 a 2,36
- org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
- org.glassfish.jersey.core.jersey-comum de 2,34 a 2,36
- org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
- org.glassfish.jersey.inject.jersey-hk2 de 2,34 a 2,36
Faísca Apache
O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-39957] [WARMFIX][sc-111425][CORE] Atraso em onDesconectado para permitir que o Driver receba o ExecutorExitCode
- [SPARK-39955] [WARMFIX][sc-111424][CORE] Melhorar o processo de LaunchTask para evitar falhas de Estágio causadas por falhas no envio de mensagens LaunchTask
- [SPARK-40474] [SC-106248][cherry-pick] Corrigir o comportamento de inferência do esquema CSV para colunas de data/hora e introduzir a deteção automática para campos de data
- [SPARK-40535] [SC-111243][sql] Corrigir bug: o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implementar applyInPandasWithState no PySpark
-
[SPARK-40460] [SC-110832][ss] Corrigir métricas de streaming ao selecionar
_metadata -
[SPARK-40324] [SC-109943][sql] Forneça um contexto de consulta de
ParseException - [SPARK-40466] [SC-110899][ss] Melhorar a mensagem de erro quando o DSv2 está desativado enquanto o DSv1 não está disponível
- [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext deve ser barato para chamar repetidamente
- [SPARK-40169] [SC-110772][sql] Não aplique filtros Parquet que não façam referência ao esquema de dados
- [SPARK-40467] [SC-110759][ss] Dividir FlatMapGroupsWithState em vários pacotes de teste
- [SPARK-40468] [SC-110813][sql] Corrigir a poda de coluna no CSV quando _corrupt_record estiver selecionado
- [SPARK-40291] [SC-110085][sql] Melhorar a mensagem para coluna que não está no grupo por erro de cláusula
- [SPARK-40398] [SC-110762][core][SQL] Use Loop em vez da api Arrays.stream
- [SPARK-40433] [SC-110684][ss][PYTHON] Adicionar toJVMRow em PythonSQLUtils para converter PySpark Row em pickled para JVM Row
- [SPARK-40414] [SC-110568][sql][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
- [SPARK-40352] [SC-109945][sql] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
- [SPARK-40470] [SC-110761][sql] Manipule GetArrayStructFields e GetMapValue na função "arrays_zip"
- [SPARK-40387] [SC-110685][sql] Melhorar a implementação do Spark Decimal
- [SPARK-40429] [SC-110675][sql] Defina KeyGroupedPartitioning apenas quando a coluna referenciada estiver na saída
- [SPARK-40432] [SC-110716][ss][PYTHON] Introduza GroupStateImpl e GroupStateTimeout no PySpark
- [SPARK-39915] [SC-110496][sql] Verifique se o particionamento de saída é especificado pelo usuário no AQE
-
[SPARK-29260] [SQL] Suporte
ALTER DATABASE SET LOCATIONse HMS suportar - [SPARK-40185] [SC-110056][sql] Remover sugestão de coluna quando a lista de candidatos estiver vazia
- [SPARK-40362] [SC-110401][sql] Corrigir canonicalização BinaryComparison
- [SPARK-40411] [SC-110381][ss] Refatore FlatMapGroupsWithStateExec para ter uma característica pai
- [SPARK-40293] [SC-110084][sql] Tornar a mensagem de erro da tabela V2 mais significativa
-
[SPARK-38734] [SC-110383][sql] Remova a classe de erro
INDEX_OUT_OF_BOUNDS - [SPARK-40292] [SC-110300][sql] Corrija nomes de colunas na função "arrays_zip" quando matrizes são referenciadas a partir de estruturas aninhadas
- [SPARK-40276] [SC-109674][core] Reduza o tamanho do resultado de RDD.takeOrdered
- [SPARK-40197] [SC-109176][sql] Substituir o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Migrar para a classe de erro
DATATYPE_MISMATCH - [SPARK-40149] [SC-110055][sql] Propagar colunas de metadados através do Project
- [SPARK-40280] [SC-110146][sql] Adicionar suporte para redução de parquet para int e long anotados
- [SPARK-40220] [SC-110143][sc-109175][SQL] Não produza o mapa vazio dos parâmetros da mensagem de erro
- [SPARK-40295] [SC-110070][sql] Permitir funções v2 com argumentos literais na distribuição/ordenação de escrita
-
[SPARK-40156] [SC-109264][sql]
url_decode()deve retornar uma classe de erro - [SPARK-39195] [SQL] Spark OutputCommitCoordinator deve abortar o estágio quando o arquivo confirmado não é consistente com o status da tarefa
- [SPARK-40260] [SC-109424][sql] Usar classes de erro nos erros de compilação de GROUP BY uma posição
- [SPARK-40205] [SC-110144][sc-109082][SQL] Forneça um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676][sql] Melhorar a função TO_BINARY()
-
[SPARK-40209] [SC-109081][sql] Não altere o valor do intervalo decimal em caso de
changePrecision()erros - [SPARK-40319] [SC-109873][sql] Remova o método de erro de execução de consulta duplicada para PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Numérico try_add/try_divide/try_subtract/try_multiply deve lançar erro de seus filhos
- [SPARK-40183] [SC-108907][sql] Usar classe de erro NUMERIC_VALUE_OUT_OF_RANGE para estouro na conversão decimal
-
[SPARK-40180] [SC-109069][sql] Formatar mensagens de erro por
spark-sql - [SPARK-40153] [SC-109165][sql] Unifique funções de resolução e funções com valor de tabela
-
[SPARK-40308] [SC-109880][sql] Permitir argumentos de delimitador não dobráveis na função
str_to_map - [SPARK-40219] [SC-110052][sc-109663][SQL] O plano lógico de exibição resolvido deve conter o esquema para evitar pesquisas redundantes
- [SPARK-40098] [SC-109939][sc-108693][SQL] Formatar mensagens de erro no Thrift Server
- [SPARK-39917] [SC-109038][sql] Use classes de erro diferentes para estouro aritmético numérico/intervalar
- [SPARK-40033] [SC-109875][sql] Suporte à remoção de esquema aninhado através de element_at
- [SPARK-40194] [SC-109660][sql] A função SPLIT num regex vazio deve truncar a parte final da cadeia de caracteres vazia.
- [SPARK-40228] [SC-109835][sql] Não simplifique multiLike se criança não é uma expressão barata
- [SPARK-40039] [SC-109896][sc-109260][SS] Apresentando um gerenciador de arquivos de ponto de verificação de streaming baseado na interface Abortable do Hadoop
-
[SPARK-40285] [SC-109679][sql] Simplifique o
roundTo[Numeric]para o SparkDecimal - [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison deve funcionar quando o downcast do literal de In/InSet não conseguiu ser realizado
- [SPARK-40040] [SC-109662][sql] Aplicar a limitação local a ambos os lados se a condição de junção estiver vazia
- [SPARK-40055] [SC-109075][sql] listCatalogs também devem retornar spark_catalog mesmo quando spark_catalog implementação é defaultSessionCatalog
- [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) pode não criar partições N Parte não-AQE
- [SPARK-40207] [SC-109401][sql] Especifique o nome da coluna quando o tipo de dados não for suportado pela fonte de dados
- [SPARK-40245] [SC-109295][sql] Corrija a verificação de igualdade do FileScan quando as colunas de partição ou filtro de dados não são lidas
- [SPARK-40113] [SC-109405][sql] Reactor ParquetScanBuilder Implementações da interface DataSourceV2
- [SPARK-40211] [SC-109226][core][SQL] Permitir personalizar o número de partições iniciais no comportamento take()
-
[SPARK-40252] [SC-109379][sql] Substituir
Stream.collect(Collectors.joining)porStringJoinerApi - [SPARK-40247] [SC-109272][sql] Corrigir verificação de igualdade do "BitSet"
- [SPARK-40067] [SQL] Para preencher o nome da tabela no nó BatchScan no SparkUI, utilize Table#name() em vez de Scan#name().
- [SPARK-39966] [SQL] Usar filtro V2 em SupportsDelete
- [SPARK-39607] [SC-109268][sql][DSV2] Função V2 de suporte de distribuição e encomenda por escrito
- [SPARK-40224] [SC-109271][sql] Faça com que o ObjectHashAggregateExec libere a memória imediatamente caso o recurso passe a ser baseado em ordenação.
-
[SPARK-40013] [SQL] DS V2 expressões devem ter o padrão
toString - [SPARK-40214] [SC-109079][python][SQL] adicionar 'get' às funções
- [SPARK-40192] [SC-109089][sql][ML] Remover groupby redundante
- [SPARK-40146] [SC-108694][sql] Simplificar a geração de código para obter o valor do mapa
- [SPARK-40109] [SQL] Nova função SQL: get()
- [SPARK-39929] [SQL] DS V2 suporta funções push down string (não ANSI)
- [SPARK-39819] [SQL] DS V2 redução de agregados pode funcionar com Top N ou Paginação (Ordenação com expressões)
- [FAÍSCA-40213] [SC-109077][sql] Suporta conversão de valor ASCII para caracteres latino-1
- [SPARK-39887] [SQL] RemoveRedundantAliases deve manter aliases que tornam a saída dos nós de projeção exclusiva
- [SPARK-39764] [SQL] Torne o PhysicalOperation igual ao ScanOperation
- [SPARK-39964] [SQL] O pushdown do DS V2 deveria unificar o percurso de tradução
- [SPARK-39528] [SQL] Usar filtro V2 em SupportsRuntimeFiltering
- [SPARK-40066] [SQL] Modo ANSI: sempre retornar null no acesso inválido à coluna do mapa
- [SPARK-39912] [SPARK-39828][sql] Refinar o CatálogoImpl
- [SPARK-39833] [SC-108736][sql] Desative o índice de coluna Parquet no DSv1 para corrigir um problema de correção no caso de sobreposição de colunas de partição e dados
- [SPARK-39880] [SQL] O comando V2 SHOW FUNCTIONS deve imprimir o nome da função qualificada como v1
- [SPARK-39767] [SQL] Remover UnresolvedDBObjectName e adicionar UnresolvedIdentifier
- [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Map)
- [SPARK-40136] [SQL] Corrigir o fragmento de contextos de consulta SQL
- [SPARK-40107] [SC-108689][sql] Retire a conversão empty2null de FileFormatWriter
- [SPARK-40121] [PYTHON][sql] Inicializar projeção usada para Python UDF
- [SPARK-40128] [SQL] Faça com que o VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação de coluna autônoma
- [SPARK-40132] [ML] Restaurar rawPredictionCol para MultilayerPerceptronClassifier.setParams
-
[SPARK-40050] [SC-108696][sql] Aprimore
EliminateSortspara suportar a remoção de classificações viaLocalLimit - [SPARK-39629] [SQL] Suporte v2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Adicionar sobrecarga array_sort(coluna, comparador) às operações DataFrame
- [SPARK-40117] [PYTHON][sql] Converter condição em java em DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Melhorar a repartição em ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Adicionar nome de catálogo de sessão para tabela e função de banco de dados v1
- [SPARK-39889] [SQL] Utilizar diferentes classes de erro para número/intervalo dividido por 0
- [SPARK-39741] [SQL] Suporte a encode/decode de URL como função integrada e reorganizar funções relacionadas a URL
- [SPARK-40102] [SQL] Use SparkException em vez de IllegalStateException no SparkPlan
- [SPARK-40014] [SQL] Suporte a conversão de decimais para intervalos ANSI
- [SPARK-39776] [SQL][follow] Atualização UT do PlanStabilitySuite no modo ANSI
-
[SPARK-39963] [SQL] Simplificar
SimplifyCasts.isWiderCast
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 11.3.
Ambiente do sistema
-
Sistema Operacional: Ubuntu 20.04.5 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Píton: 3.9.21
- R: 4.1.3
- Lago Delta: 2.1.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Argão2-CFFI | 20.1.0 | gerador assíncrono | 1.10 | Atributos | 21.2.0 |
| Chamada de retorno | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.1.1 | preto | 22.3.0 |
| lixívia | 4.0.0 | boto3 | 1.21.18 | Botocore | 1.24.18 |
| certifi | 2021.10.8 | cffi | 1.14.6 | Chardet | 4.0.0 |
| Normalizador de Charset | 2.0.4 | clicar | 8.0.3 | criptografia | 3.4.8 |
| ciclista | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
| debugpy | 1.4.1 | decorador | 5.1.0 | defusedxml | 0.7.1 |
| Distlib | 0.3.6 | pontos de entrada | 0,3 | facetas-visão geral | 1.0.0 |
| bloqueio de arquivo | 3.8.0 | IDNA | 3.2 | Ipykernel | 6.12.1 |
| IPython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
| Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| Joblib | 1.0.1 | jsonschema | 3.2.0 | Jupyter Client | 6.1.12 |
| Jupyter-Core | 4.8.1 | JupyterLab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | Matplotlib | 3.4.3 |
| matplotlib-inline | 0.1.2 | Mistune | 0.8.4 | mypy extensions | 0.4.3 |
| nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | bloco de notas | 6.4.5 | numpy | 1.20.3 |
| embalagem | 21.0 | pandas | 1.3.4 | PandocFilters | 1.4.3 |
| Parso | 0.8.2 | PathSpec | 0.9.0 | vítima | 0.5.2 |
| pexpect | 4.8.0 | pickleshare | 0.7.5 | Almofada | 8.4.0 |
| pip (o gestor de pacotes do Python) | 21.2.4 | platformdirs | 2.5.2 | enredo | 5.9.0 |
| Prometheus-Cliente | 0.11.0 | kit de ferramentas de prompt | 3.0.20 | Protobuf | 4.21.5 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| Pyarrow | 7.0.0 | Pycparser | 2,20 | Pigmentos | 2.10.0 |
| PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
| pyrsistent | 0.18.0 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 | Pytz | 2021.3 |
| Pyzmq | 22.2.1 | pedidos | 2.26.0 | pedidos-unixsocket | 0.2.0 |
| s3transfer | 0.5.2 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.24.2 | SciPy | 1.7.1 |
| nascido no mar | 0.11.2 | Send2Trash | 1.8.0 | Ferramentas de configuração | 58.0.4 |
| seis | 1.16.0 | ssh-import-id | 5.10 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.12.2 |
| tenacidade | 8.0.1 | terminado | 0.9.4 | caminho de teste | 0.5.0 |
| Threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.1.0 | extensões de digitação | 3.10.0.2 |
| Atualizações não supervisionadas | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | codificações da web | 0.5.1 | wheel | 0.37.0 |
| widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-09-08. O snapshot não está mais disponível.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1.1 | asserir que | 0.2.1 | Retroportagens | 1.4.1 |
| base | 4.1.3 | base64enc | 0.1-3 | pouco | 4.0.4 |
| bit-64 | 4.0.5 | blob | 1.2.3 | inicialização | 1.3-28 |
| fabricação de cerveja | 1.0-7 | vigor | 1.1.3 | vassoura | 1.0.1 |
| bslib | 0.4.0 | cachemira | 1.0.6 | Chamador | 3.7.2 |
| caret | 6.0-93 | CellRanger | 1.1.0 | crono | 2.3-57 |
| classe | 7.3-20 | CLI | 3.3.0 | Clipr | 0.8.0 |
| cluster | 2.1.3 | CodeTools | 0.2-18 | espaço de cores | 2.0-3 |
| marca comum | 1.8.0 | compilador | 4.1.3 | Configurações | 0.3.1 |
| cpp11 | 0.4.2 | lápis de cor | 1.5.1 | credenciais | 1.3.2 |
| encaracolar | 4.3.2 | tabela de dados | 1.14.2 | conjuntos de dados | 4.1.3 |
| DBI | 1.1.3 | DBPlyr | 2.2.1 | descrição | 1.4.1 |
| DevTools | 2.4.4 | diffobj | 0.3.5 | resumo | 0.6.29 |
| Iluminação reduzida | 0.4.2 | DPLYR | 1.0.10 | DTPlyr | 1.2.2 |
| e1071 | 1.7-11 | reticências | 0.3.2 | avaliar | 0.16 |
| Fansi | 1.0.3 | cores | 2.1.1 | mapa rápido | 1.1.0 |
| fontawesome | 0.3.0 | forçados | 0.5.2 | foreach | 1.5.2 |
| estrangeiro/a | 0.8-82 | forjar | 0.2.0 | fs | 1.5.2 |
| Futuro | 1.28.0 | futuro.apply | 1.9.1 | gargarejo | 1.2.0 |
| genérico | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
| gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
| Globais | 0.16.1 | cola | 1.6.2 | GoogleDrive | 2.0.0 |
| googlesheets4 | 1.0.1 | Gower | 1.0.0 | gráficos | 4.1.3 |
| grDispositivos | 4.1.3 | grelha | 4.1.3 | gridExtra | 2.3 |
| gsubfn | 0.7 | tabela g | 0.3.1 | capacete de segurança | 1.2.0 |
| Refúgio | 2.5.1 | mais alto | 0,9 | HMS (Navio de Sua Majestade) | 1.1.2 |
| htmltools | 0.5.3 | htmlwidgets (componentes HTML interativos) | 1.5.4 | httpuv | 1.6.5 |
| HTTR | 1.4.4 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-13 | Banda isobárica | 0.2.5 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
| Knitr | 1.40 | etiquetagem | 0.4.2 | mais tarde | 1.3.0 |
| treliça | 0.20-45 | lave | 1.6.10 | ciclo de vida | 1.0.1 |
| ouvir | 0.8.0 | lubridato | 1.8.0 | Magrittr | 2.0.3 |
| Marcação | 1.1 | MASSA | 7.3-56 | Matriz | 1.4-1 |
| memorização | 2.0.1 | Metodologia | 4.1.3 | mgcv | 1.8-40 |
| mime | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
| modelr | 0.1.9 | Munsell | 0.5.0 | nlme | 3.1-157 |
| NNET | 7.3-17 | numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.2 |
| paralelo | 4.1.3 | Paralelamente | 1.32.1 | pilar | 1.8.1 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | Plyr | 1.8.7 |
| elogios | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| processx | 3.7.0 | Prodlim | 2019.11.13 | profvis | 0.3.7 |
| Progressos | 1.2.2 | progressr | 0.11.0 | promessas | 1.2.0.1 |
| prototipo | 1.0.0 | proxy | 0.4-27 | P.S. | 1.7.1 |
| purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | Readr | 2.1.2 | readxl | 1.4.1 |
| receitas | 1.0.1 | revanche | 1.0.1 | revanche2 | 2.1.2 |
| Controles remotos | 2.4.2 | Exemplo Reproduzível (Reprex) | 2.0.2 | remodelar2 | 1.4.4 |
| rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
| roxygen2 | 7.2.1 | rpart (função de partição recursiva em R) | 4.1.16 | rprojroot | 2.0.3 |
| Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0.14 |
| rversions | 2.1.2 | Rvest | 1.0.3 | Sass | 0.4.2 |
| balanças | 1.2.1 | seletor | 0.4-2 | Informação da sessão | 1.2.2 |
| forma | 1.4.6 | brilhante | 1.7.2 | ferramentas de código-fonte | 0.1.7 |
| sparklyr | 1.7.8 | SparkR | 3.3.0 | espacial | 7.3-11 |
| splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.1.3 | estatísticas4 | 4.1.3 | string | 1.7.8 |
| stringr | 1.4.1 | Sobrevivência | 3.4-0 | Sistema | 3.4 |
| fontes do sistema | 1.0.4 | tcltk (uma linguagem de programação) | 4.1.3 | testthat | 3.1.4 |
| formatação de texto | 0.3.6 | Tibble | 3.1.8 | tidyr | 1.2.0 |
| tidyselect | 1.1.2 | tidyverse | 1.3.2 | data e hora | 4021.104 |
| Tinytex | 0.41 | Ferramentas | 4.1.3 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
| utilitários | 4.1.3 | Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.4.1 |
| viridisLite | 0.4.1 | vruum | 1.5.7 | Waldo | 0.4.0 |
| vibrissas | 0.4 | murchar | 2.5.0 | xfun | 0.32 |
| XML2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.5 | ZIP | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | AWS Java SDK para SES | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.189 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombra kriogénica | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.13.4 |
| com.fasterxml.jackson.core | Jackson-Core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.4 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 2.0.204 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 9.2.1.jre8 |
| com.ning | compress-lzf | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Configurações | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.21 |
| IO.Delta | delta-compartilhamento-spark_2.12 | 0.5.1 |
| io.dropwizard.metrics | métricas-base | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | métricas em formato JSON | 4.1.1 |
| io.dropwizard.metrics | métricas do JVM | 4.1.1 |
| io.dropwizard.metrics | Métricas-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | Netty Comum | 4.1.74.Final |
| io.netty | Netty Handler | 4.1.74.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.74.Final |
| io.netty | netty-tcnative-classes | 2.0.48.Final |
| io.netty | Netty-Transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
| io.prometeu | simpleclient | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| Jakarta.validação | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserva | 1.2 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.14 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de flecha | 7.0.0 |
| org.apache.arrow | núcleo de memória Arrow | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | vetor de seta | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | AVRO-IPC | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.9 |
| org.apache.curador | curador e cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.4-DATABRICKS |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | Hive-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | Orc-cunhas | 1.7.6 |
| org.apache.parquet | parquet-column | 1.12.0-DATABRICKS-0007 |
| org.apache.parquet | parquet-common | 1.12.0-DATABRICKS-0007 |
| org.apache.parquet | parquet-encoding | 1.12.0-DATABRICKS-0007 |
| org.apache.parquet | parquet-format-structures | 1.12.0-DATABRICKS-0007 |
| org.apache.parquet | parquet-hadoop | 1.12.0-DATABRICKS-0007 |
| org.apache.parquet | parquet-jackson | 1.12.0-DATABRICKS-0007 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.20 |
| org.apache.yetus | anotações do público | 0.5.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.2 |
| org.checkerframework | verificador de qualidade | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-JNDI | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Plus | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | servidor jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-XML | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-client | 2,36 |
| org.glassfish.jersey.core | Jersey comum | 2,36 |
| org.glassfish.jersey.core | servidor Jersey | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.7.4 |
| org.mlflow | mlflow-Spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | calços | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
| org.scala-lang | Escala-library_2.12 | 2.12.14 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | Brisa-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.36 |
| org.slf4j | jul-para-slf4j | 1.7.36 |
| org.slf4j | SLF4J-API | 1.7.36 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.threeten | ThreeTen-Extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.0.7.Final |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | Snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |