Compartilhar via


Databricks Runtime 11.3 LTS (EoS)

Observação

O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Notas de versão do Databricks Runtime: versões e compatibilidade.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, alimentado pelo Apache Spark 3.3.0. O Databricks lançou esta versão em outubro de 2022.

Observação

LTS significa que essa versão possui suporte de longo prazo. Confira Ciclo de vida da versão de LTS do Databricks Runtime.

Alterações comportamentais

[Alteração significativa] A nova versão do Python requer a atualização de clientes Python do Databricks Connect V1

Observação

Uma atualização subsequente move a versão do Python no Databricks Runtime 11.3 LTS para 3.9.21. A versão 3.9.21 não apresenta nenhuma alteração comportamental.

Para aplicar os patches de segurança necessários, a versão do Python no Databricks Runtime 11.3 LTS é atualizada da versão 3.9.5 para a 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 para Python com o Databricks Runtime 11.3 LTS devem ser atualizados para o Python 3.9.7 ou posterior.

Novos recursos e melhorias

Python atualizado da 3.9.19 para a 3.9.21

A versão do Python no Databricks Runtime 11.3 LTS é atualizada da versão 3.9.19 para a 3.9.21.

Gatilho de streaming estruturado uma vez preterido

A Trigger.Once configuração foi preterida. O Databricks recomenda que você use Trigger.AvailableNow. Confira Configurar intervalos de gatilho do Fluxo Estruturado.

Alterar o caminho de origem do Carregador Automático

Agora você pode alterar o caminho de entrada do diretório para o Carregador Automático configurado com o modo de listagem de diretório sem precisar escolher um novo diretório de ponto de verificação. Consulte Alterar o caminho de origem do Carregador Automático.

O conector do Databricks Kinesis agora suporta a leitura de Fluxos de Dados Kinesis no modo EFO

Agora você pode usar a fonte de streaming estruturada do Databricks Kinesis no Databricks Runtime 11.3 LTS para executar consultas que leem dos fluxos de dados do Kinesis no modo de fan-out aprimorado. Isso permite largura de banda dedicada por fragmento, por consumidor e distribuição de registros no modo push.

Novas funções geoespaciais H3 e adição de suporte ao Photon para todas as funções H3

Apresentando 4 novas funções H3, h3_maxchild, h3_minchilde h3_pointash3h3_pointash3string. Essas funções estão disponíveis em SQL, Scala e Python. Todas as expressões H3 agora têm suporte no Photon. Confira Funções geoespaciais H3

Novos recursos para E/S Preditiva

O Photon dá suporte ao modo de alcance para a execução de quadros, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. O Photon também dá suporte ao modo de intervalo para quadros crescentes, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

Aumentando as partições iniciais para verificar consultas seletivas

O valor das partições iniciais para escanear foi aumentado para 10 para consulta seletiva com take/tail/limit em clusters habilitados para Photon e LIMIT no Databricks SQL. Com 10 partições, você pode evitar a sobrecarga de iniciar várias tarefas pequenas e um escalonamento lento. Você também pode configurar isso por meio de spark.sql.limit.selectiveInitialNumPartitions.

Visualização de novas versões de planos do AQE

Apresentando versões de plano do AQE que permitem visualizar as atualizações de planos de execução a partir da execução de consulta adaptativa (AQE).

Novos modos de rastreamento de progresso assíncrono e limpeza de logs

Apresentando modos de Streaming Estruturado chamados de acompanhamento de progresso assíncrono e limpeza de log assíncrono. O modo de purgação de logs assíncrono reduz a latência das consultas de streaming ao remover logs usados para acompanhamento de progresso em segundo plano.

O Streaming Estruturado no Catálogo do Unity agora dá suporte display()

Agora você pode usar display() quando usar o Streaming Estruturado para trabalhar com tabelas registradas no Catálogo do Unity.

Os eventos de pipeline agora estão registrados no formato JSON

O Azure Databricks agora grava eventos de pipeline no log do driver no formato JSON. Embora cada evento seja possível de ser analisado em JSON, eventos grandes podem não conter todos os campos, ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received: . Veja a seguir um evento de exemplo.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Processamento com estado arbitrário no streaming estruturado com Python

Introdução à applyInPandasWithState função que pode ser usada para executar processamento com estado arbitrário no PySpark. Isso é equivalente à flatMapGroupsWithState função na API Java.

Inferência de data em arquivos CSV

Introdução à inferência aprimorada de colunas de tipo de data em arquivos CSV. Quando o formato de data é consistente entre os registros de uma coluna, essas colunas podem ser inferidas como DateType. Você também pode ter uma combinação de formatos de data em colunas diferentes. O Azure Databricks pode inferir automaticamente o formato de data para cada coluna. As colunas de data em arquivos CSV antes do Databricks Runtime 11.3 LTS são deixadas como StringType.

Suporte à clonagem para tabelas Apache Parquet e Apache Iceberg (Prévia Pública)

Clone agora pode ser usado para criar e atualizar incrementalmente tabelas Delta que espelham as tabelas Apache Parquet e Apache Iceberg. Você pode atualizar sua tabela Parquet de origem e aplicar as alterações de forma incremental e gradual à sua tabela Delta clonada com o comando clone. Consulte Clonar incrementalmente as tabelas Parquet e Apache Iceberg no Delta Lake.

Usar o SQL para especificar locais de armazenamento no nível do esquema e do catálogo para tabelas gerenciadas do Catálogo do Unity

Agora você pode usar o MANAGED LOCATION comando SQL para especificar um local de armazenamento em nuvem para tabelas gerenciadas nos níveis de catálogo e esquema. Consulte CREATE CATALOG e CREATE SCHEMA.

Alterações de comportamento

Databricks Connect 11.3.2

Agora há suporte para a atualização de cliente do Databricks Connect 11.3.2. Confira as notas de versão do Databricks Connect e do Databricks Connect.

Conector Snowflake do Azure Databricks atualizado

O conector Snowflake do Azure Databricks foi atualizado para a versão mais recente do código do repositório de software livre, Snowflake Data Source for Apache Spark. Agora ele é totalmente compatível com o Databricks Runtime 11.3 LTS, incluindo pushdown de predicado e pushdown de plano de consulta interno, mantendo todos os recursos da versão open-source.

O cache do Hadoop para S3A agora está desabilitado

O cache do Hadoop ( API FileSystem Apache Hadoop Main 3.3.4) para S3A agora está desabilitado. Isso é para se alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, verifique se os sistemas de arquivos recém-criados são fornecidos com as configurações corretas do Hadoop, incluindo provedores de credenciais.

O esquema de coleção de estatísticas do Delta Lake agora corresponde à ordem da coluna na definição de esquema de tabela

Essa alteração aborda um bug no protocolo Delta Lake em que as estatísticas não foram coletadas para colunas devido a uma incompatibilidade no DataFrame e na ordenação de colunas de tabela. Em alguns casos, você pode encontrar degradação do desempenho de escrita devido à coleta de estatísticas em campos anteriormente não rastreados. Consulte Ignorar dados no Delta Lake.

applyInPandasWithState gerará um erro se a consulta tiver um embaralhamento após o operador

O operador applyInPandasWithState gerará um erro se a consulta tiver shuffle após o operador. Isso acontece quando o usuário adiciona shuffle após a operação ou o otimizador ou coletor adiciona shuffle implicitamente.

Atualizações de biblioteca

  • Bibliotecas do Python atualizadas:
    • distlib de 0.3.5 a 0.3.6
  • Bibliotecas do R atualizadas:
    • broom da versão 1.0.0 para a 1.0.1
    • callr de 3.7.1 para 3.7.2
    • dplyr de 1.0.9 a 1.0.10
    • dtplyr de 1.2.1 para 1.2.2
    • forcats de 0.5.1 a 0.5.2
    • futuro de 1.27.0 a 1.28.0
    • Atualização de versão do future.apply de 1.9.0 para 1.9.1
    • gert de 1.7.0 para 1.8.0
    • globais de 0,16.0 a 0.16.1
    • gtable de 0.3.0 a 0.3.1
    • atualização do haven da versão 2.5.0 para a 2.5.1
    • hms de 1.1.1 a 1.1.2
    • httr de 1.4.3 a 1.4.4
    • knitr da versão 1.39 para a 1.40
    • modelr de 0.1.8 para 0.1.9
    • pilar de 1.8.0 a 1.8.1
    • progressr de 0.10.1 para 0.11.0
    • readxl de 1.4.0 para 1.4.1
    • reprex de 2.0.1 para 2.0.2
    • rlang de 1.0.4 a 1.0.5
    • rmarkdown de 2.14 a 2.16
    • RSQLite de 2.2.15 a 2.2.16
    • rstudioapi de 0.13 a 0.14
    • rversions de 2.1.1 até 2.1.2
    • rvest de 1.0.2 para 1.0.3
    • escala de 1.2.0 para 1.2.1
    • sparklyr de 1.7.7 a 1.7.8
    • stringr de 1.4.0 a 1.4.1
    • sobrevivência de 3.2-13 a 3.4-0
    • tinytex de 0,40 a 0,41
    • viridisLite de 0.4.0 a 0.4.1
  • Bibliotecas Java atualizadas:
    • com.fasterxml.jackson.core.jackson-annotations de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
    • org.apache.hadoop.hadoop-client-api de 3.3.2-databricks para 3.3.4-databricks
    • org.apache.hadoop.hadoop-client-runtime de 3.3.2 a 3.3.4
    • org.apache.orc.orc-core de 1.7.5 a 1.7.6
    • org.apache.orc.orc-mapreduce de 1.7.5 a 1.7.6
    • org.apache.orc.orc-shims de 1.7.5 a 1.7.6
    • org.apache.parquet.parquet-column de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-common de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-encoding de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet de 2.34 a 2.36
    • org.glassfish.jersey.containers.jersey-container-servlet-core de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-common de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
    • org.glassfish.jersey.inject.jersey-hk2 de 2.34 a 2.36

Apache Spark

O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.2 (EoS), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:

  • [SPARK-39957] [WARMFIX][sc-111425][CORE] Atraso aoDesconectar para habilitar que o Driver receba ExecutorExitCode
  • [SPARK-39955] [WARMFIX][sc-111424][CORE] Aprimorar o processo de LaunchTask para evitar falhas de estágio causadas por mensagens de falha ao enviar LaunchTask.
  • [SPARK-40474] [SC-106248][cherry-pick] Corrigir o comportamento de inferência de esquema CSV para colunas de data e hora e introduzir a detecção automática para campos de data.
  • [SPARK-40535] [SC-111243][sql] Corrigir bug o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
  • [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implementar applyInPandasWithState no PySpark
  • [SPARK-40460] [SC-110832][ss] Corrigir métricas de streaming ao selecionar _metadata
  • [SPARK-40324] [SC-109943][sql] Fornecer um contexto de consulta de ParseException
  • [SPARK-40466] [SC-110899][ss] Melhorar a mensagem de erro quando dSv2 estiver desabilitado enquanto DSv1 não estiver disponível
  • [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext deve poder ser chamado repetidamente de forma econômica
  • [SPARK-40169] [SC-110772][sql] Não aplicar filtros Parquet que não fazem referência ao esquema de dados
  • [SPARK-40467] [SC-110759][ss] Dividir FlatMapGroupsWithState em vários conjuntos de testes
  • [SPARK-40468] [SC-110813][sql] Corrigir a remoção de colunas no CSV quando _corrupt_record for selecionado
  • [SPARK-40291] [SC-110085][sql] Melhorar a mensagem para a coluna que não está em grupo por erro de cláusula
  • [SPARK-40398] [SC-110762][core][SQL] Use Loop em vez de Arrays.stream api
  • [SPARK-40433] [SC-110684][ss][PYTHON] Adicionar toJVMRow em PythonSQLUtils para converter uma linha PySpark serializada para linha JVM
  • [SPARK-40414] [SC-110568][sql][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
  • [SPARK-40352] [SC-109945][sql] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
  • [SPARK-40470] [SC-110761][sql] Manipular GetArrayStructFields e GetMapValue na função "arrays_zip"
  • [SPARK-40387] [SC-110685][sql] Aprimorar a implementação do Spark Decimal
  • [SPARK-40429] [SC-110675][sql] Definir somente KeyGroupedPartitioning quando a coluna referenciada estiver na saída
  • [SPARK-40432] [SC-110716][ss][PYTHON] Introduza os GroupStateImpl e GroupStateTimeout no PySpark
  • [SPARK-39915] [SC-110496][sql] Verifique se o particionamento de saída é especificado pelo usuário no AQE
  • [SPARK-29260] [SQL] Suporte caso o HMS ofereça suporte
  • [SPARK-40185] [SC-110056][sql] Remover sugestão de coluna quando a lista de candidatos estiver vazia
  • [SPARK-40362] [SC-110401][sql] Corrigir canonicalização binaryComparison
  • [SPARK-40411] [SC-110381][ss] Refatorar FlatMapGroupsWithStateExec para ter um trait pai
  • [SPARK-40293] [SC-110084][sql] Tornar a mensagem de erro da tabela V2 mais significativa
  • [SPARK-38734] [SC-110383][sql] Remover a classe de erro INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][sql] Corrigir nomes de coluna na função "arrays_zip" quando as matrizes são referenciadas de estruturas aninhadas
  • [SPARK-40276] [SC-109674][core] Reduza o tamanho do resultado de RDD.takeOrdered
  • [SPARK-40197] [SC-109176][sql] Substitua o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
  • [SPARK-40300] [SC-109942][sql] Migrar para a DATATYPE_MISMATCH classe de erro
  • [SPARK-40149] [SC-110055][sql] Propagar colunas de metadados por meio do Project
  • [SPARK-40280] [SC-110146][sql] Adicionar suporte para o push parquet para int anotado e longo
  • [SPARK-40220] [SC-110143][sc-109175][SQL] Não exibir o mapa vazio dos parâmetros da mensagem de erro
  • [SPARK-40295] [SC-110070][sql] Permitir funções v2 com argumentos literais na distribuição/ordenação de gravação
  • [SPARK-40156] [SC-109264][sql] url_decode() deve retornar uma classe de erro
  • [SPARK-39195] [SQL] Spark OutputCommitCoordinator deve anular o estágio quando o arquivo confirmado não é consistente com o status da tarefa
  • [SPARK-40260] [SC-109424][sql] Use classes de erro nos erros de compilação de GROUP BY uma posição
  • [SPARK-40205] [SC-110144][sc-109082][SQL] Forneça um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
  • [SPARK-40112] [SC-109676][sql] Aprimorar a função TO_BINARY()
  • [SPARK-40209] [SC-109081][sql] Não altere o valor do intervalo de Decimal em caso de erros
  • [SPARK-40319] [SC-109873][sql] Remover método de erro de execução de consulta duplicado para PARSE_DATETIME_BY_NEW_PARSER
  • [SPARK-40222] [SC-109209][sql] Try_add/try_divide/try_subtract/try_multiply numéricos devem lançar erro a partir de seus filhos
  • [SPARK-40183] [SC-108907][sql] Utilize a classe de erro NUMERIC_VALUE_OUT_OF_RANGE para excesso na conversão de decimais
  • [SPARK-40180] [SC-109069][sql] Formatar mensagens de erro por spark-sql
  • [SPARK-40153] [SC-109165][sql] Unificar funções de resolução e funções com valor de tabela
  • [SPARK-40308] [SC-109880][sql] Permitir argumentos delimitadores não flexíveis na função str_to_map
  • [SPARK-40219] [SC-110052][sc-109663][SQL] Plano lógico de exibição resolvido deve conter o esquema para evitar pesquisa redundante
  • [SPARK-40098] [SC-109939][sc-108693][SQL] Formatar mensagens de erro no Thrift Server
  • [SPARK-39917] [SC-109038][sql] Use classes de erro diferentes para estouro aritmético numérico/intervalo
  • [SPARK-40033] [SC-109875][sql] Suporte à poda de esquema aninhado por meio do 'element_at'
  • [SPARK-40194] [SC-109660][sql] A função SPLIT em regex vazio deve truncar a cadeia de caracteres vazia no final.
  • [SPARK-40228] [SC-109835][sql] Não simplifique multiLike se filho não for uma expressão barata
  • [SPARK-40039] [SC-109896][sc-109260][SS] Apresentando um gerenciador de arquivos de ponto de verificação de streaming baseado na interface Abortable do Hadoop
  • [SPARK-40285] [SC-109679][sql] Simplificar o roundTo[Numeric] para Spark Decimal
  • [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison deve funcionar quando o literal de In/InSet rebaixamento falhou
  • [SPARK-40040] [SC-109662][sql] Propagar o limite local para ambos os lados se a condição de união estiver vazia
  • [SPARK-40055] [SC-109075][sql] listCatalogs deve também retornar spark_catalog mesmo quando a implementação de spark_catalog é defaultSessionCatalog
  • [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) pode não criar N partições na parte não AQE
  • [SPARK-40207] [SC-109401][sql] Especifique o nome da coluna quando o tipo de dados não tiver suporte pela fonte de dados
  • [SPARK-40245] [SC-109295][sql] Corrigir a verificação de igualdade do FileScan quando as colunas de partição ou de filtro de dados não são lidas
  • [SPARK-40113] [SC-109405][sql] Implementações de interface de reator ParquetScanBuilder DataSourceV2
  • [SPARK-40211] [SC-109226][core][SQL] Permitir personalizar o número de partições iniciais no comportamento take()
  • [SPARK-40252] [SC-109379][sql] Substituir Stream.collect(Collectors.joining) por StringJoiner API
  • [SPARK-40247] [SC-109272][sql] Correção da verificação de igualdade do BitSet
  • [SPARK-40067] [SQL] Use Table#name() em vez de Scan#name() para preencher o nome da tabela no nó BatchScan no SparkUI
  • [SPARK-39966] [SQL] Usar filtro V2 no SupportsDelete
  • [SPARK-39607] [SC-109268][sql][DSV2] Função de suporte de distribuição e ordenação V2 por escrito
  • [SPARK-40224] [SC-109271][sql] Fazer com que o ObjectHashAggregateExec libere memória de forma antecipada ao recorrer ao método baseado em ordenação
  • [SPARK-40013] [SQL] As expressões DS V2 devem ter o padrão toString
  • [SPARK-40214] [SC-109079][python][SQL] adicione 'get' às funções
  • [SPARK-40192] [SC-109089][sql][ML] Remover agrupamento redundante
  • [SPARK-40146] [SC-108694][sql] Simplificar o codegen para a obtenção de valor do mapa
  • [SPARK-40109] [SQL] Nova função SQL: get()
  • [SPARK-39929] [SQL] O DS V2 dá suporte a funções de cadeia de caracteres push down (não ANSI)
  • [SPARK-39819] [SQL] O push de agregação do DS V2 pode funcionar com Top N ou Paginação (Classificar com expressões)
  • [SPARK-40213] [SC-109077][sql] Suporte à conversão de valor ASCII para caracteres Latino-1
  • [SPARK-39887] [SQL] RemoveRedundantAliases deve manter aliases que tornam a saída de nós de projeção exclusiva
  • [SPARK-39764] [SQL] Tornar o PhysicalOperation igual ao ScanOperation
  • [SPARK-39964] [SQL] DS V2 pushdown deve unificar o caminho de tradução
  • [SPARK-39528] [SQL] Usar filtro V2 em SupportsRuntimeFiltering
  • [SPARK-40066] [SQL] Modo ANSI: sempre retornar nulo no acesso inválido à coluna do mapa
  • [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
  • [SPARK-39833] [SC-108736][sql] Desabilitar o índice de coluna Parquet no DSv1 para corrigir um problema de exatidão no caso de sobreposição entre partições e colunas de dados
  • [SPARK-39880] [SQL] O comando V2 SHOW FUNCTIONS deve exibir o nome qualificado da função, assim como o v1.
  • [SPARK-39767] [SQL] Remover UnresolvedDBObjectName e adicionar UnresolvedIdentifier
  • [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Map)
  • [SPARK-40136] [SQL] Corrigir o fragmento de contextos de consulta SQL
  • [SPARK-40107] [SC-108689][sql] Extrair a conversão empty2null do FileFormatWriter
  • [SPARK-40121] [PYTHON][sql] Inicializar projeção usada para o Python UDF
  • [SPARK-40128] [SQL] Fazer com que o VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação de coluna autônoma
  • [SPARK-40132] [ML] Restaurar rawPredictionCol em MultilayerPerceptronClassifier.setParams
  • [SPARK-40050] [SC-108696][sql] Aprimorar EliminateSorts para dar suporte à remoção de classificações por meio de LocalLimit
  • [SPARK-39629] [SQL] Suporte à versão 2 SHOW FUNCTIONS
  • [SPARK-39925] [SC-108734][sql] Adicionar sobrecarga de array_sort(coluna, comparador) às operações do DataFrame
  • [SPARK-40117] [PYTHON][sql] Converter condição em java em DataFrameWriterV2.overwrite
  • [SPARK-40105] [SQL] Melhorar a repartição em ReplaceCTERefWithRepartition
  • [SPARK-39503] [SQL] Adicionar o nome do catálogo de sessão para a tabela de banco de dados e função v1
  • [SPARK-39889] [SQL] Use classes de erro diferentes para numérico/intervalo dividido por 0
  • [SPARK-39741] [SQL] Dar suporte à codificação/decodificação de URL como função interna e organizar funções relacionadas à URL
  • [SPARK-40102] [SQL] Use SparkException em vez de IllegalStateException no SparkPlan
  • [SPARK-40014] [SQL] Suporte para conversão de decimais para intervalos ANSI
  • [SPARK-39776] [SQL][follow] Atualização UT de PlanStabilitySuite no modo ANSI
  • [SPARK-39963] [SQL] Simplificar SimplifyCasts.isWiderCast

Atualizações de manutenção

Confira as atualizações de manutenção do Databricks Runtime 11.3.

Ambiente do sistema

  • Sistema operacional: Ubuntu 20.04.5 LTS
    • Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.21
  • R: 4.1.3
  • Delta Lake: 2.1.0

Bibliotecas do Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
argon2-cffi 20.1.0 gerador assíncrono 1.10 atributos 21.2.0
chamada de retorno 0.2.0 backports.entry-points-selectable 1.1.1 preto 22.3.0
bleach 4.0.0 boto3 1.21.18 botocore 1.24.18
certificado 2021.10.8 cffi 1.14.6 chardet 4.0.0
normalizador de conjunto de caracteres 2.0.4 click 8.0.3 criptografia 3.4.8
ciclista 0.10.0 Cython 0.29.24 dbus-python 1.2.16
debugpy 1.4.1 decorador 5.1.0 defusedxml 0.7.1
distlib 0.3.6 pontos de entrada 0,3 Visão geral de facetas 1.0.0
bloqueio de arquivo 3.8.0 IDNA 3.2 ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets 7.7.0
Jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 Cliente Jupyter 6.1.12
jupyter-core 4.8.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
matplotlib-inline 0.1.2 Mistune 0.8.4 mypy-extensions 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
nest-asyncio 1.5.1 notebook 6.4.5 numpy 1.20.3
empacotamento 21,0 Pandas 1.3.4 pandocfilters 1.4.3
parso 0.8.2 pathspec 0.9.0 patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Almofada 8.4.0
pip 21.2.4 platformdirs 2.5.2 enredo 5.9.0
prometheus-client 0.11.0 prompt-toolkit 3.0.20 protobuf 4.21.5
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
Pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-dateutil 2.8.2 Pytz 2021.3
pyzmq 22.2.1 requests 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-aprender 0.24.2 scipy 1.7.1
seaborn (biblioteca de visualização em Python) 0.11.2 Send2Trash 1.8.0 Ferramentas de configuração 58.0.4
seis 1.16.0 ssh-import-id 5.10 statsmodels (biblioteca para modelos estatísticos em Python) 0.12.2
tenacidade 8.0.1 terminado 0.9.4 caminho de teste 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.0 extensões de digitação 3.10.0.2
atualizações não supervisionadas 0.1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 codificações web 0.5.1 wheel 0.37.0
widgetsnbextension 3.6.0

Bibliotecas R instaladas

As bibliotecas do R são instaladas a partir do snapshot do Microsoft CRAN em 2022-09-08. O instantâneo não está mais disponível.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AskPass 1.1 afirme isso 0.2.1 backports 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 ciar 1.3-28
Fabricação de cerveja 1.0-7 brio 1.1.3 vassoura 1.0.1
bslib 0.4.0 cachem 1.0.6 callr 3.7.2
sinal de interpolação 6.0-93 Cellranger 1.1.0 chron 2.3-57
classe 7.3-20 CLI 3.3.0 clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 espaço de cores 2.0-3
commonmark 1.8.0 compilador 4.1.3 config 0.3.1
cpp11 0.4.2 crayon 1.5.1 credenciais 1.3.2
encurvar 4.3.2 Tabela de Dados 1.14.2 conjuntos de dados 4.1.3
DBI 1.1.3 dbplyr 2.2.1 Descrição 1.4.1
devtools 2.4.4 diffobj 0.3.5 hash 0.6.29
downlit 0.4.2 dplyr 1.0.10 dtplyr 1.2.2
e1071 1.7-11 reticências 0.3.2 avaliar 0.16
fansi 1.0.3 cores 2.1.1 mapa rápido 1.1.0
fontawesome 0.3.0 forcats 0.5.2 foreach 1.5.2
estrangeiro 0.8-82 forge 0.2.0 fs 1.5.2
futuro 1.28.0 future.apply 1.9.1 gargle 1.2.0
genéricos 0.1.3 gert 1.8.0 ggplot2 3.3.6
gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globals 0.16.1 cola 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 gower 1.0.0 Gráficos 4.1.3
grDevices 4.1.3 grade 4.1.3 gridExtra 2.3
gsubfn 0.7 gtable 0.3.1 capacete de segurança 1.2.0
refúgio 2.5.1 mais alto 0,9 hms 1.1.2
ferramentas HTML 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 ids 1.0.1 ini 0.3.1
ipred 0.9-13 isoband 0.2.5 Iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
knitr 1.40 rotulagem 0.4.2 posterior 1.3.0
treliça 0.20-45 lava vulcânica 1.6.10 ciclo de vida 1.0.1
ouça 0.8.0 lubrificado 1.8.0 magrittr 2.0.3
markdown 1.1 MASS 7.3-56 Matriz 1.4-1
memorização 2.0.1 Métodos 4.1.3 mgcv 1.8-40
mime 0.12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelr 0.1.9 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
paralelo 4.1.3 parallelly 1.32.1 coluna 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
elogio 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.7.0 Prodlim 2019.11.13 profvis 0.3.7
progresso 1.2.2 progressr 0.11.0 Promessas 1.2.0.1
proto 1.0.0 proxy 0.4-27 P.S. 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 Readr 2.1.2 readxl 1.4.1
Receitas 1.0.1 jogo de revanche 1.0.1 revanche2 2.1.2
remotes 2.4.2 reprex 2.0.2 reshape2 1.4.4
rlang 1.0.5 rmarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0,14
rversions 2.1.2 rvest 1.0.3 Sass 0.4.2
escamas 1.2.1 Seletor 0.4-2 informações de sessão 1.2.2
forma 1.4.6 brilhante 1.7.2 sourcetools 0.1.7
sparklyr 1.7.8 SparkR 3.3.0 espacial 7.3-11
splines 4.1.3 sqldf 0.4-11 SQUAREM 2021.1
estatísticas 4.1.3 estatísticas4 4.1.3 stringi 1.7.8
stringr 1.4.1 sobrevivência 3.4-0 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
formatação de texto 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 data e hora 4021.104
tinytex 0,41 Ferramentas 4.1.3 tzdb 0.3.0
verificador de URL 1.0.1 usethis 2.1.6 utf8 1.2.2
utils 4.1.3 identificador único universal (UUID) 1.1-0 vctrs 0.4.1
viridisLite 0.4.1 vroom 1.5.7 Waldo 0.4.0
whisker 0.4 murchar 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML 2.3.5 zip 2.2.0

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)

ID do grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws SDK Java para o ECS da AWS 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.189
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core Anotações do Jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.datatype jackson-module-paranamer 2.13.4
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.13.4
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0,21
io.delta delta-sharing-spark_2.12 0.5.1
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics métricas-verificações de saúde 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json (métricas em JSON) 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty Netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty Netty Resolver 4.1.74.Final
io.netty Netty Tcnative Classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-comum 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1,2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow Arrow-Memory-Netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Texto Comum 1.9
org.apache.curator curator-client 2.13.0
org.apache.curator estrutura do curador 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.derby Dérbi 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.4
org.apache.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive API de armazenamento do Hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Agendador de Ajustes do Hive (hive-shims-scheduler) 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-calços 1.7.6
org.apache.parquet parquet-column 1.12.0-databricks-0007
org.apache.parquet parquet-comum 1.12.0-databricks-0007
org.apache.parquet codificação-parquet 1.12.0-databricks-0007
org.apache.parquet parquet-format-structures 1.12.0-databricks-0007
org.apache.parquet parquet-hadoop 1.12.0-databricks-0007
org.apache.parquet parquet-jackson 1.12.0-databricks-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus anotações de público-alvo 0.5.0
org.apache.zookeeper zelador de zoológico 3.6.2
org.apache.zookeeper guarda de zoológico-juta 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty servidor jetty 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Jetty Webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket API de WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket servidor WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc cliente Java do MariaDB 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Calços 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark não utilizado 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1