Compartilhar via


Databricks Runtime 13.3 LTS

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 13.3 LTS, da plataforma Apache Spark 3.4.1.

O Databricks lançou esta versão em agosto de 2023.

Observação

LTS significa que essa versão possui suporte de longo prazo. Consulte Ciclo de vida da versão de LTS do Databricks Runtime.

Dica

Para ver as notas sobre a versão das versões do Databricks Runtime que chegaram ao fim do suporte (EoS), confira Notas sobre as versões do Databricks Runtime em fim de suporte. As versões do Databricks Runtime EoS foram desativadas e podem não ser atualizadas.

Novos recursos e aprimoramentos

Suporte Scala para clusters compartilhados

Os clusters compartilhados habilitados para Catálogo do Unity agora dão suporte ao Scala, ao usar o Databricks Runtime 13.3 e superior.

A lista de autorização para scripts de inicialização, JARs e coordenadas Maven em clusters padrão do Unity Catalog (clusters anteriormente compartilhados) está em Visualização Pública.

Agora você pode usar o Catálogo do Unity allowlist para controlar a instalação de scripts de inicialização, JARs e coordenadas Maven em ambientes de computação com o modo de acesso padrão executando o Databricks Runtime 13.3 e superior. Veja Bibliotecas da lista de permitidos e scripts de inicialização na computação com modo de acesso padrão (antigo modo de acesso compartilhado).

O suporte a volumes para scripts de inicialização e JARs está em Visualização Pública

Agora você pode usar volumes do Catálogo do Unity para armazenar scripts de inicialização e JARs na computação com modos de acesso dedicados ou padrão executando o Databricks Runtime 13.3 e superior. Consulte Onde os scripts de inicialização podem ser instalados? e Bibliotecas com escopo de computação.

Conversões seguras habilitadas por padrão nas operações do Delta Lake

As operações UPDATE e MERGE Delta já resultam em um erro quando os valores não podem ser convertidos com segurança no tipo do esquema da tabela de destino. Todas as conversões implícitas no Delta já seguem spark.sql.storeAssignmentPolicy em vez de spark.sql.ansi.enabled. Confira Conformidade com o ANSI no Databricks Runtime.

Apresentando marcas com o Catálogo do Unity

Com o Databricks Runtime 13.3 LTS e posterior, você pode aplicar marcas aos objetos protegíveis. As marcas ajudam você a organizar objetos protegíveis e simplificar a pesquisa e a descoberta de seus ativos de dados. Consulte Aplicar marcas a objetos protegíveis do Catálogo do Unity.

O Databricks Runtime retorna um erro se um arquivo é modificado entre o planejamento e a invocação da consulta

As consultas do Databricks Runtime já retornam um erro se um arquivo é atualizado entre o planejamento e a invocação da consulta. Antes dessa alteração, o Databricks Runtime lia um arquivo entre essas fases, o que ocasionalmente gerava resultados imprevisíveis.

Bloqueio da substituição de esquema ao usar substituições de partição dinâmica

Não é possível definir overwriteSchema como true em combinação com substituições de partição dinâmica no Delta Lake. Isso evita a possível corrupção de tabela devido à incompatibilidade de esquema. Confira Substituições de partição dinâmica.

Integração da API copyFile a dbutils.fs.cp

O comando dbutils copy, dbutils.fs.cp, foi otimizado para uma cópia mais rápida. Com esse aprimoramento, as operações de cópia podem ser até 100x mais rápidas, dependendo do tamanho do arquivo. O recurso está disponível em todos os sistemas de arquivos acessíveis no Azure Databricks, incluindo para os volumes de catálogo do Unity e montagens do Sistema de Arquivos do Databricks.

Suporte ao driver ODBC/JDBC do Databricks

O Azure Databricks dá suporte a drivers ODBC e JDBC lançados nos últimos dois anos. Baixe o último driver em Baixar driver ODBC e Baixar driver JDBC.

Suporte para marcadores de parâmetros não nomeados (posicionais)

A API SparkSession.sql() já dá suporte a consultas parametrizadas por meio da sintaxe ?, além de consultas parametrizadas com a sintaxe :parm. Confira Marcadores de parâmetros.

Habilitação da rotulagem de coluna de série temporal

Agora você pode rotular colunas de série temporal ao criar restrições de chave primária.

Novas funções SQL de bitmap

O Azure Databricks agora forneceu um conjunto de funções que podem ser usadas para mapear valores numéricos integrais em um bitmap e agregá-los. Isso pode ser usado para pré-calcular o número de valores distintos.

Funções de criptografia aprimoradas

As funções aes_encrypt, aes_decrypt e try_aes_decrypt foram aprimoradas com suporte para IV (vetores de inicialização) e AAD (dados adicionais autenticados).

Suporte para Unity Catalog em REFRESH FOREIGN

Agora você pode atualizar catálogos, esquemas e tabelas estrangeiros no Catálogo do Unity usando REFRESH FOREIGN CATALOG, REFRESH FOREIGN SCHEMA e REFRESH FOREIGN TABLE. Veja REFRESH FOREIGN (CATALOG, SCHEMAe TABLE).

INSERT POR NOME

Ao inserir linhas em uma tabela, agora você pode permitir que o Azure Databricks mapeie colunas e campos na consulta de origem automaticamente para as colunas da tabela pelo nome. Consulte INTOINSERT.

Compartilhamento de exibições materializadas com o Compartilhamento Delta

A ALTER SHARE instrução agora dá suporte a visões materializadas.

Alterações de quebra

Alterações na conversão implícita ao armazenar linhas em uma tabela com MERGE INTO e UPDATE

O Azure Databricks agora segue a configuração spark.sql.storeAssignmentPolicy para conversão implícita ao armazenar linhas em uma tabela. O valor padrão ANSI gera um erro ao armazenar valores que causa estouro. Anteriormente, os valores seriam armazenados como NULL por padrão.

Como no exemplo a seguir, você pode resolver estouros reescrevendo a tabela para usar um tipo mais amplo para a coluna que está causando o erro.

-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
    'delta.minReaderVersion' = '2',
    'delta.minWriterVersion' = '5',
    'delta.columnMapping.mode' = 'name'
  )

-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT

-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old

-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old

Alterações na inferência de esquema do Parquet

Ao inferir esquemas de arquivos Parquet não escritos pelo Spark, colunas de carimbo de data/hora int64 anotadas com isAdjustedToUTC=false agora serão padrão para o tipo TIMESTAMP_NTZ. Anteriormente, elas eram inferidas como tipo TIMESTAMP. Esta atualização melhora a precisão na correspondência dos tipos Parquet com os tipos SQL do Spark.

Como resultado, a leitura de dados de arquivos Parquet externos para uma tabela Delta pode resultar em erro se o recurso timestampNtz não estiver habilitado. O erro será exibido da seguinte maneira:

Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.

Para manter o comportamento anterior e evitar esse erro, você pode definir o parâmetro de configuração spark.sql.parquet.inferTimestampNTZ.enabled do Spark como false.

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • debugpy de 1.5.1 a 1.6.0
    • distlib de 0.3.6 para 0.3.7
    • fastjsonschema de 2.16.3 para 2.18.0
    • filelock de 3.12.0 para 3.12.2
  • Bibliotecas do R atualizadas:
    • SparkR de 3.4.0 a 3.4.1
  • Bibliotecas do Java atualizadas:
    • org.apache.orc.orc-core de 1.8.3-shaded-protobuf a 1.8.4-shaded-protobuf
    • org.apache.orc.orc-mapreduce de 1.8.3-shaded-protobuf a 1.8.4-shaded-protobuf
    • org.apache.orc.orc-shims de 1.8.3 a 1.8.4
    • org.eclipse.jetty.jetty-client de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-continuation de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-http de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-io de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-jndi de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-plus de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-proxy de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-security de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-server de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-servlet de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-servlets de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-util de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-util-ajax de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-webapp de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.jetty-xml de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-api de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-client de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-common de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-server de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.eclipse.jetty.websocket.websocket-servlet de 9.4.50.v20221201 para 9.4.51.v20230217
    • org.xerial.snappy.snappy-java de 1.1.8.4 para 1.1.10.1

Apache Spark

O Databricks Runtime 13.3 inclui o Apache Spark 3.4.1. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 13.2 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • Agora você pode definir a variável de ambiente de cluster SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12 para usar o conector Spark-snowflake v2.12.0.
  • [SPARK-43380] [DBRRM-383] Reverter "[SC-133100][sql] Corrigir conversão do tipo de dados Avro...
  • [SPARK-44504] [Backport][13.2][13.x][13.3] Descarregar provedor forçando assim o fechamento da instância do BD e liberando recursos no erro da tarefa de manutenção
  • [SPARK-44059] [SC-137023] Adicionar suporte ao analisador de argumentos nomeados para funções internas
  • [SPARK-44485] [SC-137653][sql] Otimizar TreeNode.generateTreeString
  • [SPARK-42944] [SC-137164][ss][PYTHON] Streaming ForeachBatch em Python
  • [SPARK-44446] [SC-136994][python] Adicionar verificações para casos especiais de tipo de lista esperados
  • [SPARK-44439] [SC-136973][connect][SS]Corrigido listListeners para enviar apenas IDs de volta para o cliente
  • [SPARK-44216] [SC-136941] [PYTHON] Tornar pública a API assertSchemaEqual
  • [SPARK-44201] [SC-136778][connect][SS]Adicionar suporte para o Ouvinte de Streaming no Scala para Spark Connect
  • [SPARK-43915] [SC-134766][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2438-2445]
  • [SPARK-43798] Reverter “[SC-133990][sql][PYTHON] Suporte para funções de tabela definidas pelo usuário em Python”
  • [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
  • [SPARK-44476] [SC-137169][core][CONNECT] Corrigir população de artefatos para um JobArtifactState sem artefatos associados
  • [SPARK-44269] [SC-135817][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2310-2314]
  • [SPARK-44395] [SC-136744][sql] Atualizar argumentos TVF para exigir parênteses em torno do identificador após TABLE a palavra-chave
  • [SPARK-43915] [SC-134766][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2438-2445]
  • [SPARK-43995] [SC-136794][spark-43996][CONNECT] Adicionar suporte para UDFRegistration ao cliente Connect Scala
  • [SPARK-44109] [SC-134755][core] Remover locais preferenciais duplicados de cada partição RDD
  • [SPARK-44169] [SC-135497][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2300-2304]
  • [SPARK-41487] [SC-135636][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1020
  • [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
  • [SPARK-44153] [SC-134977][core][interface do usuário] Coluna de suporte Heap Histogram na Executors guia
  • [SPARK-44044] [SC-135695][ss] Melhorar mensagem de erro para funções de janela com streaming
  • [SPARK-43914] [SC-135414][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2433-2437]
  • [SPARK-44217] [SC-136805][python] Permitir precisão personalizada para igualdade de aproximação de fp
  • [SPARK-44370] [SC-136575][conectar] Migrar a geração remota do Buf alfa para plug-ins remotos
  • [SPARK-44410] [SC-136930][python][CONNECT] Definir sessão ativa na criação, não apenas getOrCreate
  • [SPARK-44348] [SAS-1910][sc-136644][13.X][core][CONNECT][python] Reenable test_artifact com alterações relevantes
  • [SPARK-44145] [SC-136698][sql] Retorno de chamada quando estiver pronto para execução
  • [SPARK-44264] [SC-136870][python][ML] Classe FunctionPickler
  • [SPARK-43986] [SC-135623][sql] Criar classes de erro para falhas de chamada de função HyperLogLog
  • [SPARK-44139] [SC-134967][sql] Descartar totalmente os filtros aplicados em operações MERGE baseadas em grupo
  • [SPARK-44338] [SC-136718][sql] Corrigir mensagem de erro de incompatibilidade de esquema de exibição
  • [SPARK-44208] [SC-135505][core][SQL] Atribuir nomes de classe de erro claros para alguma lógica que usa diretamente exceções
  • [SPARK-44364] [SC-136773] [PYTHON] Adicionar suporte ao tipo de dados List[Row] para o esperado
  • [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils deve aplicar o ResolveTimeZone
  • [SPARK-43389] [SC-136772][sql] Adicionada uma verificação nula para a opção lineSep
  • [SPARK-44388] [SC-136695][connect] Corrigir problema de conversão de protobuf quando a instância de UDF é atualizada
  • [SPARK-44352] [SC-136373][connect] Colocar de volta sameType e amigos no DataType.
  • [SPARK-43975] [SC-134265][sql] DataSource V2: manipular UPDATE comandos para fontes baseadas em grupo
  • [SPARK-44360] [SC-136461][sql] Suporte à poda de esquema em operações MERGE baseadas em delta
  • [SPARK-44138] [SC-134907][sql] Proibir expressões, subconsultas e agregações não determinísticas em condições MERGE
  • [SPARK-43321] [SC-136678][connect][Followup] Melhores nomes para APIs usadas no joinWith do Cliente Scala
  • [SPARK-44263] [SC-136447][conectar] Suporte a interceptadores personalizados
  • [SPARK-39851] [SC-123383][sql] Melhorar a estimativa de estatísticas de junção se um lado puder manter a exclusividade
  • [SPARK-44390] [SC-136677][core][SQL] Renomear SparkSerDerseUtils para SparkSerDeUtils
  • [SPARK-44004] [SC-134751][sql] Atribuir nome e melhorar a mensagem de erro para erros LEGACY frequentes.
  • [SPARK-44322] [SC-136204][connect] Fazer o analisador usar SqlApiConf em vez de SQLConf.
  • [SPARK-44271] [SC-136347][sql] Mover funções de valores padrão de StructType para ResolveDefaultColumns
  • [SPARK-44332] [SC-136413][core][WEBUI] Corrigir o erro de classificação da coluna ID do Executor na interface do usuário de executores
  • [SPARK-44282] [SC-135948][connect] Preparar a análise de DataType para uso no cliente do Spark Connect Scala
  • [SPARK-44349] [SC-136581][r] Adicionar funções matemáticas ao SparkR
  • [SPARK-44397] [SC-136647][python] Expor assertDataFrameEqual em pyspark.testing.utils
  • [SPARK-42981] [SC-136620][conectar] Adicionar serialização de seta direta
  • [SPARK-44373] [SC-136577][sql] Aplicar withActive para a API do Dataset com lógica de análise para fazer a configuração relacionada ao parser funcionar.
  • [SPARK-44340] [SC-136574][sql] Definir a lógica de computação por meio da API PartitionEvaluator e usá-la em WindowGroupLimitExec
  • [SPARK-43665] [SC-136573][connect][PS] Habilitar PandasSQLStringFormatter.vformat para trabalhar com o Spark Connect
  • [SPARK-44325] [SC-136572][sql] Usar a API do PartitionEvaluator no SortMergeJoinExec
  • [SPARK-44315] [SC-136171][sql][CONNECT] Mover DefinedByConstructorParams para sql/api
  • [SPARK-44275] [SC-136184][connect] Adicionar mecanismo de repetição configurável ao Scala Spark Connect
  • [SPARK-44326] [SC-136208][sql][CONNECT] Mover utils que são usados do cliente Scala para os módulos comuns
  • [SPARK-43321] [SC-136156][connect] Dataset#Joinwith
  • [SPARK-44343] [SC-136372][conectar] Preparar ScalaReflection para a mudança para SQL/API
  • [SPARK-44313] [SC-136081][sql] Corrigir validação de expressão de coluna gerada quando houver uma coluna char/varchar no esquema
  • [SPARK-43963] [SC-134145][sql] DataSource V2: Manipular comandos MERGE para fontes baseadas em grupo
  • [SPARK-44363] [SC-136433] [PYTHON] Exibe porcentagem de linhas desiguais na comparação de DataFrame
  • [SPARK-44251] [SC-136432][sql] Definir anulável corretamente na chave de junção mesclada na junção completa externa USING
  • [SPARK-43948] [SC-133366][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[0050|0057|0058|0059]
  • [SPARK-44329] [SC-136326][connect][PYTHON] Adicionar hll_sketch_agg, hll_union_agg, to_varchar, try_aes_decrypt para Scala e Python
  • [SPARK-44351] [SC-136353][sql] Fazer alguma simplificação sintactica
  • [SPARK-44281] [SC-135963][sql] Mover o erro de QueryCompilation usado por DataType para sql/api como DataTypeErrors.
  • [SPARK-44283] [SC-136109][connect] Transferir Origem para SQL/API
  • [SPARK-43926] [SC-135590][connect][PYTHON] Adicionar array_agg, array_size, cardinality, count_min_sketch, mask, named_struct, json* ao Scala e Python
  • [SPARK-44327] [SC-136187][sql][CONNECT] Adicionar funções any e len ao Scala
  • [SPARK-44290] [SC-136300][Spark Connect] Arquivos e coleções de arquivos baseados em sessão no Spark Connect
  • [SPARK-44061] [SC-136299][python] Adicionar função util assertDataFrameEqual
  • [SPARK-44331] [SC-136324][connect][PYTHON] Adicionar funções de bitmap a Scala e Python
  • [SPARK-44342] [SC-136334][sql] Substituir SQLContext por SparkSession para GenTPCDSData
  • [SPARK-42583] [SC-124190][sql] Remova a junção externa se todas elas forem funções de agregação distintas
  • [SPARK-44333] [SC-136206][connect][SQL] Mover EnhancedLogicalPlan para fora do ParserUtils
  • [SPARK-43824] [SC-132655][spark-43825] [SQL] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_128[1-2]
  • [SPARK-43939] [SC-134602][connect][PYTHON] Adicionar funções try_* a Scala e Python
  • [SPARK-44193] [SC-135886][connect] Implementar interceptação de exceções GRPC para conversão
  • [SPARK-44284] [SC-136107][connect] Criar sistema de configuração simples para SQL/API
  • [SPARK-43913] [SC-133368][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2426-2432]
  • [SPARK-44291] Reverter "[SC-135924][spark-43416][CONNECT] Corrigir esquema incorreto para consulta de intervalo"
  • [SPARK-44312] [SC-136185][connect][PYTHON] Permitir definir um agente de usuário com uma variável de ambiente
  • [SPARK-44154] [SC-136060] Implementar funções de bitmap
  • [SPARK-43885] [SC-133996][sql] DataSource V2: Manipular comandos MERGE para fontes baseadas em delta
  • [SPARK-43924] [SC-135161][connect][PYTHON] Adicionar funções diversas a Scala e Python
  • [SPARK-43969] [SC-134556][sql] Refatorar & atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_1170
  • [SPARK-44185] [SC-135730][sql] Corrige discrepâncias na especificação de caminho entre o catálogo e as operações de dados
  • [SPARK-44073] [SC-134562][sql][PYTHON][conectar] Adicionar funções de data e hora ao Scala, Python e Connect - parte 2
  • [SPARK-43942] [SC-134527][connect][PYTHON] Adicionar funções de cadeia de caracteres a Scala e Python - parte 1
  • [SPARK-44266] [SC-135813][sql] Mover Util.truncatedString para sql/api
  • [SPARK-44195] [SC-135722][r] Adicionar APIs JobTag ao SparkR SparkContext
  • [SPARK-44200] [SC-135736][sql] Regra do analisador de argumentos de suporte TABLE para TableValuedFunction
  • [SPARK-44254] [SC-135709][sql] Mover QueryExecutionErrors usados pelo DataType para sql/api como DataTypeErrors
  • [SPARK-44291] [SC-135924][spark-43416][CONNECT] Corrigir esquema incorreto para consulta de intervalo
  • [SPARK-43922] [SC-135612][sql] Adicionar suporte a parâmetro nomeado no analisador para chamadas de função
  • [SPARK-44300] [SC-135882][conexão] Corrigir a limpeza de artefatos para limitar o escopo de exclusão a artefatos específicos da sessão
  • [SPARK-44293] [SC-135849][connect] Corrigir URI inválido para JARs personalizados no Spark Connect
  • [SPARK-44215] [SC-135850][shuffle] Se o número de partes for 0, o servidor deverá lançar uma RuntimeException
  • [SPARK-44245] [SC-135851][python] pyspark.sql.dataframe sample() doctests devem ser apenas ilustrativos
  • [SPARK-44274] [SC-135814][connect] Transferir funções utilitárias usadas pelo ArtifactManager para common/utils
  • [SPARK-44194] [SC-135815][python][CORE] Adicionar APIs JobTag ao PySpark SparkContext
  • [SPARK-42828] [SC-135733][python][SQL] Anotações de tipo Python mais explícitas para GroupedData
  • [SPARK-44079] [SC-135486][sql] Corrigir ArrayIndexOutOfBoundsException ao analisar uma matriz como uma struct usando o modo PERMISSIVO com registro corrompido
  • [SPARK-44255] [SC-135809][sql] Realocar StorageLevel para common/utils
  • [SPARK-42169] [SC-135795] [SQL] Implementar a geração de código para to_csv função (StructsToCsv)
  • [SPARK-44249] [SC-135719][sql][PYTHON] Refatorar PythonUDTFRunner para enviar seu tipo de retorno separadamente
  • [SPARK-43353] [SC-132734][python] Migrar erros de sessão restantes para a classe de erro
  • [SPARK-44211] [SC-135718][python][CONNECT] Implementar SparkSession.is_stopped
  • [SPARK-42784] [SC-135691] ainda deve criar subDir quando o número de subDir em merge dir for menor que conf
  • [SPARK-41599] [SC-135616] Vazamento de memória em FileSystem.CACHE ao enviar aplicativos para um cluster seguro usando InProcessLauncher
  • [SPARK-44241] [SC-135613][core] Definir erroneamente io.connectionTimeout/connectionCreationTimeout como zero ou negativo causará contras/destruição incessantes do executor
  • [SPARK-44133] [SC-134795][13.x][PYTHON] Atualizar MyPy de 0,920 para 0,982
  • [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Serde de Evento no formato JSON
  • [SPARK-44188] [SC-135173][core] Remover método inútil resetAllPartitions em ActiveJob
  • [SPARK-43757] [SC-135418][connect] Alterar a compatibilidade do cliente de lista de permissões para lista de exclusão
  • [SPARK-43474] [SC-135521] [SS] [CONNECT] Adicione um acesso do Spark Connect aos Dataframes de runtime por ID.
  • [SPARK-44183] [SC-135209][python] Aumentar PyArrow a versão mínima para 4.0.0
  • [SPARK-44248] [SC-135554][ss][SQL][kafka] Adicionar localização preferencial na fonte kafka v2
  • [SPARK-43929] [SC-134510][sql][PYTHON][connect] Adicionar funções de data e hora à API Scala, Python e Connect – parte 1
  • [SPARK-44161] [SC-135326][conectar] Manipular entrada de linha para UDFs
  • [SPARK-44227] [SC-135520][sql] Extrair SchemaUtils de StructField
  • [SPARK-44064] [SC-135116][core][SQL] Adicionar uma nova apply função a NonFateSharingCache
  • [SPARK-44171] [SC-135269][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2279-2282] & excluir algumas classes de erro não utilizados
  • [SPARK-44056] [SC-134758][sql] Incluir nome UDF na mensagem de erro de falha de execução UDF quando disponível
  • [SPARK-44205] [SC-135422][sql] Extrair código catalisador de DecimalType
  • [SPARK-44220] [SC-135484][sql] Mover StringConcat para sql/api
  • [SPARK-44146] [SC-135230][connect] Isolar jars e arquivos de classe da Sessão Spark Connect
  • [SPARK-44206] [SC-135411][sql] DataSet.selectExpr scope Session.active
  • [SPARK-40850] [SC-135417][sql] Corrigir o caso de teste onde consultas interpretadas podem executar Codegen
  • [SPARK-44204] [SC-135253][sql][HIVE] Adicionar recordHiveCall ausente para getPartitionNames
  • [SPARK-44237] [SC-135485][core] Simplificar a lógica de pesquisa do construtor DirectByteBuffer
  • [SPARK-44189] [SC-135170][connect][PYTHON] Suporte a parâmetros posicionais através de
  • [SPARK-44140] [SC-134893][sql][PYTHON] Suporte a parâmetros posicionais no Python sql()
  • [SPARK-44164] [SC-135158][sql] Extrair método toAttribute de StructField para classe Util
  • [SPARK-44178] [SC-135113][connect] Suporte a parâmetros posicionais em sql()
  • [SPARK-43208] [SC-128955][sql][HIVE] IsolatedClassLoader deve fechar a classe de barreira InputStream após a leitura
  • [SPARK-43063] [SC-128382][sql] df.show identificador nulo deve imprimir NULL em vez de nulo
  • [SPARK-42539] [SC-124464][sql][HIVE] Eliminar o carregador de classes separado ao usar a versão do Hive 'builtin' para o cliente de metadados
  • [SPARK-43992] [SC-133645][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listFunctions
  • [SPARK-44066] [SC-134878][sql] Suporte a parâmetros posicionais em Scala/Java sql()
  • [SPARK-44078] [SC-134869][connect][CORE] Adicionar suporte para isolamento de carregador de classe/recurso
  • [SPARK-43470] [SC-135187][core] Adicionar informações de versão do SISTEMA OPERACIONAL, Java, Python ao log de aplicativos
  • [SPARK-43136] [SC-135238][connect][Seguimento] Adicionando testes para KeyAs
  • [SPARK-39740] [SC-135093][ui]: atualizar vis timeline para 7.7.2 para corrigir CVE-2020-28487
  • [SPARK-42298] [SC-133952][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2132
  • [SPARK-43961] [SC-133459][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listTables
  • [SPARK-44026] [SC-135181] Permitir fornecer valor inicial para SQLMetrics
  • [SPARK-44202] [SC-135244][core] Adicionar APIs JobTag ao JavaSparkContext
  • [SPARK-44030] [SC-135237][sql] Implementar DataTypeExpression para oferecer a funcionalidade Unapply para expressões
  • [SPARK-43876] Reverter "[SC-134603][sql] Habilitar hashmap rápido para consultas distintas"
  • [SPARK-40082] [SC-126437] Agendar mergeFinalize quando a mesclagem por push shuffleMapStage tentar novamente, mas nenhuma tarefa em execução
  • [SPARK-43888] [SC-132893][core] Realocar registro de logs para common/utils
  • [SPARK-43474] [SC-134400] [SS] [CONNECT] Adicionar SessionHolder ao SparkConnectPlanner
  • [SPARK-43944] [SC-134490][connect][PYTHON] Adicionar funções de cadeia de caracteres a Scala e Python - parte 2
  • [SPARK-44134] [SC-134954][core] Correção de recursos de configuração (GPU/FPGA) para 0 quando eles são definidos em spark-defaults.conf
  • [SPARK-44142] [SC-134947][python] Substitua o tipo por tpe no utilitário para converter tipos de python em tipos spark
  • [SPARK-43952] [SC-134695][core][CONNECT][sql] Adicionar APIs SparkContext para cancelamento de consulta por marca
  • [SPARK-44000] [SC-133634][sql] Adicionar dica para desabilitar a transmissão e replicar um lado da junção
  • [SPARK-43937] [SC-134362][connect][PYTHON] Adicionar ifnull,isnotnull,equal_null,nullif,nvl,nvl2 para Scala e Python
  • [SPARK-43624] [13.x][sc-134557][PS][connect] Adicionar EWM ao SparkConnectPlanner.
  • [SPARK-44040] [SC-134366][sql] Corrigir o cálculo de estatísticas quando o nó AggregateExec está acima de QueryStageExec
  • [SPARK-43485] [SC-131264][sql] Corrigir a mensagem de erro para o unit argumento das funções de adição/subtração de datetime
  • [SPARK-43794] [SC-132561][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1335
  • [SPARK-43511] [SC-134749][connect][SS]Implementado MapGroupsWithState e FlatMapGroupsWithState APIs para Spark Connect
  • [SPARK-43529] [SQL] Dar suporte a expressões de CREATE/REPLACE TABLE OPTIONS + limpeza de código
  • [SPARK-44106] [SC-134750][python][CONNECT] Adicionar __repr__ para GroupedData
  • [SPARK-42299] [SC-133190][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2206
  • [SPARK-43290] [SC-134388][sql] Adiciona suporte para IVs aes_encrypt e AAD
  • [SPARK-43932] [SC-134138][sql][PYTHON][conectar] Adicionar current funções semelhantes a Scala e Python
  • [SPARK-43934] [SC-134108][sql][PYTHON][connect] Adicionar funções regexp_* ao Scala e Python
  • [SPARK-44107] [SC-134746][connect][PYTHON] Ocultar métodos de coluna sem suporte do preenchimento automático
  • [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Serde de Evento no formato JSON
  • [SPARK-43773] [SC-132659][connect][PYTHON] Implementar a função 'levenshtein(str1, str2[, threshold])' no cliente Python
  • [SPARK-44125] [SC-134745][r] Suporte a Java 21 no SparkR
  • [SPARK-43919] [SC-133374][sql] Extrair funcionalidade JSON fora da linha
  • [SPARK-43769] [SC-132520][connect] Implementar função 'levenshtein(str1, str2[, limite])'
  • [SPARK-44012] [SC-134662][ss] KafkaDataConsumer para imprimir algum status de leitura
  • [SPARK-43876] [SC-134603][sql] Habilitar hashmap rápido para consultas distintas
  • [SPARK-44024] [SC-134497][sql] Alteração para usar map quando unzip usado apenas para extrair um único elemento
  • [SPARK-43928] [SC-134467][sql][PYTHON][connect] Adicionar operações de bits à API Scala, Python e Connect
  • [SPARK-44092] [SC-134506][core] Adicionar Utils.isJavaVersionAtLeast21 e fazer com que core o módulo passe com Java 21
  • [SPARK-44018] [SC-134512][sql] Aprimorar o hashCode e toString para alguma expressão DS V2
  • [SPARK-44105] [SC-134582][sql] LastNonNull deve ser resolvido lentamente
  • [SPARK-44081] [SC-134434] Simplificar um pouco a API PartitionedFileUtil
  • [SPARK-43791] [SC-132531][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1336
  • [SPARK-44071] [SC-134435] Definir e usar características Unresolved[Leaf|Unary]Node.
  • [SPARK-43852] [SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_2418-2425
  • [SPARK-43742] [SC-132684][sql] Refatorar resolução de valor de coluna padrão
  • [SPARK-43493] [SC-132063][sql] Adicionar um argumento de distância máxima à função levenshtein()
  • [SPARK-44075] [SC-134382][connect] Tornar transformStatCorr preguiçoso
  • [SPARK-43925] [SC-134381][sql][PYTHON][connect] Adicione alguns, bool_or,bool_and, todos ao Scala, Python e Connect
  • [SPARK-43931] [SC-134158][sql][PYTHON][connect] Adicionar funções make_* ao Scala e Python
  • [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_24[06-10]
  • [SPARK-43962] [SC-133367][sql] Aprimorar mensagens de erro: CANNOT_DECODE_URL, , CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE, CANNOT_PARSE_DECIMAL, CANNOT_READ_FILE_FOOTER, CANNOT_RECOGNIZE_HIVE_TYPE.
  • [SPARK-43938] [SC-133887][connect][PYTHON] Adicionar funções to_* a Scala e Python
  • [SPARK-44055] [SC-134321][core] Remover funções redundantes override de CheckpointRDD
  • [SPARK-43802] [SC-132597][sql] Corrigir o codegen para unhex e unbase64 com failOnError=true
  • [SPARK-43798] [SC-133990][sql][PYTHON] Suporte a funções de tabela definidas pelo usuário do Python
  • [SPARK-43941] [SC-134286][sql][PYTHON][connect] Adicionar any_value, approx_percentile, count_if, first_value, histogram_numeric, last_value, reduzir à API Scala, Python e Connect
  • [SPARK-43380] [SC-133100][sql] Corrigir problemas de conversão de tipo de dados do Avro para evitar a produção de resultados incorretos
  • [SPARK-43803] [SC-133729] [SS] [CONNECT] Aprimorar awaitTermination() para lidar com desconexões de cliente
  • [SPARK-43179] [SC-129070][shuffle] Permitindo que os aplicativos controlem se seus metadados serão salvos no banco de dados pelo Serviço de Embaralhamento Externo

Suporte ao driver ODBC/JDBC do Databricks

O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos dois anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).

Confira Atualizações de manutenção do Databricks Runtime 13.3.

Ambiente do sistema

  • Sistema operacional: Ubuntu 22.04.2 LTS
    • Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 atributos 21.4.0 chamada de retorno 0.2.0
beautifulsoup4 4.11.1 preto 22.6.0 alvejante 4.1.0
antolho 1.4 boto3 1.24.28 botocore 1.27.28
certificação 2022.9.14 cffi 1.15.1 chardet 4.0.0
normalizador de conjunto de caracteres 2.0.4 clique 8.0.4 criptografia 37.0.1
ciclista 0.11.0 Cython 0.29.32 databricks-sdk 0.1.6
dbus-python 1.2.18 debugpy 1.6.0 decorador 5.1.1
defusedxml 0.7.1 distlib 0.3.7 de docstring para markdown 0,12
pontos de entrada 0,4 em execução 1.2.0 Visão geral de facetas 1.0.3
fastjsonschema 2.18.0 bloqueio de arquivo 3.12.2 fonttools 4.25.0
googleapis-common-protos 1.56.4 grpcio 1.48.1 grpcio-status 1.48.1
httplib2 0.20.2 IDNA 3.3 importlib-metadata 4.6.4
ipykernel 6.17.1 ipython 8.10.0 ipython-genutils 0.2.0
ipywidgets (biblioteca Python para widgets interativos) 7.7.2 Jedi 0.18.1 Jeepney 0.7.1
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.2.0
jsonschema 4.16.0 Cliente Jupyter 7.3.4 jupyter_core 4.11.2
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 keyring 23.5.0
kiwisolver 1.4.2 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 MarkupSafe 2.0.1 matplotlib 3.5.2
matplotlib-inline 0.1.6 Mccabe 0.7.0 Mistune 0.8.4
more-itertools 8.10.0 mypy-extensions 0.4.3 nbclient 0.5.13
nbconvert 6.4.4 nbformat 5.5.0 nest-asyncio 1.5.5
nodeenv 1.8.0 notebook 6.4.12 numpy 1.21.5
oauthlib 3.2.0 empacotando 21.3 Pandas 1.4.4
pandocfilters 1.5.0 parso 0.8.3 pathspec 0.9.0
Patsy 0.5.2 pexpect 4.8.0 pickleshare 0.7.5
Almofada 9.2.0 caroço 22.2.2 platformdirs 2.5.2
enredo 5.9.0 Pluggy 1.0.0 prometheus-client 0.14.1
kit de ferramentas de prompt 3.0.36 protobuf 3.19.4 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 8.0.0 pycparser 2.21 pydantic 1.10.6
pyflakes 3.0.1 Pygments 2.11.2 PyGObject 3.42.1
PyJWT 2.3.0 pyodbc 4.0.32 pyparsing 3.0.9
piright 1.1.294 pirsistent 0.18.0 python-dateutil 2.8.2
python-lsp-jsonrpc 1.0.0 python-lsp-server (servidor LSP para Python) 1.7.1 pytoolconfig 1.2.2
Pytz 2022.1 pyzmq 23.2.0 solicitações 2.28.1
corda 1.7.0 s3transfer 0.6.0 scikit-aprender 1.1.1
Scipy 1.9.1 seaborn (biblioteca de visualização em Python) 0.11.2 SecretStorage 3.3.1
Send2Trash 1.8.0 Ferramentas de configuração 63.4.1 seis 1.16.0
Soupsieve 2.3.1 ssh-import-id 5.11 dados empilhados 0.6.2
statsmodels (biblioteca para modelos estatísticos em Python) 0.13.2 tenacidade 8.1.0 terminado 0.13.1
caminho de teste 0.6.0 threadpoolctl 2.2.0 tokenize-rt 4.2.1
tomli 2.0.1 tornado 6.1 traitlets 5.1.1
typing_extensions 4.3.0 ujson 5.4.0 atualizações não supervisionadas 0,1
urllib3 1.26.11 virtualenv 20.16.3 wadllib 1.3.6
wcwidth 0.2.5 codificações web 0.5.1 whatthepatch 1.0.2
wheel 0.37.1 widgetsnbextension 3.6.1 yapf 0.31.0
zipp 1.0.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 2023-02-10: https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 10.0.1 AskPass 1,1 afirme isso 0.2.1
retroportações 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.3
ciar 1.3-28 Fabricação de cerveja 1.0-8 Brio 1.1.3
vassoura 1.0.3 bslib 0.4.2 cachem 1.0.6
chamador 3.7.3 sinal de interpolação 6.0-93 Cellranger 1.1.0
crono 2.3-59 classe 7.3-21 Interface de Linha de Comando (CLI) 3.6.0
clipr 0.8.0 relógio 0.6.1 cluster 2.1.4
codetools 0.2-19 espaço de cores 2.1-0 commonmark 1.8.1
compilador 4.2.2 configuração 0.3.1 cpp11 0.4.3
giz de cera 1.5.2 credenciais 1.3.2 encurvar 5.0.0
Tabela de Dados 1.14.6 conjuntos de dados 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Descrição 1.4.2 devtools 2.4.5
diffobj 0.3.5 hash 0.6.31 iluminação para baixo 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
reticências 0.3.2 avaliar 0,20 fansi 1.0.4
cores 2.1.1 mapa rápido 1.1.0 fontawesome 0.5.0
para gatos 1.0.0 para cada 1.5.2 estrangeiro 0.8-82
forja 0.2.0 Fs 1.6.1 futuro 1.31.0
future.apply 1.10.0 gargarejar 1.3.0 genéricos 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globais 0.16.2
cola 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 elemento gráfico 4.2.2 grDevices 4.2.2
grade 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 capacete de segurança 1.2.0 refúgio 2.5.1
mais alto 0,10 Hms 1.1.2 ferramentas HTML 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Identificadores 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 malhador 1.42
rotulagem 0.4.2 posterior 1.3.0 treliça 0.20-45
lava vulcânica 1.7.1 ciclo de vida 1.0.3 ouça 0.9.0
lubrificado 1.9.1 magrittr 2.0.3 redução de preço 1.5
MISSA 7.3-58.2 Matriz 1.5-1 memorizar 2.0.1
Métodos 4.2.2 mgcv 1.8-41 mímica 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelador 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 paralelo 4.2.2
paralelamente 1.34.0 coluna 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 elogio 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
Prodlim 2019.11.13 profvis 0.3.7 progresso 1.2.2
progressador 0.13.0 Promessas 1.2.0.1 proto 1.0.0
proxy 0.4-27 P.S. 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
Readr 2.1.3 readxl 1.4.2 Receitas 1.0.4
jogo de revanche 1.0.1 revanche2 2.1.2 Controles remotos 2.4.2
exemplo reprodutível (reprex) 2.0.2 remodelar2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 escamas 1.2.1
Seletor 0.4-2 informações de sessão 1.2.2 forma 1.4.6
brilhante 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.1 espacial 7.3-15 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 estatísticas 4.2.2
estatísticas4 4.2.2 stringi 1.7.12 stringr 1.5.0
sobrevivência 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 formatação de texto 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 mudança de horário 0.2.0 data e hora 4022.108
tinytex 0,44 Ferramentas 4.2.2 tzdb 0.3.0
verificador de URL 1.0.1 usethis 2.1.6 utf8 1.2.3
utilitários 4.2.2 identificador único universal (UUID) 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
vibrissa 0.4.1 murchar 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML 2.3.7 zíper 2.2.2

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws SDK Java para o ECS da AWS 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.390
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.2.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.datatype jackson-module-paranamer 2.14.2
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.14.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-nativos
com.github.fommil.netlib sistema_nativo-java 1,1
com.github.fommil.netlib sistema_nativo-java 1.1-nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-nativos
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-nativos
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Sininho 1.7.0
com.google.errorprone anotações_propensas_a_erros 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0,21
io.delta delta-sharing-spark_2.12 0.7.1
io.dropwizard.metrics metrics-core 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics métricas-verificações de saúde 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json (métricas em JSON) 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty Netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty Netty Resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-comum 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction API de transação 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine picles 1,3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.33
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant lançador de formigas 1.9.16
org.apache.arrow formato de seta 11.0.0
org.apache.arrow seta-memória-core 11.0.0
org.apache.arrow Arrow-Memory-Netty 11.0.0
org.apache.arrow vetor de seta 11.0.0
org.apache.avro Avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Texto Comum 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator estrutura do curador 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.4
org.apache.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de armazenamento do Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Agendador de Ajustes do Hive (hive-shims-scheduler) 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos Mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.4-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.4-shaded-protobuf
org.apache.orc orc-calços 1.8.4
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,22%
org.apache.yetus comentários da audiência 0.13.0
org.apache.zookeeper zelador de zoológico 3.6.3
org.apache.zookeeper guarda de zoológico-juta 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.51.v20230217
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.4.51.v20230217
org.eclipse.jetty jetty-http 9.4.51.v20230217
org.eclipse.jetty jetty-io 9.4.51.v20230217
org.eclipse.jetty jetty-jndi 9.4.51.v20230217
org.eclipse.jetty jetty-plus 9.4.51.v20230217
org.eclipse.jetty jetty-proxy 9.4.51.v20230217
org.eclipse.jetty segurança do jetty 9.4.51.v20230217
org.eclipse.jetty servidor jetty 9.4.51.v20230217
org.eclipse.jetty jetty-servlet 9.4.51.v20230217
org.eclipse.jetty jetty-servlets 9.4.51.v20230217
org.eclipse.jetty jetty-util 9.4.51.v20230217
org.eclipse.jetty jetty-util-ajax 9.4.51.v20230217
org.eclipse.jetty Jetty Webapp 9.4.51.v20230217
org.eclipse.jetty jetty-xml 9.4.51.v20230217
org.eclipse.jetty.websocket API de WebSocket 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-common 9.4.51.v20230217
org.eclipse.jetty.websocket servidor WebSocket 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-servlet 9.4.51.v20230217
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-comum 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc cliente Java do MariaDB 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenésia 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Calços 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.1
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1