Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 13.3 LTS, da plataforma Apache Spark 3.4.1.
O Databricks lançou esta versão em agosto de 2023.
Observação
LTS significa que essa versão possui suporte de longo prazo. Consulte Ciclo de vida da versão de LTS do Databricks Runtime.
Dica
Para ver as notas sobre a versão das versões do Databricks Runtime que chegaram ao fim do suporte (EoS), confira Notas sobre as versões do Databricks Runtime em fim de suporte. As versões do Databricks Runtime EoS foram desativadas e podem não ser atualizadas.
Novos recursos e aprimoramentos
- Suporte do Scala para clusters compartilhados
- A lista de permissões para scripts de inicialização, jars e coordenadas maven em clusters padrão do Catálogo do Unity (clusters anteriormente compartilhados) está em Visualização Pública
- O suporte a volumes para scripts de inicialização e JARs está em Visualização Pública
- Conversões seguras habilitadas por padrão nas operações do Delta Lake
- Apresentando marcas com o Catálogo do Unity
- O Databricks Runtime retorna um erro se um arquivo for modificado entre o planejamento e a invocação da consulta
- Bloqueio da substituição de esquema ao usar substituições de partição dinâmica
- Integrar a API copyFile em dbutils.fs.cp
- Suporte ao driver ODBC/JDBC do Databricks
- Suporte para marcadores de parâmetros não nomeados (posicionais)
- Habilitação da rotulagem de coluna de série temporal
- Novas funções SQL de bitmap
- Funções de criptografia aprimoradas
- Suporte do Catálogo Unity para REFRESH FOREIGN
- INSERT POR NOME
- Compartilhamento de exibições materializadas com o Compartilhamento Delta
Suporte Scala para clusters compartilhados
Os clusters compartilhados habilitados para Catálogo do Unity agora dão suporte ao Scala, ao usar o Databricks Runtime 13.3 e superior.
A lista de autorização para scripts de inicialização, JARs e coordenadas Maven em clusters padrão do Unity Catalog (clusters anteriormente compartilhados) está em Visualização Pública.
Agora você pode usar o Catálogo do Unity allowlist para controlar a instalação de scripts de inicialização, JARs e coordenadas Maven em ambientes de computação com o modo de acesso padrão executando o Databricks Runtime 13.3 e superior. Veja Bibliotecas da lista de permitidos e scripts de inicialização na computação com modo de acesso padrão (antigo modo de acesso compartilhado).
O suporte a volumes para scripts de inicialização e JARs está em Visualização Pública
Agora você pode usar volumes do Catálogo do Unity para armazenar scripts de inicialização e JARs na computação com modos de acesso dedicados ou padrão executando o Databricks Runtime 13.3 e superior. Consulte Onde os scripts de inicialização podem ser instalados? e Bibliotecas com escopo de computação.
Conversões seguras habilitadas por padrão nas operações do Delta Lake
As operações UPDATE e MERGE Delta já resultam em um erro quando os valores não podem ser convertidos com segurança no tipo do esquema da tabela de destino. Todas as conversões implícitas no Delta já seguem spark.sql.storeAssignmentPolicy em vez de spark.sql.ansi.enabled. Confira Conformidade com o ANSI no Databricks Runtime.
Apresentando marcas com o Catálogo do Unity
Com o Databricks Runtime 13.3 LTS e posterior, você pode aplicar marcas aos objetos protegíveis. As marcas ajudam você a organizar objetos protegíveis e simplificar a pesquisa e a descoberta de seus ativos de dados. Consulte Aplicar marcas a objetos protegíveis do Catálogo do Unity.
O Databricks Runtime retorna um erro se um arquivo é modificado entre o planejamento e a invocação da consulta
As consultas do Databricks Runtime já retornam um erro se um arquivo é atualizado entre o planejamento e a invocação da consulta. Antes dessa alteração, o Databricks Runtime lia um arquivo entre essas fases, o que ocasionalmente gerava resultados imprevisíveis.
Bloqueio da substituição de esquema ao usar substituições de partição dinâmica
Não é possível definir overwriteSchema como true em combinação com substituições de partição dinâmica no Delta Lake. Isso evita a possível corrupção de tabela devido à incompatibilidade de esquema. Confira Substituições de partição dinâmica.
Integração da API copyFile a dbutils.fs.cp
O comando dbutils copy, dbutils.fs.cp, foi otimizado para uma cópia mais rápida. Com esse aprimoramento, as operações de cópia podem ser até 100x mais rápidas, dependendo do tamanho do arquivo. O recurso está disponível em todos os sistemas de arquivos acessíveis no Azure Databricks, incluindo para os volumes de catálogo do Unity e montagens do Sistema de Arquivos do Databricks.
Suporte ao driver ODBC/JDBC do Databricks
O Azure Databricks dá suporte a drivers ODBC e JDBC lançados nos últimos dois anos. Baixe o último driver em Baixar driver ODBC e Baixar driver JDBC.
Suporte para marcadores de parâmetros não nomeados (posicionais)
A API SparkSession.sql() já dá suporte a consultas parametrizadas por meio da sintaxe ?, além de consultas parametrizadas com a sintaxe :parm. Confira Marcadores de parâmetros.
Habilitação da rotulagem de coluna de série temporal
Agora você pode rotular colunas de série temporal ao criar restrições de chave primária.
Novas funções SQL de bitmap
O Azure Databricks agora forneceu um conjunto de funções que podem ser usadas para mapear valores numéricos integrais em um bitmap e agregá-los. Isso pode ser usado para pré-calcular o número de valores distintos.
Funções de criptografia aprimoradas
As funções aes_encrypt, aes_decrypt e try_aes_decrypt foram aprimoradas com suporte para IV (vetores de inicialização) e AAD (dados adicionais autenticados).
Suporte para Unity Catalog em REFRESH FOREIGN
Agora você pode atualizar catálogos, esquemas e tabelas estrangeiros no Catálogo do Unity usando REFRESH FOREIGN CATALOG, REFRESH FOREIGN SCHEMA e REFRESH FOREIGN TABLE. Veja REFRESH FOREIGN (CATALOG, SCHEMAe TABLE).
INSERT POR NOME
Ao inserir linhas em uma tabela, agora você pode permitir que o Azure Databricks mapeie colunas e campos na consulta de origem automaticamente para as colunas da tabela pelo nome. Consulte INTOINSERT.
Compartilhamento de exibições materializadas com o Compartilhamento Delta
A ALTER SHARE instrução agora dá suporte a visões materializadas.
Alterações de quebra
Alterações na conversão implícita ao armazenar linhas em uma tabela com MERGE INTO e UPDATE
O Azure Databricks agora segue a configuração spark.sql.storeAssignmentPolicy para conversão implícita ao armazenar linhas em uma tabela. O valor padrão ANSI gera um erro ao armazenar valores que causa estouro. Anteriormente, os valores seriam armazenados como NULL por padrão.
Como no exemplo a seguir, você pode resolver estouros reescrevendo a tabela para usar um tipo mais amplo para a coluna que está causando o erro.
-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
'delta.minReaderVersion' = '2',
'delta.minWriterVersion' = '5',
'delta.columnMapping.mode' = 'name'
)
-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT
-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old
-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old
Alterações na inferência de esquema do Parquet
Ao inferir esquemas de arquivos Parquet não escritos pelo Spark, colunas de carimbo de data/hora int64 anotadas com isAdjustedToUTC=false agora serão padrão para o tipo TIMESTAMP_NTZ. Anteriormente, elas eram inferidas como tipo TIMESTAMP. Esta atualização melhora a precisão na correspondência dos tipos Parquet com os tipos SQL do Spark.
Como resultado, a leitura de dados de arquivos Parquet externos para uma tabela Delta pode resultar em erro se o recurso timestampNtz não estiver habilitado. O erro será exibido da seguinte maneira:
Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.
Para manter o comportamento anterior e evitar esse erro, você pode definir o parâmetro de configuração spark.sql.parquet.inferTimestampNTZ.enabled do Spark como false.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- debugpy de 1.5.1 a 1.6.0
- distlib de 0.3.6 para 0.3.7
- fastjsonschema de 2.16.3 para 2.18.0
- filelock de 3.12.0 para 3.12.2
- Bibliotecas do R atualizadas:
- SparkR de 3.4.0 a 3.4.1
- Bibliotecas do Java atualizadas:
- org.apache.orc.orc-core de 1.8.3-shaded-protobuf a 1.8.4-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.8.3-shaded-protobuf a 1.8.4-shaded-protobuf
- org.apache.orc.orc-shims de 1.8.3 a 1.8.4
- org.eclipse.jetty.jetty-client de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-continuation de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-http de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-io de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-jndi de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-plus de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-proxy de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-security de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-server de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlet de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlets de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-util de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-util-ajax de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-webapp de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.jetty-xml de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-api de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-client de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-common de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-server de 9.4.50.v20221201 para 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-servlet de 9.4.50.v20221201 para 9.4.51.v20230217
- org.xerial.snappy.snappy-java de 1.1.8.4 para 1.1.10.1
Apache Spark
O Databricks Runtime 13.3 inclui o Apache Spark 3.4.1. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 13.2 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- Agora você pode definir a variável de ambiente de cluster
SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12para usar o conector Spark-snowflake v2.12.0. - [SPARK-43380] [DBRRM-383] Reverter "[SC-133100][sql] Corrigir conversão do tipo de dados Avro...
- [SPARK-44504] [Backport][13.2][13.x][13.3] Descarregar provedor forçando assim o fechamento da instância do BD e liberando recursos no erro da tarefa de manutenção
- [SPARK-44059] [SC-137023] Adicionar suporte ao analisador de argumentos nomeados para funções internas
- [SPARK-44485] [SC-137653][sql] Otimizar TreeNode.generateTreeString
- [SPARK-42944] [SC-137164][ss][PYTHON] Streaming ForeachBatch em Python
- [SPARK-44446] [SC-136994][python] Adicionar verificações para casos especiais de tipo de lista esperados
- [SPARK-44439] [SC-136973][connect][SS]Corrigido listListeners para enviar apenas IDs de volta para o cliente
- [SPARK-44216] [SC-136941] [PYTHON] Tornar pública a API assertSchemaEqual
- [SPARK-44201] [SC-136778][connect][SS]Adicionar suporte para o Ouvinte de Streaming no Scala para Spark Connect
- [SPARK-43915] [SC-134766][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43798] Reverter “[SC-133990][sql][PYTHON] Suporte para funções de tabela definidas pelo usuário em Python”
- [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
- [SPARK-44476] [SC-137169][core][CONNECT] Corrigir população de artefatos para um JobArtifactState sem artefatos associados
- [SPARK-44269] [SC-135817][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2310-2314]
- [SPARK-44395] [SC-136744][sql] Atualizar argumentos TVF para exigir parênteses em torno do identificador após TABLE a palavra-chave
- [SPARK-43915] [SC-134766][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43995] [SC-136794][spark-43996][CONNECT] Adicionar suporte para UDFRegistration ao cliente Connect Scala
- [SPARK-44109] [SC-134755][core] Remover locais preferenciais duplicados de cada partição RDD
- [SPARK-44169] [SC-135497][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-41487] [SC-135636][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1020
- [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
-
[SPARK-44153] [SC-134977][core][interface do usuário] Coluna de suporte
Heap HistogramnaExecutorsguia - [SPARK-44044] [SC-135695][ss] Melhorar mensagem de erro para funções de janela com streaming
- [SPARK-43914] [SC-135414][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2433-2437]
- [SPARK-44217] [SC-136805][python] Permitir precisão personalizada para igualdade de aproximação de fp
- [SPARK-44370] [SC-136575][conectar] Migrar a geração remota do Buf alfa para plug-ins remotos
- [SPARK-44410] [SC-136930][python][CONNECT] Definir sessão ativa na criação, não apenas getOrCreate
- [SPARK-44348] [SAS-1910][sc-136644][13.X][core][CONNECT][python] Reenable test_artifact com alterações relevantes
- [SPARK-44145] [SC-136698][sql] Retorno de chamada quando estiver pronto para execução
- [SPARK-44264] [SC-136870][python][ML] Classe FunctionPickler
- [SPARK-43986] [SC-135623][sql] Criar classes de erro para falhas de chamada de função HyperLogLog
- [SPARK-44139] [SC-134967][sql] Descartar totalmente os filtros aplicados em operações MERGE baseadas em grupo
- [SPARK-44338] [SC-136718][sql] Corrigir mensagem de erro de incompatibilidade de esquema de exibição
- [SPARK-44208] [SC-135505][core][SQL] Atribuir nomes de classe de erro claros para alguma lógica que usa diretamente exceções
- [SPARK-44364] [SC-136773] [PYTHON] Adicionar suporte ao tipo de dados List[Row] para o esperado
- [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils deve aplicar o ResolveTimeZone
- [SPARK-43389] [SC-136772][sql] Adicionada uma verificação nula para a opção lineSep
- [SPARK-44388] [SC-136695][connect] Corrigir problema de conversão de protobuf quando a instância de UDF é atualizada
- [SPARK-44352] [SC-136373][connect] Colocar de volta sameType e amigos no DataType.
- [SPARK-43975] [SC-134265][sql] DataSource V2: manipular UPDATE comandos para fontes baseadas em grupo
- [SPARK-44360] [SC-136461][sql] Suporte à poda de esquema em operações MERGE baseadas em delta
- [SPARK-44138] [SC-134907][sql] Proibir expressões, subconsultas e agregações não determinísticas em condições MERGE
- [SPARK-43321] [SC-136678][connect][Followup] Melhores nomes para APIs usadas no joinWith do Cliente Scala
- [SPARK-44263] [SC-136447][conectar] Suporte a interceptadores personalizados
- [SPARK-39851] [SC-123383][sql] Melhorar a estimativa de estatísticas de junção se um lado puder manter a exclusividade
-
[SPARK-44390] [SC-136677][core][SQL] Renomear
SparkSerDerseUtilsparaSparkSerDeUtils - [SPARK-44004] [SC-134751][sql] Atribuir nome e melhorar a mensagem de erro para erros LEGACY frequentes.
- [SPARK-44322] [SC-136204][connect] Fazer o analisador usar SqlApiConf em vez de SQLConf.
- [SPARK-44271] [SC-136347][sql] Mover funções de valores padrão de StructType para ResolveDefaultColumns
- [SPARK-44332] [SC-136413][core][WEBUI] Corrigir o erro de classificação da coluna ID do Executor na interface do usuário de executores
- [SPARK-44282] [SC-135948][connect] Preparar a análise de DataType para uso no cliente do Spark Connect Scala
- [SPARK-44349] [SC-136581][r] Adicionar funções matemáticas ao SparkR
- [SPARK-44397] [SC-136647][python] Expor assertDataFrameEqual em pyspark.testing.utils
- [SPARK-42981] [SC-136620][conectar] Adicionar serialização de seta direta
- [SPARK-44373] [SC-136577][sql] Aplicar withActive para a API do Dataset com lógica de análise para fazer a configuração relacionada ao parser funcionar.
- [SPARK-44340] [SC-136574][sql] Definir a lógica de computação por meio da API PartitionEvaluator e usá-la em WindowGroupLimitExec
- [SPARK-43665] [SC-136573][connect][PS] Habilitar PandasSQLStringFormatter.vformat para trabalhar com o Spark Connect
- [SPARK-44325] [SC-136572][sql] Usar a API do PartitionEvaluator no SortMergeJoinExec
- [SPARK-44315] [SC-136171][sql][CONNECT] Mover DefinedByConstructorParams para sql/api
- [SPARK-44275] [SC-136184][connect] Adicionar mecanismo de repetição configurável ao Scala Spark Connect
- [SPARK-44326] [SC-136208][sql][CONNECT] Mover utils que são usados do cliente Scala para os módulos comuns
- [SPARK-43321] [SC-136156][connect] Dataset#Joinwith
- [SPARK-44343] [SC-136372][conectar] Preparar ScalaReflection para a mudança para SQL/API
- [SPARK-44313] [SC-136081][sql] Corrigir validação de expressão de coluna gerada quando houver uma coluna char/varchar no esquema
- [SPARK-43963] [SC-134145][sql] DataSource V2: Manipular comandos MERGE para fontes baseadas em grupo
- [SPARK-44363] [SC-136433] [PYTHON] Exibe porcentagem de linhas desiguais na comparação de DataFrame
- [SPARK-44251] [SC-136432][sql] Definir anulável corretamente na chave de junção mesclada na junção completa externa USING
- [SPARK-43948] [SC-133366][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[0050|0057|0058|0059]
- [SPARK-44329] [SC-136326][connect][PYTHON] Adicionar hll_sketch_agg, hll_union_agg, to_varchar, try_aes_decrypt para Scala e Python
- [SPARK-44351] [SC-136353][sql] Fazer alguma simplificação sintactica
- [SPARK-44281] [SC-135963][sql] Mover o erro de QueryCompilation usado por DataType para sql/api como DataTypeErrors.
- [SPARK-44283] [SC-136109][connect] Transferir Origem para SQL/API
- [SPARK-43926] [SC-135590][connect][PYTHON] Adicionar array_agg, array_size, cardinality, count_min_sketch, mask, named_struct, json* ao Scala e Python
-
[SPARK-44327] [SC-136187][sql][CONNECT] Adicionar funções
anyelenao Scala - [SPARK-44290] [SC-136300][Spark Connect] Arquivos e coleções de arquivos baseados em sessão no Spark Connect
- [SPARK-44061] [SC-136299][python] Adicionar função util assertDataFrameEqual
- [SPARK-44331] [SC-136324][connect][PYTHON] Adicionar funções de bitmap a Scala e Python
- [SPARK-44342] [SC-136334][sql] Substituir SQLContext por SparkSession para GenTPCDSData
- [SPARK-42583] [SC-124190][sql] Remova a junção externa se todas elas forem funções de agregação distintas
- [SPARK-44333] [SC-136206][connect][SQL] Mover EnhancedLogicalPlan para fora do ParserUtils
- [SPARK-43824] [SC-132655][spark-43825] [SQL] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_128[1-2]
- [SPARK-43939] [SC-134602][connect][PYTHON] Adicionar funções try_* a Scala e Python
- [SPARK-44193] [SC-135886][connect] Implementar interceptação de exceções GRPC para conversão
- [SPARK-44284] [SC-136107][connect] Criar sistema de configuração simples para SQL/API
- [SPARK-43913] [SC-133368][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2426-2432]
- [SPARK-44291] Reverter "[SC-135924][spark-43416][CONNECT] Corrigir esquema incorreto para consulta de intervalo"
- [SPARK-44312] [SC-136185][connect][PYTHON] Permitir definir um agente de usuário com uma variável de ambiente
- [SPARK-44154] [SC-136060] Implementar funções de bitmap
- [SPARK-43885] [SC-133996][sql] DataSource V2: Manipular comandos MERGE para fontes baseadas em delta
- [SPARK-43924] [SC-135161][connect][PYTHON] Adicionar funções diversas a Scala e Python
[SPARK-43969] [SC-134556][sql] Refatorar & atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_1170- [SPARK-44185] [SC-135730][sql] Corrige discrepâncias na especificação de caminho entre o catálogo e as operações de dados
- [SPARK-44073] [SC-134562][sql][PYTHON][conectar] Adicionar funções de data e hora ao Scala, Python e Connect - parte 2
- [SPARK-43942] [SC-134527][connect][PYTHON] Adicionar funções de cadeia de caracteres a Scala e Python - parte 1
- [SPARK-44266] [SC-135813][sql] Mover Util.truncatedString para sql/api
- [SPARK-44195] [SC-135722][r] Adicionar APIs JobTag ao SparkR SparkContext
- [SPARK-44200] [SC-135736][sql] Regra do analisador de argumentos de suporte TABLE para TableValuedFunction
- [SPARK-44254] [SC-135709][sql] Mover QueryExecutionErrors usados pelo DataType para sql/api como DataTypeErrors
- [SPARK-44291] [SC-135924][spark-43416][CONNECT] Corrigir esquema incorreto para consulta de intervalo
- [SPARK-43922] [SC-135612][sql] Adicionar suporte a parâmetro nomeado no analisador para chamadas de função
- [SPARK-44300] [SC-135882][conexão] Corrigir a limpeza de artefatos para limitar o escopo de exclusão a artefatos específicos da sessão
- [SPARK-44293] [SC-135849][connect] Corrigir URI inválido para JARs personalizados no Spark Connect
- [SPARK-44215] [SC-135850][shuffle] Se o número de partes for 0, o servidor deverá lançar uma RuntimeException
- [SPARK-44245] [SC-135851][python] pyspark.sql.dataframe sample() doctests devem ser apenas ilustrativos
- [SPARK-44274] [SC-135814][connect] Transferir funções utilitárias usadas pelo ArtifactManager para common/utils
- [SPARK-44194] [SC-135815][python][CORE] Adicionar APIs JobTag ao PySpark SparkContext
- [SPARK-42828] [SC-135733][python][SQL] Anotações de tipo Python mais explícitas para GroupedData
-
[SPARK-44079] [SC-135486][sql] Corrigir
ArrayIndexOutOfBoundsExceptionao analisar uma matriz como uma struct usando o modo PERMISSIVO com registro corrompido - [SPARK-44255] [SC-135809][sql] Realocar StorageLevel para common/utils
- [SPARK-42169] [SC-135795] [SQL] Implementar a geração de código para to_csv função (StructsToCsv)
- [SPARK-44249] [SC-135719][sql][PYTHON] Refatorar PythonUDTFRunner para enviar seu tipo de retorno separadamente
- [SPARK-43353] [SC-132734][python] Migrar erros de sessão restantes para a classe de erro
- [SPARK-44211] [SC-135718][python][CONNECT] Implementar SparkSession.is_stopped
- [SPARK-42784] [SC-135691] ainda deve criar subDir quando o número de subDir em merge dir for menor que conf
- [SPARK-41599] [SC-135616] Vazamento de memória em FileSystem.CACHE ao enviar aplicativos para um cluster seguro usando InProcessLauncher
- [SPARK-44241] [SC-135613][core] Definir erroneamente io.connectionTimeout/connectionCreationTimeout como zero ou negativo causará contras/destruição incessantes do executor
- [SPARK-44133] [SC-134795][13.x][PYTHON] Atualizar MyPy de 0,920 para 0,982
- [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Serde de Evento no formato JSON
-
[SPARK-44188] [SC-135173][core] Remover método inútil
resetAllPartitionsemActiveJob - [SPARK-43757] [SC-135418][connect] Alterar a compatibilidade do cliente de lista de permissões para lista de exclusão
- [SPARK-43474] [SC-135521] [SS] [CONNECT] Adicione um acesso do Spark Connect aos Dataframes de runtime por ID.
-
[SPARK-44183] [SC-135209][python] Aumentar
PyArrowa versão mínima para 4.0.0 - [SPARK-44248] [SC-135554][ss][SQL][kafka] Adicionar localização preferencial na fonte kafka v2
- [SPARK-43929] [SC-134510][sql][PYTHON][connect] Adicionar funções de data e hora à API Scala, Python e Connect – parte 1
- [SPARK-44161] [SC-135326][conectar] Manipular entrada de linha para UDFs
- [SPARK-44227] [SC-135520][sql] Extrair SchemaUtils de StructField
-
[SPARK-44064] [SC-135116][core][SQL] Adicionar uma nova
applyfunção aNonFateSharingCache - [SPARK-44171] [SC-135269][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2279-2282] & excluir algumas classes de erro não utilizados
- [SPARK-44056] [SC-134758][sql] Incluir nome UDF na mensagem de erro de falha de execução UDF quando disponível
- [SPARK-44205] [SC-135422][sql] Extrair código catalisador de DecimalType
- [SPARK-44220] [SC-135484][sql] Mover StringConcat para sql/api
- [SPARK-44146] [SC-135230][connect] Isolar jars e arquivos de classe da Sessão Spark Connect
- [SPARK-44206] [SC-135411][sql] DataSet.selectExpr scope Session.active
- [SPARK-40850] [SC-135417][sql] Corrigir o caso de teste onde consultas interpretadas podem executar Codegen
- [SPARK-44204] [SC-135253][sql][HIVE] Adicionar recordHiveCall ausente para getPartitionNames
- [SPARK-44237] [SC-135485][core] Simplificar a lógica de pesquisa do construtor DirectByteBuffer
- [SPARK-44189] [SC-135170][connect][PYTHON] Suporte a parâmetros posicionais através de
-
[SPARK-44140] [SC-134893][sql][PYTHON] Suporte a parâmetros posicionais no Python
sql() - [SPARK-44164] [SC-135158][sql] Extrair método toAttribute de StructField para classe Util
-
[SPARK-44178] [SC-135113][connect] Suporte a parâmetros posicionais em
sql() - [SPARK-43208] [SC-128955][sql][HIVE] IsolatedClassLoader deve fechar a classe de barreira InputStream após a leitura
-
[SPARK-43063] [SC-128382][sql]
df.showidentificador nulo deve imprimir NULL em vez de nulo - [SPARK-42539] [SC-124464][sql][HIVE] Eliminar o carregador de classes separado ao usar a versão do Hive 'builtin' para o cliente de metadados
- [SPARK-43992] [SC-133645][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listFunctions
-
[SPARK-44066] [SC-134878][sql] Suporte a parâmetros posicionais em Scala/Java
sql() - [SPARK-44078] [SC-134869][connect][CORE] Adicionar suporte para isolamento de carregador de classe/recurso
- [SPARK-43470] [SC-135187][core] Adicionar informações de versão do SISTEMA OPERACIONAL, Java, Python ao log de aplicativos
- [SPARK-43136] [SC-135238][connect][Seguimento] Adicionando testes para KeyAs
- [SPARK-39740] [SC-135093][ui]: atualizar vis timeline para 7.7.2 para corrigir CVE-2020-28487
- [SPARK-42298] [SC-133952][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2132
- [SPARK-43961] [SC-133459][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listTables
- [SPARK-44026] [SC-135181] Permitir fornecer valor inicial para SQLMetrics
- [SPARK-44202] [SC-135244][core] Adicionar APIs JobTag ao JavaSparkContext
- [SPARK-44030] [SC-135237][sql] Implementar DataTypeExpression para oferecer a funcionalidade Unapply para expressões
- [SPARK-43876] Reverter "[SC-134603][sql] Habilitar hashmap rápido para consultas distintas"
- [SPARK-40082] [SC-126437] Agendar mergeFinalize quando a mesclagem por push shuffleMapStage tentar novamente, mas nenhuma tarefa em execução
- [SPARK-43888] [SC-132893][core] Realocar registro de logs para common/utils
- [SPARK-43474] [SC-134400] [SS] [CONNECT] Adicionar SessionHolder ao SparkConnectPlanner
- [SPARK-43944] [SC-134490][connect][PYTHON] Adicionar funções de cadeia de caracteres a Scala e Python - parte 2
- [SPARK-44134] [SC-134954][core] Correção de recursos de configuração (GPU/FPGA) para 0 quando eles são definidos em spark-defaults.conf
- [SPARK-44142] [SC-134947][python] Substitua o tipo por tpe no utilitário para converter tipos de python em tipos spark
- [SPARK-43952] [SC-134695][core][CONNECT][sql] Adicionar APIs SparkContext para cancelamento de consulta por marca
- [SPARK-44000] [SC-133634][sql] Adicionar dica para desabilitar a transmissão e replicar um lado da junção
- [SPARK-43937] [SC-134362][connect][PYTHON] Adicionar ifnull,isnotnull,equal_null,nullif,nvl,nvl2 para Scala e Python
-
[SPARK-43624] [13.x][sc-134557][PS][connect] Adicionar
EWMao SparkConnectPlanner. - [SPARK-44040] [SC-134366][sql] Corrigir o cálculo de estatísticas quando o nó AggregateExec está acima de QueryStageExec
-
[SPARK-43485] [SC-131264][sql] Corrigir a mensagem de erro para o
unitargumento das funções de adição/subtração de datetime - [SPARK-43794] [SC-132561][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1335
- [SPARK-43511] [SC-134749][connect][SS]Implementado MapGroupsWithState e FlatMapGroupsWithState APIs para Spark Connect
- [SPARK-43529] [SQL] Dar suporte a expressões de CREATE/REPLACE TABLE OPTIONS + limpeza de código
-
[SPARK-44106] [SC-134750][python][CONNECT] Adicionar
__repr__paraGroupedData - [SPARK-42299] [SC-133190][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2206
- [SPARK-43290] [SC-134388][sql] Adiciona suporte para IVs aes_encrypt e AAD
-
[SPARK-43932] [SC-134138][sql][PYTHON][conectar] Adicionar
currentfunções semelhantes a Scala e Python - [SPARK-43934] [SC-134108][sql][PYTHON][connect] Adicionar funções regexp_* ao Scala e Python
- [SPARK-44107] [SC-134746][connect][PYTHON] Ocultar métodos de coluna sem suporte do preenchimento automático
- [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Serde de Evento no formato JSON
- [SPARK-43773] [SC-132659][connect][PYTHON] Implementar a função 'levenshtein(str1, str2[, threshold])' no cliente Python
- [SPARK-44125] [SC-134745][r] Suporte a Java 21 no SparkR
- [SPARK-43919] [SC-133374][sql] Extrair funcionalidade JSON fora da linha
- [SPARK-43769] [SC-132520][connect] Implementar função 'levenshtein(str1, str2[, limite])'
- [SPARK-44012] [SC-134662][ss] KafkaDataConsumer para imprimir algum status de leitura
- [SPARK-43876] [SC-134603][sql] Habilitar hashmap rápido para consultas distintas
-
[SPARK-44024] [SC-134497][sql] Alteração para usar
mapquandounzipusado apenas para extrair um único elemento - [SPARK-43928] [SC-134467][sql][PYTHON][connect] Adicionar operações de bits à API Scala, Python e Connect
-
[SPARK-44092] [SC-134506][core] Adicionar
Utils.isJavaVersionAtLeast21e fazer com quecoreo módulo passe com Java 21 - [SPARK-44018] [SC-134512][sql] Aprimorar o hashCode e toString para alguma expressão DS V2
-
[SPARK-44105] [SC-134582][sql]
LastNonNulldeve ser resolvido lentamente - [SPARK-44081] [SC-134434] Simplificar um pouco a API PartitionedFileUtil
- [SPARK-43791] [SC-132531][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1336
- [SPARK-44071] [SC-134435] Definir e usar características Unresolved[Leaf|Unary]Node.
- [SPARK-43852] [SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_2418-2425
- [SPARK-43742] [SC-132684][sql] Refatorar resolução de valor de coluna padrão
- [SPARK-43493] [SC-132063][sql] Adicionar um argumento de distância máxima à função levenshtein()
-
[SPARK-44075] [SC-134382][connect] Tornar
transformStatCorrpreguiçoso - [SPARK-43925] [SC-134381][sql][PYTHON][connect] Adicione alguns, bool_or,bool_and, todos ao Scala, Python e Connect
- [SPARK-43931] [SC-134158][sql][PYTHON][connect] Adicionar funções make_* ao Scala e Python
- [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_24[06-10]
-
[SPARK-43962] [SC-133367][sql] Aprimorar mensagens de erro:
CANNOT_DECODE_URL, ,CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE,CANNOT_PARSE_DECIMAL,CANNOT_READ_FILE_FOOTER,CANNOT_RECOGNIZE_HIVE_TYPE. - [SPARK-43938] [SC-133887][connect][PYTHON] Adicionar funções to_* a Scala e Python
-
[SPARK-44055] [SC-134321][core] Remover funções redundantes
overridedeCheckpointRDD - [SPARK-43802] [SC-132597][sql] Corrigir o codegen para unhex e unbase64 com failOnError=true
- [SPARK-43798] [SC-133990][sql][PYTHON] Suporte a funções de tabela definidas pelo usuário do Python
- [SPARK-43941] [SC-134286][sql][PYTHON][connect] Adicionar any_value, approx_percentile, count_if, first_value, histogram_numeric, last_value, reduzir à API Scala, Python e Connect
- [SPARK-43380] [SC-133100][sql] Corrigir problemas de conversão de tipo de dados do Avro para evitar a produção de resultados incorretos
- [SPARK-43803] [SC-133729] [SS] [CONNECT] Aprimorar awaitTermination() para lidar com desconexões de cliente
- [SPARK-43179] [SC-129070][shuffle] Permitindo que os aplicativos controlem se seus metadados serão salvos no banco de dados pelo Serviço de Embaralhamento Externo
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos dois anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Confira Atualizações de manutenção do Databricks Runtime 13.3.
Ambiente do sistema
-
Sistema operacional: Ubuntu 22.04.2 LTS
- Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.2.1 | atributos | 21.4.0 | chamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | preto | 22.6.0 | alvejante | 4.1.0 |
| antolho | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certificação | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| normalizador de conjunto de caracteres | 2.0.4 | clique | 8.0.4 | criptografia | 37.0.1 |
| ciclista | 0.11.0 | Cython | 0.29.32 | databricks-sdk | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.6.0 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | distlib | 0.3.7 | de docstring para markdown | 0,12 |
| pontos de entrada | 0,4 | em execução | 1.2.0 | Visão geral de facetas | 1.0.3 |
| fastjsonschema | 2.18.0 | bloqueio de arquivo | 3.12.2 | fonttools | 4.25.0 |
| googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets (biblioteca Python para widgets interativos) | 7.7.2 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | Cliente Jupyter | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
| matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | notebook | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | empacotando | 21.3 | Pandas | 1.4.4 |
| pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.9.0 |
| Patsy | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Almofada | 9.2.0 | caroço | 22.2.2 | platformdirs | 2.5.2 |
| enredo | 5.9.0 | Pluggy | 1.0.0 | prometheus-client | 0.14.1 |
| kit de ferramentas de prompt | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
| pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
| piright | 1.1.294 | pirsistent | 0.18.0 | python-dateutil | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-server (servidor LSP para Python) | 1.7.1 | pytoolconfig | 1.2.2 |
| Pytz | 2022.1 | pyzmq | 23.2.0 | solicitações | 2.28.1 |
| corda | 1.7.0 | s3transfer | 0.6.0 | scikit-aprender | 1.1.1 |
| Scipy | 1.9.1 | seaborn (biblioteca de visualização em Python) | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | Ferramentas de configuração | 63.4.1 | seis | 1.16.0 |
| Soupsieve | 2.3.1 | ssh-import-id | 5.11 | dados empilhados | 0.6.2 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.13.2 | tenacidade | 8.1.0 | terminado | 0.13.1 |
| caminho de teste | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | tornado | 6.1 | traitlets | 5.1.1 |
| typing_extensions | 4.3.0 | ujson | 5.4.0 | atualizações não supervisionadas | 0,1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | codificações web | 0.5.1 | whatthepatch | 1.0.2 |
| wheel | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
| zipp | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 2023-02-10: https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 10.0.1 | AskPass | 1,1 | afirme isso | 0.2.1 |
| retroportações | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
| ciar | 1.3-28 | Fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
| chamador | 3.7.3 | sinal de interpolação | 6.0-93 | Cellranger | 1.1.0 |
| crono | 2.3-59 | classe | 7.3-21 | Interface de Linha de Comando (CLI) | 3.6.0 |
| clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
| codetools | 0.2-19 | espaço de cores | 2.1-0 | commonmark | 1.8.1 |
| compilador | 4.2.2 | configuração | 0.3.1 | cpp11 | 0.4.3 |
| giz de cera | 1.5.2 | credenciais | 1.3.2 | encurvar | 5.0.0 |
| Tabela de Dados | 1.14.6 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Descrição | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | hash | 0.6.31 | iluminação para baixo | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| reticências | 0.3.2 | avaliar | 0,20 | fansi | 1.0.4 |
| cores | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| para gatos | 1.0.0 | para cada | 1.5.2 | estrangeiro | 0.8-82 |
| forja | 0.2.0 | Fs | 1.6.1 | futuro | 1.31.0 |
| future.apply | 1.10.0 | gargarejar | 1.3.0 | genéricos | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globais | 0.16.2 |
| cola | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | elemento gráfico | 4.2.2 | grDevices | 4.2.2 |
| grade | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | capacete de segurança | 1.2.0 | refúgio | 2.5.1 |
| mais alto | 0,10 | Hms | 1.1.2 | ferramentas HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | malhador | 1.42 |
| rotulagem | 0.4.2 | posterior | 1.3.0 | treliça | 0.20-45 |
| lava vulcânica | 1.7.1 | ciclo de vida | 1.0.3 | ouça | 0.9.0 |
| lubrificado | 1.9.1 | magrittr | 2.0.3 | redução de preço | 1.5 |
| MISSA | 7.3-58.2 | Matriz | 1.5-1 | memorizar | 2.0.1 |
| Métodos | 4.2.2 | mgcv | 1.8-41 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelador | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.5 | paralelo | 4.2.2 |
| paralelamente | 1.34.0 | coluna | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | profvis | 0.3.7 | progresso | 1.2.2 |
| progressador | 0.13.0 | Promessas | 1.2.0.1 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.2 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| Readr | 2.1.3 | readxl | 1.4.2 | Receitas | 1.0.4 |
| jogo de revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| exemplo reprodutível (reprex) | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | escamas | 1.2.1 |
| Seletor | 0.4-2 | informações de sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.1 | espacial | 7.3-15 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.2.2 |
| estatísticas4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
| sobrevivência | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | formatação de texto | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | mudança de horário | 0.2.0 | data e hora | 4022.108 |
| tinytex | 0,44 | Ferramentas | 4.2.2 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
| utilitários | 4.2.2 | identificador único universal (UUID) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| vibrissa | 0.4.1 | murchar | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.3.7 | zíper | 2.2.2 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.2.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1.1-nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-nativos |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Sininho | 1.7.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.1 |
| io.dropwizard.metrics | metrics-core | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | metrics-servlets | 4.2.10 |
| io.netty | Netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | Netty Resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1,3 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.33 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de seta | 11.0.0 |
| org.apache.arrow | seta-memória-core | 11.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 11.0.0 |
| org.apache.arrow | vetor de seta | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.4-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.4-shaded-protobuf |
| org.apache.orc | orc-calços | 1.8.4 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,22% |
| org.apache.yetus | comentários da audiência | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.51.v20230217 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-http | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-io | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-jndi | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-plus | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-proxy | 9.4.51.v20230217 |
| org.eclipse.jetty | segurança do jetty | 9.4.51.v20230217 |
| org.eclipse.jetty | servidor jetty | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-servlet | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-servlets | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-util | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.51.v20230217 |
| org.eclipse.jetty | Jetty Webapp | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-xml | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey-comum | 2.36 |
| org.glassfish.jersey.core | jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenésia | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Calços | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.1 |
| org.yaml | snakeyaml | 1.33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |