Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.3 LTS, alimentado pelo Apache Spark 3.4.1.
A Databricks lançou esta versão em agosto de 2023.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Gorjeta
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Novos recursos e melhorias
- Suporte Scala para clusters compartilhados
- A lista de permissões para scripts de inicialização, JARs e coordenadas Maven em clusters padrão do Unity Catalog (anteriormente clusters compartilhados) está em Visualização Pública
- O suporte a volumes para scripts de inicialização e JARs está em Pré-visualização Pública
- Conversões seguras ativadas por predefinição para operações Delta Lake
- Introdução de tags com o Unity Catalog
- O Databricks Runtime retornará um erro se um arquivo for modificado entre o planejamento da consulta e a invocação
- Substituir esquema de bloco ao usar substituições de partição dinâmica
- Integre a API copyFile em dbutils.fs.cp
- Suporte ao driver ODBC/JDBC do Databricks
- Suporte para marcadores de parâmetros sem nome (posicionais)
- Ativar rotulagem de colunas de séries cronológicas
- Novas funções SQL bitmap
- Funções de encriptação melhoradas
- Suporte do Catálogo Unity para REFRESH FOREIGN
- INSERT PELO NOME
- Partilhe vistas materializadas com a Delta Sharing
Suporte Scala para clusters compartilhados
Os clusters compartilhados habilitados para Unity Catalog agora suportam Scala, ao usar o Databricks Runtime 13.3 e superior.
A lista de permissões para scripts de inicialização, JARs e coordenadas Maven em clusters padrão do Unity Catalog (anteriormente clusters compartilhados) está em Visualização Pública
Agora você pode usar o Unity Catalog allowlist para controlar a instalação de scripts de inicialização, JARs e coordenadas Maven na computação com o modo de acesso padrão que executa o Databricks Runtime 13.3 e superior. Consulte bibliotecas de Lista de Permissões e scripts de inicialização em computadores com o modo de acesso padrão (anteriormente modo de acesso compartilhado).
O suporte a volumes para scripts init e JARs está em Visualização Pública
Agora você pode usar os volumes do Unity Catalog para armazenar scripts de inicialização e JARs em computação com modos de acesso dedicados ou padrão executando o Databricks Runtime 13.3 e superior. Consulte Onde os scripts init podem ser instalados? e Bibliotecas com Escopo de Computação.
Conversões seguras ativadas por predefinição para operações Delta Lake
Delta UPDATE e MERGE operações agora resultam em um erro quando os valores não podem ser convertidos com segurança para o tipo no esquema da tabela de destino. Todos os elencos implícitos no Delta agora seguem spark.sql.storeAssignmentPolicy em vez de spark.sql.ansi.enabled. Consulte Conformidade ANSI em Databricks Runtime.
Apresentando tags com o Unity Catalog
Com o Databricks Runtime 13.3 LTS e posterior, você pode aplicar tags aos seus objetos protegíveis. As tags ajudam a organizar objetos protegíveis e simplificam a pesquisa e a descoberta de seus ativos de dados. Consulte Aplicar tags a objetos securizáveis do Unity Catalog.
O Databricks Runtime retornará um erro se um arquivo for modificado entre o planejamento da consulta e a invocação
As consultas do Databricks Runtime agora retornam um erro se um arquivo for atualizado entre o planejamento e a chamada da consulta. Antes dessa alteração, o Databricks Runtime lia um arquivo entre esses estágios, o que ocasionalmente levava a resultados imprevisíveis.
Impedir a substituição do esquema ao usar substituições dinâmicas de partição
Não é possível definir overwriteSchema para true em combinação com substituições de partição dinâmica no Delta Lake. Isso evita possíveis danos na tabela devido à incompatibilidade de esquema. Consulte Substituições de partição dinâmica.
Integre a API copyFile em dbutils.fs.cp
O comando dbutils copy, dbutils.fs.cp agora está otimizado para uma cópia mais rápida. Com essa melhoria, as operações de cópia podem ser até 100x mais rápidas, dependendo do tamanho do arquivo. O recurso está disponível em todos os sistemas de arquivos acessíveis no Azure Databricks, inclusive para montagens de Volumes de Catálogo Unity e do Sistema de Arquivos Databricks.
Suporte ao driver ODBC/JDBC do Databricks
O Azure Databricks suporta drivers ODBC e JDBC lançados nos últimos 2 anos. Baixe o driver mais recente em Download ODBC Driver e Download JDBC Driver.
Suporte para marcadores de parâmetros sem nome (posicionais)
A SparkSession.sql() API agora suporta consultas parametrizadas usando a ? sintaxe, além de consultas parametrizadas usando a :parm sintaxe. Consulte os marcadores de parâmetro.
Ativar rotulagem de colunas de séries cronológicas
Agora você pode rotular colunas de séries cronológicas ao criar restrições de chave primária.
Novas funções SQL bitmap
O Azure Databricks agora forneceu um conjunto de funções que podem ser usadas para mapear valores numéricos integrais em um bitmap e agregá-los. Isso pode ser usado para pré-calcular o número de valores distintos.
Funções de encriptação melhoradas
As funções aes_encrypt, aes_decrypt e try_aes_decrypt foram melhoradas com suporte para vetores de inicialização (IV) e dados adicionais autenticados (AAD).
Suporte do Catálogo Unity para REFRESH FOREIGN
Agora você pode atualizar catálogos, esquemas e tabelas estrangeiros no Unity Catalog usando REFRESH FOREIGN CATALOG, REFRESH FOREIGN SCHEMAe REFRESH FOREIGN TABLE. Ver REFRESH FOREIGN (CATALOG, SCHEMAe TABLE).
INSERT PELO NOME
Ao inserir linhas numa tabela, agora pode deixar que o Azure Databricks mapeie automaticamente as colunas e campos na consulta de origem para as colunas da tabela pelo seu nome. Veja INSERT INTO.
Partilhe vistas materializadas com a Delta Sharing
A ALTER SHARE declaração agora suporta visões materializadas.
Alterações interruptivas
Alterações na conversão implícita ao armazenar linhas numa tabela com MERGE INTO e UPDATE
O Azure Databricks agora segue a configuração spark.sql.storeAssignmentPolicy para transmissão implícita ao armazenar linhas em uma tabela. O valor ANSI padrão gera um erro ao armazenar valores que transbordam. Anteriormente, os valores eram armazenados como NULL padrão.
Como no exemplo a seguir, pode resolver excessos reescrevendo a tabela para utilizar um tipo de dados mais amplo para a coluna que causa o erro.
-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
'delta.minReaderVersion' = '2',
'delta.minWriterVersion' = '5',
'delta.columnMapping.mode' = 'name'
)
-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT
-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old
-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old
Alterações na inferência do esquema de Parquet
Ao inferir esquemas de arquivos Parquet não escritos pelo Spark, as colunas de timestamp anotadas com int64 terão agora como tipo padrão isAdjustedToUTC=false. Anteriormente, estes eram inferidos como TIMESTAMP tipo. Esta atualização melhora a precisão do mapeamento de tipos de Parquet para os tipos de Spark SQL.
Como resultado, a leitura de dados de arquivos Parquet externos em uma tabela Delta pode levar a um erro se o timestampNtz recurso não estiver habilitado. O erro será exibido da seguinte forma:
Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.
Para manter o comportamento anterior e evitar esse erro, você pode definir o parâmetro spark.sql.parquet.inferTimestampNTZ.enabled de configuração do Spark como false.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- depuração de 1.5.1 a 1.6.0
- distlib de 0.3.6 a 0.3.7
- fastjsonschema de 2.16.3 a 2.18.0
- filelock de 3.12.0 a 3.12.2
- Bibliotecas R atualizadas:
- SparkR de 3.4.0 a 3.4.1
- Bibliotecas Java atualizadas:
- org.apache.orc.orc-core de 1.8.3-shaded-protobuf para 1.8.4-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.8.3-shaded-protobuf para 1.8.4-shaded-protobuf
- org.apache.orc.orc-shims de 1.8.3 a 1.8.4
- org.eclipse.jetty.jetty-client de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-continuação de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-http de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-io de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-jndi de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-plus de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-proxy de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-security de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-server de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlet de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlets de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-util de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-util-ajax de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-webapp de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-xml de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-api de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-client de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-common de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-server de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-servlet de 9.4.50.v20221201 a 9.4.51.v20230217
- org.xerial.snappy.snappy-java de 1.1.8.4 a 1.1.10.1
Apache Spark
O Databricks Runtime 13.3 inclui o Apache Spark 3.4.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 13.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- Agora você pode definir a variável
SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12de ambiente de cluster para usar o conector Spark-snowflake v2.12.0. - [SPARK-43380] [DBRRM-383] Rever “[SC-133100][sql] Corrigir a conversão do tipo de dados Avro...”
- [FAÍSCA-44504] [Backport][13.2][13.x][13.3] Descarrega o provedor forçando o fechamento da instância de banco de dados e liberando recursos em caso de erro na tarefa de manutenção
- [FAÍSCA-44059] [SC-137023] Adicionar suporte ao analisador de argumentos nomeados para funções internas
- [SPARK-44485] [SC-137653][sql] Otimizar TreeNode.generateTreeString
- [SPARK-42944] [SC-137164][ss][PYTHON] Streaming ForeachBatch em Python
- [SPARK-44446] [SC-136994][python] Adicionar verificações para casos especiais do tipo de lista esperado
- [SPARK-44439] [SC-136973][connect][SS] Corrigiu listListeners para apenas enviar ids de volta ao cliente
- [FAÍSCA-44216] [SC-136941] [PYTHON] Tornar a API assertSchemaEqual pública
- [SPARK-44201] [SC-136778][connect][SS]Adicionar suporte para Streaming Listener no Scala for Spark Connect
- [SPARK-43915] [SC-134766][sql] Atribua nomes à classe de erro LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43798] Reverter “[SC-133990][sql][PYTHON] Suportar funções de tabela definidas pelo utilizador em Python”
- [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
- [SPARK-44476] [SC-137169][core][CONNECT] Corrigir a população de artefatos para um JobArtifactState sem artefatos associados
- [SPARK-44269] [SC-135817][sql] Atribua nomes à classe de erro LEGACY_ERROR_TEMP[2310-2314]
- [SPARK-44395] [SC-136744][sql] Atualize os argumentos TVF para exigir parênteses em torno do identificador após TABLE a palavra-chave
- [SPARK-43915] [SC-134766][sql] Atribua nomes à classe de erro LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43995] [SC-136794][spark-43996][CONNECT] Adicionar suporte para UDFRegistration ao cliente Connect Scala
- [SPARK-44109] [SC-134755][core] Remova locais preferenciais duplicados de cada partição RDD
- [SPARK-44169] [SC-135497][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-41487] [SC-135636][sql] Atribua nome a _LEGACY_ERROR_TEMP_1020
- [SPARK-44398] [SC-136720][connect] API Scala foreachBatch
-
[SPARK-44153] [SC-134977][core][UI] Suporte à coluna
Heap Histogramna abaExecutors - [SPARK-44044] [SC-135695][ss] Melhorar a mensagem de erro para funções de janela com streaming
- [SPARK-43914] [SC-135414][sql] Atribua nomes à classe de erro LEGACY_ERROR_TEMP[2433-2437]
- [SPARK-44217] [SC-136805][python] Permitir precisão personalizada para igualdade fp aprox.
- [SPARK-44370] [SC-136575][connect] Migrar a geração remota alfa do Buf para plugins remotos
- [SPARK-44410] [SC-136930][python][CONNECT] Definir sessão ativa em create, não apenas getOrCreate
- [SPARK-44348] [SAS-1910][sc-136644][13.X][core][CONNECT][python] Reative test_artifact com alterações relevantes
- [SPARK-44145] [SC-136698][sql] Retorno de chamada quando pronto para execução
- [SPARK-44264] [SC-136870][python][ML] FunctionPickler Classe
- [SPARK-43986] [SC-135623][sql] Criar classes de erro para falhas de chamada de função HyperLogLog
- [SPARK-44139] [SC-134967][sql] Descartar filtros completamente pressionados em operações MERGE baseadas em grupo
- [SPARK-44338] [SC-136718][sql] Corrigir mensagem de erro de incompatibilidade de esquema de exibição
- [SPARK-44208] [SC-135505][core][SQL] Atribua nomes de classe de erro claros para alguma lógica que usa exceções diretamente
- [SPARK-44364] [SC-136773] [PYTHON] Adicionar suporte para o tipo de dados List[Row] conforme esperado
- [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils deve aplicar ResolveTimeZone
- [SPARK-43389] [SC-136772][sql] Adicionada uma verificação nula para a opção lineSep
- [SPARK-44388] [SC-136695][connect] Corrigir problema de transmissão de protobuf quando a instância UDF é atualizada
- [SPARK-44352] [SC-136373][connect] Coloque de volta sameType e amigos em DataType.
- [SPARK-43975] [SC-134265][sql] DataSource V2: Gerir UPDATE comandos para fontes baseadas em grupos
- [SPARK-44360] [SC-136461][sql] Suportar a poda de esquema em operações MERGE baseadas em delta
- [SPARK-44138] [SC-134907][sql] Proibir expressões não determinísticas, subconsultas e agregações em condições MERGE
- [SPARK-43321] [SC-136678][connect][Followup] Melhores nomes para APIs usadas no Scala Client joinWith
- [SPARK-44263] [SC-136447][connect] Suporte a intercetores personalizados
- [SPARK-39851] [SC-123383][sql] Melhorar a estimativa de estatísticas de junções se um lado puder preservar a exclusividade.
-
[SPARK-44390] [SC-136677][core][SQL] Renomear
SparkSerDerseUtilsparaSparkSerDeUtils - [SPARK-44004] [SC-134751][sql] Atribuir nome e melhorar a mensagem de erro para erros frequentes do LEGACY.
- [SPARK-44322] [SC-136204][connect] Faça o analisador usar SqlApiConf em vez de SQLConf.
- [SPARK-44271] [SC-136347][sql] Mover funções de valores padrão de StructType para ResolveDefaultColumns
- [SPARK-44332] [SC-136413][core][WEBUI] Corrija o erro de classificação da coluna ID do executor na página da interface do usuário dos executores
- [SPARK-44282] [SC-135948][connect] Preparar a análise de DataType para uso no Cliente Scala do Spark Connect
- [SPARK-44349] [SC-136581][r] Adicionar funções matemáticas ao SparkR
- [SPARK-44397] [SC-136647][python] Disponibilizar assertDataFrameEqual em pyspark.testing.utils
- [SPARK-42981] [SC-136620][connect] Adicionar serialização de seta direta
- [SPARK-44373] [SC-136577][sql] Wrap withActive for Dataset API com lógica de análise para fazer a configuração relacionada ao analisador funcionar
- [SPARK-44340] [SC-136574][sql] Defina a lógica de computação através da API PartitionEvaluator e use-a em WindowGroupLimitExec
- [SPARK-43665] [SC-136573][connect][PS] Habilite o PandasSQLStringFormatter.vformat para funcionar com o Spark Connect
- [SPARK-44325] [SC-136572][sql] Use a API PartitionEvaluator em SortMergeJoinExec
- [SPARK-44315] [SC-136171][sql][CONNECT] Mover DefinedByConstructorParams para sql/api
- [SPARK-44275] [SC-136184][connect] Adicionar mecanismo de repetição configurável ao Scala Spark Connect
- [SPARK-44326] [SC-136208][sql][CONNECT] Migrar as utilidades usadas pelo cliente Scala para os módulos comuns
- [SPARK-43321] [SC-136156][connect] Conjunto de dados#Joinwith
- [SPARK-44343] [SC-136372][connect] Prepare o ScalaReflection para a mudança para SQL/API
- [SPARK-44313] [SC-136081][sql] Corrija a validação de expressão de coluna gerada quando há uma coluna char/varchar no esquema
- [SPARK-43963] [SC-134145][sql] DataSource V2: Manipular comandos MERGE para fontes baseadas em grupo
- [FAÍSCA-44363] [SC-136433] [PYTHON] Exibir porcentagem de linhas desiguais na comparação de DataFrame
- [SPARK-44251] [SC-136432][sql] Definir anulável corretamente na chave de junção coalescida na junção externa completa USING
- [SPARK-43948] [SC-133366][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[0050|0057|0058|0059]
- [SPARK-44329] [SC-136326][connect][PYTHON] Adicionar hll_sketch_agg, hll_union_agg, to_varchar try_aes_decrypt ao Scala e Python
- [SPARK-44351] [SC-136353][sql] Faça alguma simplificação sintática
- [SPARK-44281] [SC-135963][sql] Mover o erro QueryCompilation utilizado por DataType para sql/api como DataTypeErrors.
- [SPARK-44283] [SC-136109][connect] Mover origem para SQL/API
- [SPARK-43926] [SC-135590][connect][PYTHON] Adicionar arrayagg, array_size, cardinality, count_min_sketch,mask,named_struct,json* ao Scala e Python
-
[SPARK-44327] [SC-136187][sql][CONNECT] Adicionar funções
anyelenao Scala - [SPARK-44290] [SC-136300][connect] Ficheiros e arquivos baseados em sessão no Spark Connect
- [SPARK-44061] [SC-136299][python] Adicionar função util assertDataFrameEqual
- [SPARK-44331] [SC-136324][connect][PYTHON] Adicionar funções de bitmap ao Scala e Python
- [SPARK-44342] [SC-136334][sql] Substitua SQLContext por SparkSession para GenTPCDSData
- [SPARK-42583] [SC-124190][sql] Remova a junção externa se todas forem funções agregadas distintas
- [SPARK-44333] [SC-136206][connect][SQL] Mover EnhancedLogicalPlan para fora do ParserUtils
- [SPARK-43824] [SC-132655][spark-43825] [SQL] Atribua nomes à classe de erro _LEGACY_ERROR_TEMP_128[1-2]
- [SPARK-43939] [SC-134602][connect][PYTHON] Adicionar funções try_* ao Scala e Python
- [SPARK-44193] [SC-135886][connect] Implementar intercetação de exceções GRPC para conversão
- [SPARK-44284] [SC-136107][connect] Criar sistema conf simples para sql/api
- [SPARK-43913] [SC-133368][sql] Atribua nomes à classe de erro LEGACY_ERROR_TEMP[2426-2432]
- [SPARK-44291] Reverter “[SC-135924][spark-43416][CONNECT] Corrigir esquema incorreto para consulta de intervalo”
- [SPARK-44312] [SC-136185][connect][PYTHON] Permite definir um agente de usuário com uma variável de ambiente
- [FAÍSCA-44154] [SC-136060] Implementar funções de bitmap
- [SPARK-43885] [SC-133996][sql] DataSource V2: Manipular comandos MERGE para fontes baseadas em delta
- [SPARK-43924] [SC-135161][connect][PYTHON] Adicionar funções misc ao Scala e Python
- [SPARK-43969] [SC-134556][sql] Refatorar e atribuição de nomes à classe de erro _LEGACY_ERROR_TEMP_1170
- [SPARK-44185] [SC-135730][sql] Corrigir a qualificação de caminho inconsistente entre operações de catálogo e dados
- [SPARK-44073] [SC-134562][sql][PYTHON][connect] Adicionar funções de data e hora ao Scala, Python e Connect - parte 2
- [SPARK-43942] [SC-134527][connect][PYTHON] Adicionar funções de string ao Scala e Python - parte 1
- [SPARK-44266] [SC-135813][sql] Mover Util.truncatedString para sql/api
- [SPARK-44195] [SC-135722][r] Adicionar APIs JobTag ao SparkR SparkContext
- [SPARK-44200] [SC-135736][sql] Suporte para a regra do analisador de argumentos para TableValuedFunction
- [SPARK-44254] [SC-135709][sql] Transferir QueryExecutionErrors utilizados pelo DataType para sql/api como DataTypeErrors
- [SPARK-44291] [SC-135924][spark-43416][CONNECT] Corrigir esquema incorreto para consulta de intervalo
- [SPARK-43922] [SC-135612][sql] Adicionar suporte a parâmetros nomeados no analisador para chamadas de função
- [SPARK-44300] [SC-135882][connect] Corrigir limpeza de artefactos para limitar o âmbito de eliminação a artefactos específicos da sessão
- [SPARK-44293] [SC-135849][connect] Corrigir URI inválido para JARs personalizados no Spark Connect
- [SPARK-44215] [SC-135850][shuffle] Se o número de chunks for 0, o servidor deve lançar uma excepção de tempo de execução (RuntimeException)
- [SPARK-44245] [SC-135851][python] pyspark.sql.dataframe sample() doctests devem ser apenas ilustrativos
- [SPARK-44274] [SC-135814][connect] Mover as funções utilitárias usadas pelo ArtifactManager para common/utils
- [SPARK-44194] [SC-135815][python][CORE] Adicionar APIs JobTag ao PySpark SparkContext
- [SPARK-42828] [SC-135733][python][SQL] Anotações de tipo Python mais explícitas para GroupedData
-
[SPARK-44079] [SC-135486][sql] Correção
ArrayIndexOutOfBoundsExceptionao analisar matriz como struct usando o modo PERMISSIVO com registro corrompido - [SPARK-44255] [SC-135809][sql] Realoque StorageLevel para common/utils
- [FAÍSCA-42169] [SC-135795] [SQL] Implementar geração de código para to_csv função (StructsToCsv)
- [SPARK-44249] [SC-135719][sql][PYTHON] Refatore PythonUDTFRunner para enviar seu tipo de retorno separadamente
- [SPARK-43353] [SC-132734][python] Migrar os erros de sessão restantes para a classe de erros
- [SPARK-44211] [SC-135718][python][CONNECT] Implementar sessão do Spark is_stopped
- [FAÍSCA-42784] [SC-135691] ainda deve criar subDir quando o número de subDir em merge dir for menor que conf
- [FAÍSCA-41599] [SC-135616] Vazamento de memória no FileSystem.CACHE ao enviar aplicativos para cluster seguro usando InProcessLauncher
- [SPARK-44241] [SC-135613][core] Definir erroneamente io.connectionTimeout/connectionCreationTimeout como zero ou negativo causará contras/destruições incessantes do executor
- [SPARK-44133] [SC-134795][13.x][PYTHON] Atualize o MyPy de 0,920 para 0,982
- [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Serde de eventos em formato JSON
-
[SPARK-44188] [SC-135173][core] Remover método inútil
resetAllPartitionsemActiveJob - [SPARK-43757] [SC-135418][connect] Alterar a compatibilidade do cliente da lista de permissões para a lista de negação
- [FAÍSCA-43474] [SC-135521] [SS] [CONECTAR] Adicione um acesso de conexão de faísca a Dataframes de tempo de execução por ID.
-
[SPARK-44183] [SC-135209][python] Aumentar
PyArrowversão mínima para 4.0.0 - [SPARK-44248] [SC-135554][ss][SQL][kafka] Adicionar localização preferencial na fonte kafka v2
- [SPARK-43929] [SC-134510][sql][PYTHON][connect] Adicionar funções de data e hora ao Scala, Python e API Connect - parte 1
- [SPARK-44161] [SC-135326][connect] Manipular entrada de linha de dados para UDFs
- [SPARK-44227] [SC-135520][sql] Extrair SchemaUtils de StructField
-
[SPARK-44064] [SC-135116][core][SQL] Adicionar uma nova
applyfunção aNonFateSharingCache - [SPARK-44171] [SC-135269][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[2279-2282] & excluir algumas classes de erro não utilizadas
- [SPARK-44056] [SC-134758][sql] Incluir nome UDF na mensagem de erro de falha de execução UDF quando disponível
- [SPARK-44205] [SC-135422][sql] Extraia o código do Catalyst do DecimalType
- [SPARK-44220] [SC-135484][sql] Mover StringConcat para sql/api
- [SPARK-44146] [SC-135230][connect] Isolar os jars e arquivos de classe da sessão do Spark Connect
- [SPARK-44206] [SC-135411][sql] DataSet.selectExpr âmbito Session.active
- [SPARK-40850] [SC-135417][sql] Corrigir o problema em que consultas interpretadas em casos de teste podem executar Codegen.
- [SPARK-44204] [SC-135253][sql][HIVE] Adicionar recordHiveCall em falta para getPartitionNames
- [SPARK-44237] [SC-135485][core] Simplifique a lógica de pesquisa do construtor DirectByteBuffer
-
[SPARK-44189] [SC-135170][connect][PYTHON] Suporta parâmetros posicionais por
sql() -
[SPARK-44140] [SC-134893][sql][PYTHON] Suporte a parâmetros posicionais em Python
sql() - [SPARK-44164] [SC-135158][sql] Extrair o método toAttribute de StructField para a classe Util
-
[SPARK-44178] [SC-135113][connect] Suporta parâmetros posicionais em
sql() - [SPARK-43208] [SC-128955][sql][HIVE] IsolatedClassLoader deve fechar a classe de barreira InputStream após a leitura
-
[SPARK-43063] [SC-128382][sql]
df.showidentificador null deve imprimir NULL em vez de null - [SPARK-42539] [SC-124464][sql][HIVE] Elimine o carregador de classes separado ao usar a versão 'integrada' do Hive para o cliente de metadados
- [SPARK-43992] [SC-133645][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listFunctions
-
[SPARK-44066] [SC-134878][sql] Suporte a parâmetros posicionais em Scala/Java
sql() - [SPARK-44078] [SC-134869][connect][CORE] Adicionar suporte para isolamento de carregador de classes/recursos
- [SPARK-43470] [SC-135187][core] Adicionar informações de versão do SO, Java, Python ao log do aplicativo
- [SPARK-43136] [SC-135238][connect][Followup] Adicionando testes para KeyAs
- [SPARK-39740] [SC-135093][ui]: Atualizou a linha do tempo vis para a versão 7.7.2 para corrigir o CVE-2020-28487
- [SPARK-42298] [SC-133952][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2132
- [SPARK-43961] [SC-133459][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listTables
- [FAÍSCA-44026] [SC-135181] Permitir o fornecimento de valor inicial para SQLMetrics
- [SPARK-44202] [SC-135244][core] Adicionar APIs JobTag ao JavaSparkContext
- [SPARK-44030] [SC-135237][sql] Implemente DataTypeExpression para oferecer a funcionalidade de "Unapply" para expressões
- [SPARK-43876] Reverter "[SC-134603][sql] Ativar o uso de hashmap rápido para consultas de distinção"
- [FAÍSCA-40082] [SC-126437] Agendar mesclagemFinalizar quando a mesclagem por push shuffleMapStage tentar novamente, mas sem tarefas em execução
- [SPARK-43888] [SC-132893][core] Realoque o registro em log para common/utils
- [FAÍSCA-43474] [SC-134400] [SS] [CONECTAR] Adicionar SessionHolder ao SparkConnectPlanner
- [SPARK-43944] [SC-134490][connect][PYTHON] Adicionar funções de string ao Scala e Python - parte 2
- [SPARK-44134] [SC-134954][core] Corrija os recursos de configuração (GPU/FPGA) para 0 quando são definidos em spark-defaults.conf
- [SPARK-44142] [SC-134947][python] Substitua o tipo por tpe no utilitário para converter tipos Python em tipos Spark
- [SPARK-43952] [SC-134695][core][CONNECT][sql] Adicionar APIs SparkContext para cancelamento de consultas por tag
- [SPARK-44000] [SC-133634][sql] Adicione uma sugestão para desativar a transmissão e a replicação de um lado da junção
- [SPARK-43937] [SC-134362][connect][PYTHON] Adicionar ifnull,isnotnull,equal_null,nullif,nvl,nvl2 ao Scala e Python
-
[SPARK-43624] [13.x][sc-134557][PS][connect] Adicionar
EWMao SparkConnectPlanner. - [SPARK-44040] [SC-134366][sql] Corrigir estatísticas de cálculo quando o nó AggregateExec está acima de QueryStageExec
-
[SPARK-43485] [SC-131264][sql] Corrija a mensagem de erro para o
unitargumento das funções add/diff datetime - [SPARK-43794] [SC-132561][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1335
- [SPARK-43511] [SC-134749][connect][SS]APIs MapGroupsWithState e FlatMapGroupsWithState implementadas para o Spark Connect
- [SPARK-43529] [SQL] Suporte CRIAR/SUBSTITUIR TABLE OPÇÕES expressões + limpeza de código
-
[SPARK-44106] [SC-134750][python][CONNECT] Adicionar
__repr__paraGroupedData - [FAÍSCA-42299] [SC-133190] Atribuir nome a _LEGACY_ERROR_TEMP_2206
- [SPARK-43290] [SC-134388][sql] Adiciona suporte para aes_encrypt IVs e AAD
-
[SPARK-43932] [SC-134138][sql][PYTHON][connect] Adicionar
currentfunções semelhantes ao Scala e Python - [SPARK-43934] [SC-134108][sql][PYTHON][connect] Adicionar funções regexp_* ao Scala e Python
- [SPARK-44107] [SC-134746][connect][PYTHON] Ocultar métodos de coluna não suportados do preenchimento automático
- [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Serde de eventos em formato JSON
- [SPARK-43773] [SC-132659][connect][PYTHON] Implemente a função 'levenshtein(str1, str2[, threshold])' no cliente Python
- [SPARK-44125] [SC-134745][r] Suporte Java 21 no SparkR
- [SPARK-43919] [SC-133374][sql] Extraia a funcionalidade JSON da linha
- [SPARK-43769] [SC-132520][connect] Implementar funções 'levenshtein(str1, str2[, threshold])'
- [SPARK-44012] [SC-134662][ss] KafkaDataConsumer para imprimir algum status de leitura
- [SPARK-43876] [SC-134603][sql] Habilite o hashmap rápido para consultas distintas
-
[SPARK-44024] [SC-134497][sql] Alteração a utilizar
mapquandounziputilizado apenas para extrair um único elemento - [SPARK-43928] [SC-134467][sql][PYTHON][connect] Adicionar operações de bit ao Scala, Python e API Connect
-
[SPARK-44092] [SC-134506][core] Adicionar
Utils.isJavaVersionAtLeast21e garantir que o módulocorepasse com Java 21 - [SPARK-44018] [SC-134512][sql] Melhorar o hashCode e toString para algumas expressões DS V2
-
[SPARK-44105] [SC-134582][sql]
LastNonNulldeve ser resolvido de forma preguiçosa - [FAÍSCA-44081] [SC-134434] Simplifique um pouco a API PartitionedFileUtil
- [SPARK-43791] [SC-132531][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1336
- [FAÍSCA-44071] [SC-134435] Definir e usar Unresolved[Leaf|Unário]Traços do nó.
- [SPARK-43852] [SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_2418-2425
- [SPARK-43742] [SC-132684][sql] Refatorar a resolução do valor da coluna padrão
- [SPARK-43493] [SC-132063][sql] Adicionar um argumento de distância máxima à função levenshtein()
-
[SPARK-44075] [SC-134382][connect] Tornar
transformStatCorrpreguiçoso - [SPARK-43925] [SC-134381][sql][PYTHON][connect] Adicione alguns, bool_or.bool_and, todos ao Scala, Python e Connect
- [SPARK-43931] [SC-134158][sql][PYTHON][connect] Adicionar funções make_* ao Scala e Python
- [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_24[06-10]
-
[SPARK-43962] [SC-133367][sql] Melhorar as mensagens de erro:
CANNOT_DECODE_URL,CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE,CANNOT_PARSE_DECIMAL,CANNOT_READ_FILE_FOOTER,CANNOT_RECOGNIZE_HIVE_TYPE. - [SPARK-43938] [SC-133887][connect][PYTHON] Adicionar funções to_* ao Scala e Python
-
[SPARK-44055] [SC-134321][core] Remova funções redundantes
overridedeCheckpointRDD - [SPARK-43802] [SC-132597][sql] Corrija codegen para unhex e unbase64 com failOnError=true
- [SPARK-43798] [SC-133990][sql][PYTHON] Suporta funções de tabela definidas pelo usuário Python
- [SPARK-43941] [SC-134286][sql][PYTHON][connect] Adicione any_value, approx_percentile, count_if, first_value, histogram_numeric last_value, reduza para Scala, Python e Connect API
- [SPARK-43380] [SC-133100][sql] Corrija problemas de conversão de tipo de dados Avro para evitar a produção de resultados incorretos
- [FAÍSCA-43803] [SC-133729] [SS] [CONECTAR] Melhorar awaitTermination() para lidar com desconexões de cliente
- [SPARK-43179] [SC-129070][shuffle] Permitindo que os aplicativos controlem se seus metadados são salvos no banco de dados pelo Serviço de Embaralhamento Externo
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Consulte Atualizações de manutenção do Databricks Runtime 13.3.
Ambiente do sistema
-
Sistema Operacional: Ubuntu 22.04.2 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java: Zulu 8.70.0.23-CA-linux64
- Escala: 2.12.15
- Píton: 3.10.12
- R: 4.2.2
- Lago Delta: 2.4.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Appdirs | 1.4.4 | Argônio2-CFFI | 21.3.0 | argon2-cffi-ligações | 21.2.0 |
| AstTokens | 2.2.1 | ATRs | 21.4.0 | Backcall | 0.2.0 |
| sopa bonita4 | 4.11.1 | preto | 22.6.0 | lixívia | 4.1.0 |
| pisca-pisca | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.28 |
| certifi | 2022.9.14 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Normalizador de Charset | 2.0.4 | clicar | 8.0.4 | criptografia | 37.0.1 |
| ciclista | 0.11.0 | Quisto | 0.29.32 | Databricks-SDK | 0.1.6 |
| dbus-python | 1.2.18 | depuração | 1.6.0 | decorador | 5.1.1 |
| DeUsedXML | 0.7.1 | Distlib | 0.3.7 | docstring-para-markdown | 0,12 |
| pontos de entrada | 0.4 | execução | 1.2.0 | facetas-visão geral | 1.0.3 |
| fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.18.0 | bloqueio de arquivo | 3.12.2 | Fonttools | 4.25.0 |
| googleapis-comuns-protos | 1.56.4 | Grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.3 | importlib-metadados | 4.6.4 |
| Ipykernel | 6.17.1 | IPython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
| Jinja2 | 2.11.3 | JmesPath | 0.10.0 | Joblib | 1.2.0 |
| jsonschema | 4.16.0 | jupyter-cliente | 7.3.4 | jupyter_core | 4.11.2 |
| Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | porta-chaves | 23.5.0 |
| Kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | Marcação Segura | 2.0.1 | Matplotlib | 3.5.2 |
| matplotlib-em linha | 0.1.6 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
| mais-itertools | 8.10.0 | mypy-extensões | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | Ninho-Asyncio | 1.5.5 |
| nodeenv | 1.8.0 | bloco de notas | 6.4.12 | dormência | 1.21.5 |
| OAuthlib | 3.2.0 | embalagem | 21,3 | pandas | 1.4.4 |
| PandocFilters | 1.5.0 | Parso | 0.8.3 | PathSpec | 0.9.0 |
| vítima | 0.5.2 | Espere | 4.8.0 | pickleshare | 0.7.5 |
| Travesseiro | 9.2.0 | pip (o gestor de pacotes do Python) | 22.2.2 | plataformadirs | 2.5.2 |
| enredo | 5.9.0 | Pluggy | 1.0.0 | Prometheus-cliente | 0.14.1 |
| kit de ferramentas de prompt | 3.0.36 | Protobuf | 3.19.4 | PSUTIL | 5.9.0 |
| PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 8.0.0 | Pycparser | 2.21 | Pidântico | 1.10.6 |
| Pyflakes | 3.0.1 | Pigmentos | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | Pyodbc | 4.0.32 | Pyparsing | 3.0.9 |
| Pyright | 1.1.294 | pirsistent | 0.18.0 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-servidor | 1.7.1 | pytoolconfig | 1.2.2 |
| Pytz | 2022.1 | Pyzmq | 23.2.0 | pedidos | 2.28.1 |
| corda | 1.7.0 | s3transferir | 0.6.0 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.1.1 |
| SciPy | 1.9.1 | nascido no mar | 0.11.2 | Armazenamento Secreto | 3.3.1 |
| Enviar2Lixo | 1.8.0 | Ferramentas de configuração | 63.4.1 | seis | 1.16.0 |
| Soupsieve | 2.3.1 | ssh-import-id | 5.11 | dados de pilha | 0.6.2 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.13.2 | tenacidade | 8.1.0 | terminado | 0.13.1 |
| caminho de teste | 0.6.0 | ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 |
| Tomli | 2.0.1 | tornado | 6.1 | traços | 5.1.1 |
| typing_extensions (extensões de digitação) | 4.3.0 | Ujson | 5.4.0 | Upgrades autônomos | 0.1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| largura de wc | 0.2.5 | WebEncodings | 0.5.1 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 |
| wheel | 0.37.1 | widgetsnbextension | 3.6.1 | Yapf | 0.31.0 |
| zipp | | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2023-02-10: https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 10.0.1 | AskPass | 1.1 | asserçãoat | 0.2.1 |
| Retroportagens | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| pouco | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
| arranque | 1.3-28 | fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.3 | BSLIB | 0.4.2 | cachemira | 1.0.6 |
| Chamador | 3.7.3 | acento circunflexo | 6.0-93 | Cellranger | 1.1.0 |
| crono | 2.3-59 | classe | 7.3-21 | CLI | 3.6.0 |
| Clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
| CodeTools | 0.2-19 | espaço em cores | 2.1-0 | marca comum | 1.8.1 |
| compilador | 4.2.2 | configuração | 0.3.1 | CPP11 | 0.4.3 |
| lápis de cor | 1.5.2 | credenciais | 1.3.2 | encaracolar | 5.0.0 |
| tabela de dados | 1.14.6 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
| DBPlyr | 2.3.0 | descrição | 1.4.2 | DevTools | 2.4.5 |
| diffobj | 0.3.5 | resumo | 0.6.31 | Iluminação reduzida | 0.4.2 |
| DPLYR | 1.1.0 | DTPlyr | 1.2.2 | E1071 | 1.7-13 |
| reticências | 0.3.2 | avaliar | 0.20 | Fãsi | 1.0.4 |
| Farver | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| FORCATS | 1.0.0 | para cada | 1.5.2 | externa | 0.8-82 |
| forjar | 0.2.0 | FS | 1.6.1 | Futuro | 1.31.0 |
| futuro.apply | 1.10.0 | gargarejo | 1.3.0 | genérico | 0.1.3 |
| Gert | 1.9.2 | GGPLOT2 | 3.4.0 | GH | 1.3.1 |
| gitcreds | 0.1.2 | GLMNET | 4.1-6 | Globais | 0.16.2 |
| colar | 1.6.2 | GoogleDrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | gráficos | 4.2.2 | grDispositivos | 4.2.2 |
| grelha | 4.2.2 | gridExtra | 2.3 | GSUBFN | 0,7 |
| tabela g | 0.3.1 | capacete | 1.2.0 | Refúgio | 2.5.1 |
| mais alto | 0.10 | HMS | 1.1.2 | htmltools | 0.5.4 |
| htmlwidgets (componentes HTML interativos) | 1.6.1 | httpuv | 1.6.8 | HTTR | 1.4.4 |
| IDs | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| Isoband | 0.2.7 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | Knitr | 1.42 |
| etiquetagem | 0.4.2 | mais tarde | 1.3.0 | treliça | 0.20-45 |
| lave | 1.7.1 | ciclo de vida | 1.0.3 | ouvirv | 0.9.0 |
| lubridato | 1.9.1 | Magrittr | 2.0.3 | Marcação | 1.5 |
| MASSA | 7.3-58.2 | Matriz | 1.5-1 | memorização | 2.0.1 |
| métodos | 4.2.2 | MGCV | 1.8-41 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.10 |
| Munsell | 0.5.0 | NLME | 3.1-162 | NNET | 7.3-18 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.5 | paralelo | 4.2.2 |
| Paralelamente | 1.34.0 | pilar | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | Plyr | 1.8.8 | elogiar | 1.0.0 |
| unidades bonitas | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | Profvis | 0.3.7 | Progresso | 1.2.2 |
| progressor | 0.13.0 | promessas | 1.2.0.1 | prototipo | 1.0.0 |
| proxy | 0.4-27 | PS | 1.7.2 | ronronar | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.5 |
| Floresta Aleatória | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| Leitor | 2.1.3 | ReadXL | 1.4.2 | receitas | 1.0.4 |
| revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| Reprex | 2.0.2 | remodelar2 | 1.4.4 | Rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | oxigénio2 | 7.2.3 |
| rpart (função de partição recursiva em R) | 4.1.19 | rprojroot | 2.0.3 | Reserva | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversões | 2.1.2 |
| Rvest | 1.0.3 | Sass | 0.4.5 | escalas | 1.2.1 |
| seletor | 0.4-2 | Informação da sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4 | ferramentas de origem | 0.1.7-1 | Brilho | 1.7.9 |
| Faísca | 3.4.1 | espacial | 7.3-15 | estrias | 4.2.2 |
| sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.2.2 |
| estatísticas4 | 4.2.2 | string | 1.7.12 | stringr | 1.5.0 |
| sobrevivência | 3.5-3 | Sistema | 3.4.1 | fontes do sistema | 1.0.4 |
| tcltk (uma linguagem de programação) | 4.2.2 | testeatat | 3.1.6 | formatação de texto | 0.3.6 |
| Tibble | 3.1.8 | Tidyr | 1.3.0 | arrumadoselecionar | 1.2.0 |
| Tidyverse | 1.3.2 | mudança de hora | 0.2.0 | data e hora | 4022.108 |
| Tinytex | 0.44 | ferramentas | 4.2.2 | TZDB | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.3 |
| utilitários | 4.2.2 | Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.5.2 |
| viridisLite | 0.4.1 | vruum | 1.6.1 | Waldo | 0.4.0 |
| vibrissas | 0.4.1 | murchar | 2.5.0 | xfun | 0,37 |
| XML2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | ZIP | 2.2.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | AWS Java SDK para SES | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.390 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.2.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | jackson-anotações | 2.14.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 2.1.214 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1,15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | Lapack | | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.21 |
| IO.Delta | delta-compartilhamento-spark_2.12 | 0.7.1 |
| io.dropwizard.metrics | métricas-base | 4.2.10 |
| io.dropwizard.metrics | métricas-grafite | 4.2.10 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.10 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.10 |
| io.dropwizard.metrics | métricas-jmx | 4.2.10 |
| io.dropwizard.metrics | métricas-json | 4.2.10 |
| io.dropwizard.metrics | métricas do JVM | 4.2.10 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.10 |
| io.netty | netty-tudo | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-meias | 4.1.87.Final |
| io.netty | netty-comum | 4.1.87.Final |
| io.netty | netty-manipulador | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.87.Final |
| io.netty | transporte de rede | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.87.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | picles | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.33 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ANT-JSCH | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de seta | 11.0.0 |
| org.apache.arrow | seta-memória-núcleo | 11.0.0 |
| org.apache.arrow | seta-memória-netty | 11.0.0 |
| org.apache.arrow | vetor de seta | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | AVRO-IPC | 1.11.1 |
| org.apache.avro | avro-mapeado | 1.11.1 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.21 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | curador-receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | colmeia-lamp-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-protobuf sombreado |
| org.apache.orc | orc-núcleo | 1.8.4-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.8.4-protobuf sombreado |
| org.apache.orc | Orc-calços | 1.8.4 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.22 |
| org.apache.yetus | anotações de audiência | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.3 |
| org.apache.zookeeper | zookeeper-juta | 3.6.3 |
| org.checkerframework | verificador-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.51.v20230217 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.51.v20230217 |
| org.eclipse.píer | Jetty-HTTP | 9.4.51.v20230217 |
| org.eclipse.píer | Molhe IO | 9.4.51.v20230217 |
| org.eclipse.píer | Cais-JNDI | 9.4.51.v20230217 |
| org.eclipse.píer | Cais-Plus | 9.4.51.v20230217 |
| org.eclipse.píer | Jetty-Proxy | 9.4.51.v20230217 |
| org.eclipse.píer | Segurança do Jetty | 9.4.51.v20230217 |
| org.eclipse.píer | servidor jetty | 9.4.51.v20230217 |
| org.eclipse.píer | Jetty-servlet | 9.4.51.v20230217 |
| org.eclipse.píer | Jetty-servlets | 9.4.51.v20230217 |
| org.eclipse.píer | Jetty-util | 9.4.51.v20230217 |
| org.eclipse.píer | cais-util-ajax | 9.4.51.v20230217 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.51.v20230217 |
| org.eclipse.píer | Jetty-XML | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.51.v20230217 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-cliente | 2,36 |
| org.glassfish.jersey.core | Jersey comum | 2,36 |
| org.glassfish.jersey.core | servidor de jersey | 2,36 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2,36 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.7.4 |
| org.mlflow | MLFLOW-Faísca | 2.2.0 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | calços | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.6 |
| org.slf4j | jul-para-slf4j | 2.0.6 |
| org.slf4j | SLF4J-API | 2.0.6 |
| org.threeten | trêsdez-extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | mosca-selvagem-openssl | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.1 |
| org.yaml | Snakeyaml | 1.33 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |