Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 15.4 LTS, alimentado pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em agosto de 2024.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Gorjeta
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
-
Usar a
VARIANTcomo o tipo de entrada ou saída com um Python UDF, UDAF ou UDTF gera uma exceção - spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão
- Alterar ao modo padrão de vinculação de esquema para vistas
-
Não permitir o uso da sintaxe não documentada
!em vez deNOTexpressões booleanas externas - Não permitir sintaxe de definição de coluna não documentada em visões
- Tratamento consistente de erros para decodificação Base64 no Spark e Photon
-
Adicionar uma restrição de
CHECKnuma coluna inválida agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION - spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão
- pyodbc é atualizado de 4.0.38 para 4.0.39
Usar a VARIANT como o tipo de entrada ou saída com um Python UDF, UDAF ou UDTF gera uma exceção
[Alteração significativa] No Databricks Runtime 15.3 e versões superiores, chamar qualquer função definida pelo utilizador (UDF), função de agregação definida pelo utilizador (UDAF), ou função de tabela definida pelo utilizador (UDTF) que utiliza um tipo VARIANT como argumento ou valor de retorno gera uma exceção. Essa alteração é feita para evitar problemas que podem ocorrer devido a um valor inválido retornado por uma dessas funções. Para saber mais sobre o VARIANT tipo, consulte Usar VARIANTES para armazenar dados semiestruturados.
spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão
spark.sql.legacy.jdbc.useNullCalendar agora está definido como true por padrão. Se essa alteração quebrar suas consultas (como aquelas que retornam TIMESTAMP valores), defina-a como false em seu código.
Alterar para o modo de vinculação de esquema padrão para modos de exibição
As exibições agora se adaptam às alterações de esquema na consulta subjacente usando o ajuste de esquema com regras de conversão regulares. Esta é uma alteração em relação ao padrão anterior do modo, que gerava erros quando uma transmissão segura não podia ser executada BINDING ao fazer referência à exibição.
Consulte CREATE VIEW e função cast.
Não permitir o uso da sintaxe não documentada ! em vez de NOT expressões booleanas externas
Com esta versão, o uso de ! como sinônimo para NOT fora de expressões booleanas não é mais permitido. Por exemplo, afirmações como as seguintes: CREATE ... IF ! EXISTS, IS ! NULL, uma coluna ! NULL ou propriedade de campo, ! IN e ! ENTRE, devem ser substituídas por: CREATE ... IF NOT EXISTS, IS NOT NULL, uma coluna NOT NULL ou propriedade de campo, NOT IN e NOT BETWEEN.
Essa alteração garante consistência, alinha-se com o padrão SQL e torna seu SQL mais portátil.
O operador! de prefixo booleano (por exemplo, !is_mgr ou !(true AND false)) não é afetado por essa alteração.
Não permitir sintaxe de definição de coluna não documentada em modos de exibição
O Databricks suporta CREATE VIEW com colunas nomeadas e comentários de coluna. Anteriormente, a especificação de tipos de coluna, restrições de NOT NULL ou DEFAULT era permitida. Com esta versão, você não pode mais usar essa sintaxe.
Essa alteração garante consistência, alinha-se com o padrão SQL e oferece suporte a aprimoramentos futuros.
Tratamento consistente de erros para decodificação Base64 no Spark e Photon
Esta versão altera como o Photon lida com erros de decodificação Base64 para corresponder ao tratamento Spark desses erros. Antes dessas alterações, o caminho de geração de código do Photon e do Spark às vezes falhava em gerar exceções de análise, enquanto o Spark interpretava a execução corretamente gerada IllegalArgumentException ou ConversionInvalidInputError. Esta atualização garante que o Photon gere consistentemente as mesmas exceções que o Spark durante erros de decodificação Base64, fornecendo tratamento de erros mais previsível e confiável.
Adicionar uma restrição de CHECK numa coluna inválida agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION
Para fornecer mensagens de erro mais úteis, no Databricks Runtime 15.3 e superior, uma instrução ALTER TABLE ADD CONSTRAINT que inclua uma restrição CHECK que faça referência a um nome de coluna inválido retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION. Anteriormente, um INTERNAL_ERROR foi devolvido.
spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão
### spark.sql.legacy.jdbc.useNullCalendar agora está definido como true a configuração padrão. Se essa alteração quebrar suas consultas (como aquelas que retornam TIMESTAMP valores), defina-a como false em seu código.
pyodbc é atualizado de 4.0.38 para 4.0.39
O pacote pyodbc é atualizado da versão 4.0.38 para a versão 4.0.39. Esta alteração é necessária porque um bug foi encontrado na versão 4.0.38 e essa versão foi removida do PyPI.
Novos recursos e melhorias
- Funções de validação UTF-8
- APIs de conjunto de dados tipadas com UDFs Scala
- Habilite o UniForm Iceberg usando ALTER TABLE
- try_url_decode função
- Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não impostas
- Execuções de trabalho paralelizadas para substituições seletivas
- Desempenho aprimorado para feed de dados de alteração com substituições seletivas
-
Latência de consulta melhorada para o
COPY INTOcomando - Suporte para descartar o recurso de tabela de restrições de verificação
- A computação dedicada (anteriormente computação de usuário único) suporta controle de acesso refinado, exibições materializadas e tabelas de streaming (Visualização pública)
- Suporte expandido para bibliotecas Java e Scala
- Suporte expandido para operações de conjunto de dados Scala
- Scala é GA na computação padrão do Unity Catalog
- Acesso controlado pelo catálogo Unity a serviços de nuvem externos usando credenciais de serviço (Visualização pública)
Funções de validação UTF-8
Esta versão apresenta as seguintes funções para validar cadeias de caracteres UTF-8:
- is_valid_utf8 verificado se uma cadeia de caracteres é uma cadeia de caracteres UTF-8 válida.
- make_valid_utf8 converte uma cadeia de caracteres UTF-8 potencialmente inválida em uma cadeia de caracteres UTF-8 válida usando caracteres de substituição
- validate_utf8 gera um erro se a entrada não for uma cadeia de caracteres UTF-8 válida.
-
try_validate_utf8 retorna
NULLse a entrada não for uma cadeia de caracteres UTF-8 válida.
APIs de conjunto de dados tipadas com UDFs Scala
Esta versão adiciona suporte para APIs de conjunto de dados tipadas com funções definidas pelo usuário em Scala (excluindo funções agregadas definidas pelo usuário) em computação com o Unity Catalog habilitado no modo de acesso padrão (anteriormente modo de acesso compartilhado). Consulte APIs de conjunto de dados tipadas.
Habilite o UniForm Iceberg usando ALTER TABLE
Agora você pode habilitar o UniForm Iceberg em tabelas existentes sem reescrever arquivos de dados. Consulte Ativar leituras do Iceberg numa tabela existente.
try_url_decode função
Esta versão apresenta a função try_url_decode, que decodifica uma cadeia de caracteres codificada por URL. Se a cadeia de caracteres não estiver no formato correto, a função retornará NULL em vez de gerar um erro.
Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não impostas
Para melhorar o desempenho das consultas, já é possível especificar o termo RELY nas restrições de FOREIGN KEY quando CREATE ou ALTER uma tabela.
Execuções de trabalho paralelizadas para substituições seletivas
As substituições seletivas usando replaceWhere agora executam trabalhos que excluem dados e inserem novos dados em paralelo, melhorando o desempenho das consultas e a utilização do cluster.
Desempenho aprimorado para feed de dados de alteração com substituições seletivas
As substituições seletivas usando replaceWhere em tabelas que utilizam feed de dados de alterações já não criam arquivos de dados de alteração separados para os dados inseridos. Essas operações usam uma coluna _change_type oculta presente nos arquivos de dados subjacentes do Parquet para registrar alterações sem causar amplificação de escrita.
Latência de consulta melhorada para o COPY INTO comando
Esta versão inclui uma alteração que melhora a latência de consulta para o COPY INTO comando. Essa melhoria é implementada tornando o carregamento do estado pelo armazenamento de estado RocksDB assíncrono. Com essa alteração, você verá uma melhoria nos tempos de início para consultas com estados grandes, como consultas com um grande número de arquivos já ingeridos.
Suporte para descartar o recurso de tabela de restrições de verificação
Agora pode remover a funcionalidade de tabela checkConstraints de uma tabela Delta usando ALTER TABLE table_name DROP FEATURE checkConstraints. Consulte Desativar restrições de verificação.
A computação dedicada (anteriormente computação de usuário único) suporta controle de acesso refinado, exibições materializadas e tabelas de streaming (Visualização pública)
Quando um espaço de trabalho está habilitado para computação sem servidor, o Databricks Runtime 15.4 LTS adiciona suporte para controle de acesso refinado em computação dedicada. Quando uma consulta acessa qualquer um dos seguintes objetos, o recurso de computação dedicado no Databricks Runtime 15.4 LTS passa a consulta para a computação sem servidor para executar a filtragem de dados:
- Vistas definidas em tabelas nas quais o utilizador não tem o privilégio
SELECT. - Vistas dinâmicas.
- Tabelas com filtros de linha ou máscaras de coluna aplicadas.
- Visualizações materializadas e tabelas de streaming.
Essas consultas não são suportadas em computação dedicada que executa o Databricks Runtime 15.3 e inferior.
Para obter mais informações, consulte Controle de acesso refinado em computação dedicada.
Suporte expandido para bibliotecas Java e Scala
A partir do Databricks Runtime 15.4 LTS, todas as bibliotecas Java e Scala empacotadas com o Databricks Runtime estão disponíveis em todos os modos de acesso de computação quando você usa o Unity Catalog. Para saber mais sobre o suporte a idiomas na computação habilitada para Unity Catalog, consulte Requisitos e limitações de computação padrão.
Suporte expandido para operações de conjunto de dados Scala
Com esta versão, os recursos de computação habilitados para Unity Catalog que usam o modo de acesso padrão suportam as Dataset seguintes operações Scala: map, mapPartitions, foreachPartition, flatMapreducee filter.
Scala é GA na computação padrão do Unity Catalog
Com esta versão, o Scala está geralmente disponível no modo de acesso padrão Unity Catalog-enabled compute, incluindo suporte para funções escalares definidas pelo usuário (UDFs). Não há suporte para Streaming estruturado, UDFs do Hive e funções agregadas definidas pelo usuário do Hive. Para obter uma lista completa de limitações, consulte Requisitos e limitações de computação padrão.
Acesso controlado pelo catálogo Unity a serviços de nuvem externos usando credenciais de serviço (Visualização pública)
As credenciais de serviço permitem uma autenticação simples e segura com os serviços do locatário de nuvem usando identidades gerenciadas do Azure (MI) e o Catálogo Unity. Consulte Criar credenciais de serviço.
Correções de erros
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- azure-core de 1.30.1 a 1.30.2
- google-auth de 2.29.0 a 2.31.0
- google-cloud-storage de 2.16.0 a 2.17.0
- google-retomable-media de 2.7.0 a 2.7.1
- googleapis-common-protos de 1.63.0 a 1.63.2
- mlflow-skinny de 2.11.3 a 2.11.4
- proto-plus de 1.23.0 a 1.24.0
- s3transfer de 0.10.1 a 0.10.2
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- com.databricks.databricks-sdk-java de 0.17.1 a 0.27.0
- com.ibm.icu.icu4j de 72.1 a 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.1-linux-x86_64 para 1.6.2-linux-x86_64
Apache Spark
O Databricks Runtime 15.4 LTS inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.3 (EoS), além das seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-48503] [DBRRM-1150][sc-172196][SQL] Permitir o agrupamento de expressões em subconsultas escalares, se elas estiverem vinculadas a linhas externas
- [SPARK-48834] [BEHAVE-79][sc-170972][SQL] Desativar a entrada/saída variante para UDFs, UDTFs, UDAFs escalares em python durante a compilação da consulta
- [SPARK-48441] [SC-170980][sql][WARMFIX] Corrigir o comportamento do StringTrim para agrupamentos não UTF8_BINARY
- [SPARK-48440] [SC-170895][sql][WARMFIX] Corrigir o comportamento do StringTranslate para agrupamentos não UTF8_BINARY
- [SPARK-48872] [SC-170866][python] Reduza a sobrecarga de _capture_call_site
-
[SPARK-48862] [SC-170845][python][CONNECT] Evite ligar
_proto_to_stringquando o nível INFO não estiver ativado - [SPARK-48852] [SC-170837][connect] Corrigir função de corte de string na conexão
- [SPARK-48791] [SC-170658][core] Corrija a regressão perf causada pela sobrecarga de registro dos acumuladores usando CopyOnWriteArrayList
-
[FAÍSCA-48118] [SQL] Suporte
SPARK_SQL_LEGACY_CREATE_HIVE_TABLEenv variável - [SPARK-48241] [SC-165811][sql] Falha de análise CSV com colunas do tipo char/varchar
- [SPARK-48168] [SC-166900][sql] Adicionar suporte a operadores de deslocamento bit a bit
- [SPARK-48148] [SC-165630][core] Os objetos JSON não devem ser modificados quando lidos como STRING
- [SPARK-46625] [SC-170561] CTE com cláusula de identificador como referência
-
[SPARK-48771] [SC-170546][sql] Otimizar
LogicalPlanIntegrity.validateExprIdUniquenesspara planos de consulta grandes -
[SPARK-48831] [BEHAVE-76][sc-170554][CONNECT] Fazer o nome padrão da coluna
castcompatível com o Spark Classic - [SPARK-48623] [SC-170544][core] Migrações de log estruturado [Parte 2]
-
[SPARK-48296] [SC-166138][sql] Suporte de Codegen para
to_xml - [SPARK-48027] [SC-165154][sql] InjectRuntimeFilter para associação de vários níveis deve verificar o tipo de associação filha
- [SPARK-48686] [SC-170365][sql] Melhorar o desempenho de ParserUtils.unescapeSQLString
-
[SPARK-48798] [SC-170588][python] Introdução
spark.profile.renderpara criação de perfil baseada em SparkSession - [SPARK-48048] [SC-169099] Reverter "[SC-164846][connect][SS] Adicionado suporte de ouvinte do lado do cliente para Scala"
- [SPARK-47910] [SC-168929][core] fechar fluxo quando DiskBlockObjectWriter fechaRecursos para evitar vazamento de memória
- [SPARK-48816] [SC-170547][sql] Abreviação para conversores de intervalo no UnivocityParser
- [SPARK-48589] [SC-170132][sql][SS] Adicionar opção snapshotStartBatchId e snapshotPartitionId à fonte de dados de estado
- [SPARK-48280] [SC-170293][sql] Melhore a área de superfície de teste de agrupamento usando a caminhada de expressão
- [SPARK-48837] [SC-170540][ml] No CountVectorizer, leia apenas o parâmetro binário uma vez por transformação, não uma vez por linha
- [SPARK-48803] [SC-170541][sql] Lançar erro interno no Orc(De)serializer para alinhar com ParquetWriteSupport
- [SPARK-48764] [SC-170129][python] Filtrando frames relacionados com IPython da pilha de usuários
-
[SPARK-48818] [SC-170414][python] Simplifique
percentilefunções - [SPARK-48479] [SC-169079][sql] Suporte à criação de UDFs SQL escalares e de tabela no analisador
- [SPARK-48697] [SC-170122][lc-4703][SQL] Adicionar filtros de cadeia de caracteres com reconhecimento de agrupamento
- [SPARK-48800] [SC-170409][connect][SS] Deflake ClientStreamingQuerySuite
-
[SPARK-48738] [SC-169814][sql] Correção do número da versão para a funcionalidade integrada alias
random,position,mod,cardinality,current_schema,user,session_user,char_length,character_length - [SPARK-48638] [SC-169575][connect] Adicionar suporte ExecutionInfo para DataFrame
- [SPARK-48064] [SC-164697][sql] Atualizar mensagens de erro para classes de erro associadas a rotinas
- [FAÍSCA-48810] [CONECTAR] A API Session stop() deve ser idempotente e não falhar se a sessão já estiver fechada pelo servidor
- [SPARK-48650] [15.x][python] Exibir o site de chamada correto do IPython Notebook
- [SPARK-48271] [SC-166076][sql] Converta o erro de correspondência no RowEncoder em UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][sql] Corrigir incompatibilidade de resolução de tipo varchar para DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][sql] Corrigir regressão para INSERT com lista de colunas parciais para uma tabela com char/varchar
-
[SPARK-48767] [SC-170330][sql] Corrija alguns prompts de erro quando
variantos dados de tipo são inválidos -
[SPARK-48719] [SC-170339][sql] Corrija o bug de cálculo de
RegrSlope&RegrInterceptquando o primeiro parâmetro é nulo - [SPARK-48815] [SC-170334][connect] Atualize o ambiente ao parar a sessão de conexão
- [SPARK-48646] [SC-169020][python] Refine docstrings e dicas de tipo da API da fonte de dados em Python
- [SPARK-48806] [SC-170310][sql] Passar a exceção real quando a função url_decode falha
- [FAÍSCA-47777] [SC-168818] corrigir python streaming fonte de dados teste de conexão
-
[SPARK-48732] [SC-169793][sql] Limpeza do uso de API preterida relacionada a
JdbcDialect.compileAggregate - [SPARK-48675] [SC-169538][sql] Corrigir tabela de cache com coluna agrupada
- [SPARK-48623] [SC-169034][core] Migrações de registos estruturados
- [SPARK-48655] [SC-169542][sql] SPJ: Adicionar testes para shuffle skipping para consultas agregadas
- [SPARK-48586] [SC-169808][ss] Remova a aquisição de bloqueio em doMaintenance() fazendo uma cópia profunda dos mapeamentos de arquivos no RocksDBFileManager em load()
- [SPARK-48799] [Backport][15.x][SC-170283][ss] Refatoração do sistema de versionamento para a leitura/escrita de metadados do operador e processos que os chamam
- [SPARK-48808] [SC-170309][sql] Corrija o NPE ao conectar o thriftserver através do Hive 1.2.1 e o esquema de resultado está vazio
- [SPARK-48715] [SC-170291][sql] Integre a validação UTF8String em implementações de função de cadeia de caracteres com reconhecimento de agrupamento
- [SPARK-48747] [SC-170120][sql] Adicionar um iterador de ponto de código à UTF8String
- [SPARK-48748] [SC-170115][sql] Cache numChars em UTF8String
- [SPARK-48744] [SC-169817][core] A entrada de log deve ser construída apenas uma vez
-
[SPARK-46122] [SC-164313][sql] Definido
spark.sql.legacy.createHiveTableByDefaultcomofalsepor padrão - [SPARK-48765] [SC-170119][deploy] Aprimore a avaliação de valor padrão para SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][sql] Adicionar documento de migração para a mudança de comportamento do CREATE TABLE AS SELECT desde o Spark 3.4
- [SPARK-48598] [SC-169484][python][CONNECT] Propagar esquema armazenado em cache em operações de dataframe
-
[SPARK-48766] [SC-170126][python] Documente a diferença de comportamento entre
extractionelement_atetry_element_at -
[SPARK-48768] [SC-170124][python][CONNECT] Não deve armazenar em cache
explain - [SPARK-48770] [Backport][15.x][SC-170133][ss] Altere para ler os metadados do operador uma única vez no driver para verificar se podemos encontrar informação para numColsPrefixKey usado para consultas de agregação de janela de sessão
-
[SPARK-48656] [SC-169529][core] Efetuar uma verificação de comprimento e lançar o erro COLLECTION_SIZE_LIMIT_EXCEEDED em
CartesianRDD.getPartitions - [SPARK-48597] [SC-168817][sql] Introduza um marcador para a propriedade isStreaming na representação de texto do plano lógico
- [SPARK-48472] [SC-169044][sql] Habilitar expressões de reflexão com cadeias de caracteres agrupadas
- [SPARK-48699] [SC-169597][sql] Refinar API de agrupamento
- [SPARK-48682] [SC-169812][sql][BEHAVE-58] Usar ICU na expressão InitCap para cadeias de caracteres UTF8_BINARY
- [SPARK-48282] [SC-169813][sql] Alterar a lógica de pesquisa de sequência de caracteres para ordenação UTF8_BINARY_LCASE (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][sql] Habilitar o suporte de agrupamento para a expressão Mode
- [SPARK-48320] [SPARK-48490] Sincronize a característica de registro mais recente e os casos de teste do OSS Spark
- [FAÍSCA-48629] [SC-169479] Migrar o código residual para a estrutura de log estruturada
- [SPARK-48681] [SC-169469][sql][BEHAVE-58] Use o ICU em expressões de minúsculas/maiúsculas para cadeias de caracteres UTF8_BINARY
- [SPARK-48573] [15.x][sc-169582][SQL] Atualizar versão da UTI
- [SPARK-48687] [Backport][15.x][SS] Adicionar alteração para executar a validação do esquema de estado e atualização no driver para consultas com estado
- [SPARK-47579] [15.x][sc-167310][CORE][part4] Migrar logInfo com variáveis para o framework de registos estruturados
- [FAÍSCA-48008] [SC-167363][1/2] Suporta UDAFs no Spark Connect
- [SPARK-48578] [SC-169505][sql] adicionar funções relacionadas à validação de cadeia de caracteres UTF8
- [SPARK-48670] [SC-169598][sql] Fornecendo sugestão como parte da mensagem de erro quando o nome de agrupamento inválido é fornecido
- [FAÍSCA-48059] [FAÍSCA-48145][faísca-48134][FAÍSCA-48182][faísca-48209][SPA... … RK-48291] Estrutura de log estruturada no lado java
- [SPARK-47599] [15.x][sc-166000][MLLIB] MLLib: Migrar logWarn com variáveis para o framework de logging estruturado
- [SPARK-48706] [SC-169589][python] Python UDF em funções de ordem superior não deve lançar erro interno
- [SPARK-48498] [BEHAVE-38][sc-168060][SQL] Sempre faça preenchimento de caracteres em predicados
- [SPARK-48662] [SC-169533][sql] Corrigir expressão StructsToXml com agrupamentos
- [SPARK-48482] [SC-167702][python][15.x] dropDuplicates e dropDuplicatesWIthinWatermark deve aceitar args de comprimento variável
- [SPARK-48678] [SC-169463][core] Otimizações de desempenho para SparkConf.get(ConfigEntry)
- [FAÍSCA-48576] [SQL] Renomear UTF8_BINARY_LCASE para UTF8_LCASE
- [SPARK-47927] [SC-164123][sql]: Corrigir atributo de anulabilidade no decodificador UDF
- [SPARK-47579] [SC-165297][core][PART1] Migrar logInfo com variáveis para a estrutura de log estruturada (novo)
-
[SPARK-48695] [SC-169473][python]
TimestampNTZType.fromInternalnão usa os métodos preteridos - [SPARK-48431] [SC-167290][lc-4066][SQL] Não encaminhe predicados em colunas agrupadas para leitores de arquivos
- [SPARK-47579] Reverter “[SC-165297][core][PART1] Migrar logInfo com variáveis para o framework de logging estruturado”
- [SPARK-47585] [SC-164306][sql] SQL core: migrar logInfo com variáveis para a estrutura de log estruturada
- [SPARK-48466] [SC-169042][sql] Criar nó dedicado para EmptyRelation no AQE
- [SPARK-47579] [SC-165297][core][PART1] Migrar logInfo com variáveis para a estrutura de log estruturada
- [SPARK-48410] [SC-168320][sql] Corrigir expressão InitCap para conjuntos de agrupamento de UTF8_BINARY_LCASE & ICU
- [SPARK-48318] [SC-167709][sql] Habilitar o suporte de junção de hash para todos os agrupamentos (tipos complexos)
- [SPARK-48435] [SC-168128][sql] O agrupamento UNICODE não deve suportar igualdade binária
- [SPARK-48555] [SC-169041][sql][PYTHON][connect] Suporte usando colunas como parâmetros para várias funções em pyspark/scala
-
[SPARK-48591] [SC-169081][python] Adicione uma função auxiliar para simplificar
Column.py - [SPARK-48574] [SC-169043][sql] Corrigir suporte para StructTypes com agrupamentos
- [SPARK-48305] [SC-166390][sql] Adicionar suporte de agrupamento para expressões CurrentLike
- [SPARK-48342] [SC-168941][sql] Introdução do SQL Scripting Parser
- [SPARK-48649] [SC-169024][sql] Adicione as configurações "ignoreInvalidPartitionPaths" e "spark.sql.files.ignoreInvalidPartitionPaths" para permitir ignorar caminhos de partição inválidos
- [SPARK-48000] [SC-167194][sql] Habilitar suporte para junção por hash para todos os agrupamentos (StringType)
- [SPARK-48459] [SC-168947][connect][PYTHON] Implementar DataFrameQueryContext no Spark Connect
- [SPARK-48602] [SC-168692][sql] Faça com que o gerador csv suporte um estilo de saída diferente com spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][sql] Modificar a comparação de strings para UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830][sql] refatorar: usar mapa de ID auxiliar em vez de OP_ID_TAG
- [SPARK-48634] [SC-169021][python][CONNECT] Evite inicializar estaticamente o threadpool em ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658][sql] Introduz um BinaryFormatter universal para tornar a saída binária consistente
- [SPARK-48642] [SC-168889][core] Falsa memória insuficiente reportada pelo Spark causada por eliminar tarefa ao fazer spill
- [SPARK-48572] [SC-168844][sql] Corrigir expressões DateSub, DateAdd, WindowTime, TimeWindow e SessionWindow
- [SPARK-48600] [SC-168841][sql] Corrigir transmissão implícita de expressões FrameLessOffsetWindowFunction
- [SPARK-48644] [SC-168933][sql] Faça uma verificação de comprimento e lance COLLECTION_SIZE_LIMIT_EXCEEDED erro no Hex.hex
- [SPARK-48587] [SC-168824][variante] Evite a amplificação de armazenamento ao acessar uma subvariante
-
[SPARK-48647] [SC-168936][python][CONNECT] Refine a mensagem de erro para
YearMonthIntervalTypeindf.collect - [SPARK-48307] [SC-167802][sql] InlineCTE deve manter relações não embutidas no nó WithCTE original
- [SPARK-48596] [SC-168581][sql] Melhoria do Perf para calcular a cadeia hexadecimal por muito tempo
- [SPARK-48621] [SC-168726][sql] Corrigir a simplificação do operador 'Like' no Optimizador para cadeias de caracteres ordenadas
- [SPARK-47148] [SC-164179][sql] Evite materializar AQE ExchangeQueryStageExec no cancelamento
- [SPARK-48584] [SC-168579][sql] Melhoria do Perf para unescapePathName
- [SPARK-48281] [SC-167260][sql] Alterar lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][sql] Substituição inválida da sequência de bytes UTF-8
-
[SPARK-48595] [SC-168580][core] Limpeza do uso preterido de API relacionado a
commons-compress - [SPARK-48030] [SC-164303][sql] SPJ: armazenar em cache a rowOrdering e structType para InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][sql] Adicionar característica WriteFilesExecBase para gravação v1
- [SPARK-48551] [SC-168438][sql] Melhoria do Perf para escapePathName
- [SPARK-48565] [SC-168437][ui] Corrigir exibição do thread dump na interface
- [SPARK-48364] [SC-166782][sql] Adicione a transmissão do tipo AbstractMapType e corrija o mapa de parâmetros RaiseError para trabalhar com cadeias de caracteres agrupadas
- [SPARK-48421] [SC-168689][sql] SPJ: Adicionar documentação
-
[SPARK-48604] [SC-168698][sql] Substituir chamada de método preterido
new ArrowType.Decimal(precision, scale) - [SPARK-46947] [SC-157561][core] Atrase a inicialização do gerenciador de memória até que o plug-in do driver seja carregado
- [SPARK-48411] [SC-168576][ss][PYTHON] Adicionar teste E2E para DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][ss] Rastrear falhas de validação de linha de estado usando classe de erro explícita
- [SPARK-48221] [SC-167143][sql] Alterar a lógica de pesquisa de cadeias de caracteres para o agrupamento UTF8_BINARY_LCASE (Contém, ComeçaCom, TerminaCom, LocalizarString)
- [SPARK-47415] [SC-168441][sql] Adicionar suporte de agrupamento para expressão Levenshtein
- [SPARK-48593] [SC-168719][python][CONNECT] Corrigir a representação de cadeia de caracteres da função lambda
- [SPARK-48622] [SC-168710][sql] obtenha SQLConf uma vez ao resolver nomes de colunas
-
[SPARK-48594] [SC-168685][python][CONNECT] Renomear
parentcampo parachildinColumnAlias [SPARK-48403] [SC-168319][sql] Corrigir expressões Lower & Upper para colações UTF8_BINARY_LCASE & ICU- [SPARK-48162] [SC-166062][sql] Adicionar suporte de agrupamento para expressões MISC
- [SPARK-48518] [SC-167718][core] Faça com que a compressão LZF possa ser executada em paralelo
-
[SPARK-48474] [SC-167447][core] Corrija o nome da classe do login
SparkSubmitArguments&SparkSubmit - [SPARK-48012] [SC-168267][sql] SPJ: Suporte a expressões Transfrom para embaralhamento de um lado
- [SPARK-48552] [SC-168212][sql] A inferência do esquema CSV multilinha também deve lançar o erro FAILED_READ_FILE
- [SPARK-48560] [SC-168268][ss][PYTHON] Tornar possível definir StreamingQueryListener.spark
- [SPARK-48569] [SC-168321][ss][CONNECT] Manipule casos extremos em query.name
- [SPARK-47260] [SC-167323][sql] Atribuir nome à classe de erro _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][python][CONNECT] Propagar esquema armazenado em cache em operações definidas
- [SPARK-48155] [SC-165910][sql] AQEPropagateEmptyRelation para join deve verificar se o filho remanescente é apenas BroadcastQueryStageExec
- [SPARK-48506] [SC-167720][core] Os nomes curtos do codec de compressão não diferenciam maiúsculas de minúsculas, exceto para o registo de eventos
- [SPARK-48447] [SC-167607][ss] Verifique a classe do provedor de armazenamento de estado antes de invocar o construtor
- [FAÍSCA-47977] [SC-167650] DateTimeUtils.timestampDiff e DateTimeUtils.timestampAdd não devem lançar INTERNAL_ERROR exceção
- [SPARK-48513] [Backport][15.x][SC-168085][ss] Adicionar classe de erro para compatibilidade de esquema de estado e refatoração menor
- [SPARK-48413] [SC-167669][sql] ALTER COLUMN com ordenação
-
[SPARK-48561] [SC-168250][ps][CONNECT] Lançar
PandasNotImplementedErrorpara funções de plotagem não suportadas - [SPARK-48465] [SC-167531][sql] Evite no-op propagação de relação vazia
- [SPARK-48553] [SC-168166][python][CONNECT] Armazenar em cache mais propriedades
- [SPARK-48540] [SC-168069][core] Evitar carregar as definições de output do ivy para stdout
- [SPARK-48535] [SC-168057][ss] Atualizar a documentação de configuração para indicar a possibilidade de perda ou corrupção de dados, caso a opção de ignorar nulos nas configurações de junção stream-stream esteja ativada.
- [SPARK-48536] [SC-168059][python][CONNECT] Esquema especificado pelo usuário de cache em applyInPandas e applyInArrow
- [SPARK-47873] [SC-163473][sql] Escreva cadeias de caracteres agrupadas no metastore do Hive usando o tipo de cadeia de caracteres regular
- [SPARK-48461] [SC-167442][sql] Substitua NullPointerExceptions pela classe de erro na expressão AssertNotNull
- [SPARK-47833] [SC-163191][sql][CORE] Fornecer stacktrace do chamador para checkAndGlobPathIfNecessary AnalysisException
- [SPARK-47898] [SC-163146][sql] Porta HIVE-12270: Adicionar suporte DBTokenStore ao token de delegação HS2
- [SPARK-47578] [SC-167497][r] Migrar RPackageUtils com variáveis para a estrutura de log estruturada
-
[SPARK-47875] [SC-162935][core] Remover
spark.deploy.recoverySerializer -
[SPARK-47552] [SC-160880][core] Defina
spark.hadoop.fs.s3a.connection.establish.timeoutpara 30s caso esteja ausente - [SPARK-47972] [SC-167692][sql] Restringir expressão CAST para agrupamentos
- [SPARK-48430] [SC-167489][sql] Corrigir a extração do valor do mapa quando o mapa contém cadeias de caracteres agrupadas
- [SPARK-47318] [SC-162712][core][3.5] Adiciona uma rodada do HKDF à derivação de chave do AuthEngine para seguir as práticas padrão de KEX
- [SPARK-48503] [BEHAVE-29][es-1135236][SQL] Corrigir subconsultas escalares inválidas com group-by em colunas não equivalentes que foram permitidas incorretamente
-
[SPARK-48508] [SC-167695][connect][PYTHON] Esquema especificado pelo usuário de cache em
DataFrame.{to, mapInPandas, mapInArrow} - [SPARK-23015] [SC-167188][windows] Corrigir bug no Windows em que iniciar várias instâncias do Spark no mesmo segundo causa uma falha
- [FAÍSCA-45891] [SC-167608]Reverter " Descrever esquema de destruição para variante"
- [SPARK-48391] [SC-167554][core]Usando addAll em vez de adicionar função no método fromAccumulatorInfos da classe TaskMetrics
- [SPARK-48496] [SC-167600][core] Usar instâncias de padrão regex estático em JavaUtils.timeStringAs e JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][sql] corrigir mensagem de erro NPE para null delmiter csv
- [SPARK-48489] [SC-167598][sql] Lançar um erro melhor, voltado para o utilizador ao ler um esquema ilegal da fonte de dados de texto
- [SPARK-48471] [SC-167324][core] Melhorar a documentação e o guia de uso do servidor de histórico
- [FAÍSCA-45891] [SC-167597] Descrever o esquema de destruição para Variant
-
[SPARK-47333] [SC-159043][sql] Usar checkInputDataTypes para verificar os tipos de entrada da função
to_xml - [SPARK-47387] [SC-159310][sql] Remover algumas classes de erro não utilizadas
- [SPARK-48265] [ES-1131440][sql] Inferir que o lote de limite de grupo da janela deve realizar a dobra constante
- [SPARK-47716] [SC-167444][sql] Evitar conflito de nome de exibição no caso de teste de classificação semântica SQLQueryTestSuite
- [SPARK-48159] [SC-167141][sql] Estendendo o suporte para cadeias de caracteres agrupadas em expressões datetime
- [SPARK-48462] [SC-167271][sql][Testes] Use withSQLConf em testes: Refactor HiveQuerySuite e HiveTableScanSuite
-
[SPARK-48392] [SC-167195][core] Também carrega
spark-defaults.confquando fornecido--properties-file - [FAÍSCA-48468] [SC-167417] Adicionar interface LogicalQueryStage no catalyst
- [SPARK-47578] [SC-164988][core] Backport manual para o Spark PR #46309: Migrar logWarning com variáveis para o sistema de registo estruturado
- [FAÍSCA-48415] [SC-167321]Reverter "[PYTHON] Refactor TypeName para suportar tipos de dados parametrizados"
- [SPARK-46544] [SC-151361][sql] Suporte v2 DESCRIBE TABLE ESTENDIDO com estatísticas de tabela
- [SPARK-48325] [SC-166963][core] Sempre especifique mensagens em ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][sql] Adicionar suporte de agrupamento para localidades de UTI e especificadores de agrupamento
- [SPARK-47221] [SC-157870][sql] Usa assinaturas de CsvParser para AbstractParser
-
[SPARK-47246] [SC-158138][sql] Substitua
InternalRow.fromSeqpornew GenericInternalRowpara salvar uma conversão de coleção - [SPARK-47597] [SC-163932][streaming] Backport manual para o Spark PR #46192: Streaming: Migrar logInfo com variáveis para a estrutura de log estruturada
-
[SPARK-48415] [SC-167130][python] Refatorar
TypeNamepara suportar tipos de dados parametrizados -
[SPARK-48434] [SC-167132][python][CONNECT] Faça
printSchemauso do esquema armazenado em cache - [SPARK-48432] [ES-1097114][sql] Evitar o unboxing de inteiros no UnivocityParser
- [SPARK-47463] [SC-162840][sql] Use V2Predicado para encapsular a expressão com o tipo de retorno de booleano
- [SPARK-47781] [SC-162293][sql] Manipular decimais de escala negativa para fontes de dados JDBC
- [SPARK-48394] [SC-166966][core] Limpeza de mapIdToMapIndex na desregistração de mapoutput
- [SPARK-47072] [SC-156933][sql] Corrigir formatos de intervalo suportados em mensagens de erro
- [SPARK-47001] [SC-162487][sql] Verificação de pushdown no otimizador
-
[SPARK-48335] [SC-166387][python][CONNECT] Tornar
_parse_datatype_stringcompatível com o Spark Connect -
[SPARK-48329] [SC-166518][sql] Ativar
spark.sql.sources.v2.bucketing.pushPartValues.enabledpor padrão - [SPARK-48412] [SC-166898][python] Reestruturar o tipo de dados na análise do JSON
- [SPARK-48215] [SC-166781][sql] Estendendo o suporte para cadeias de caracteres agrupadas em date_format expressão
- [SPARK-45009] [SC-166873][sql][FOLLOW UP] Adicionar uma classe de erro e testes para descorrelação de subconsultas de predicado na condição de junção que fazem referência a ambos os filhos de junção
- [SPARK-47960] [SC-165295][ss][15.x] Permite encadear outros operadores com estado após o operador transformWithState.
- [SPARK-48340] [SC-166468][python] Suporte TimestampNTZ infer schema miss prefer_timestamp_ntz
- [SPARK-48157] [SC-165902][sql] Adicionar suporte de agrupamento para expressões CSV
- [SPARK-48158] [SC-165652][sql] Adicionar suporte de agrupamento para expressões XML
- [SPARK-48160] [SC-166064][sql] Adicionar suporte de agrupamento para expressões XPATH
- [SPARK-48229] [SC-165901][sql] Adicionar suporte de agrupamento para expressões inputFile
- [SPARK-48367] [SC-166487][connect] Corrigir o lint-scala para scalafmt a fim de detetar corretamente os ficheiros a formatar.
- [SPARK-47858] [SC-163095][spark-47852][PYTHON][sql] Refatoração da estrutura para contexto de erro DataFrame
- [SPARK-48370] [SC-166787][connect] Checkpoint e localCheckpoint no cliente Scala Spark Connect
- [SPARK-48247] [SC-166028][python] Use todos os valores em um ditado ao inferir o esquema MapType
-
[SPARK-48395] [SC-166794][python] Correção
StructType.treeStringpara tipos parametrizados -
[SPARK-48393] [SC-166784][python] Mover um grupo de constantes para
pyspark.util -
[SPARK-48372] [SC-166776][spark-45716][PYTHON] Implementar
StructType.treeString - [SPARK-48258] [SC-166467][python][CONNECT] Ponto de verificação e localCheckpoint no Spark Connect
Consulte Atualizações de manutenção do Databricks Runtime 15.4 LTS.
Ambiente do sistema
-
Sistema Operacional: Ubuntu 22.04.4 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java : Zulu 8.78.0.19-CA-linux64
- Escala: 2.12.15
- Píton: 3.11.11
- R: 4.3.2
- Lago Delta: 3.2.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AstTokens | 2.0.5 | Astunparse | 1.6.3 | azure-core | 1.30.2 |
| Azure Storage Blob | 12.19.1 | Armazenamento de Ficheiros Azure Data Lake | 12.14.0 | Backcall | 0.2.0 |
| preto | 23.3.0 | pisca-pisca | 1.4 | Boto3 | 1.34.39 |
| Botocore | 1.34.39 | Ferramentas de cache | 5.3.3 | certifi | 2023.7.22 |
| CFFI | 1.15.1 | Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 |
| clicar | 8.0.4 | Cloudpickle | 2.2.1 | Comm | 0.1.2 |
| contorno | 1.0.5 | criptografia | 41.0.3 | ciclista | 0.11.0 |
| Quisto | 0.29.32 | Databricks-SDK | 0.20.0 | dbus-python | 1.2.18 |
| depuração | 1.6.7 | decorador | 5.1.1 | Distlib | 0.3.8 |
| pontos de entrada | 0.4 | execução | 0.8.3 | facetas-visão geral | 1.1.1 |
| bloqueio de arquivo | 3.13.4 | Fonttools | 4.25.0 | GitDB | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | Google-Auth | 2.31.0 |
| google-nuvem-core | 2.4.1 | google-nuvem-armazenamento | 2.17.0 | Google-CRC32C | 1.5.0 |
| google-retomable-media | 2.7.1 | googleapis-comuns-protos | 1.63.2 | Grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | IDNA | 3.4 |
| importlib-metadados | 6.0.0 | ipyflow-núcleo | 0.0.198 | Ipykernel | 6.25.1 |
| IPython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Isodato | 0.6.1 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
| JmesPath | 0.10.0 | Joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | porta-chaves | 23.5.0 | Kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| Matplotlib | 3.7.2 | matplotlib-em linha | 0.1.6 | mlflow-magro | 2.11.4 |
| mais-itertools | 8.10.0 | mypy-extensões | 0.4.3 | Ninho-Asyncio | 1.5.6 |
| dormência | 1.23.5 | OAuthlib | 3.2.0 | embalagem | 23.2 |
| pandas | 1.5.3 | Parso | 0.8.3 | PathSpec | 0.10.3 |
| vítima | 0.5.3 | Espere | 4.8.0 | pickleshare | 0.7.5 |
| Travesseiro | 9.4.0 | pip (o gestor de pacotes do Python) | 23.2.1 | plataformadirs | 3.10.0 |
| enredo | 5.9.0 | kit de ferramentas de prompt | 3.0.36 | Proto-Plus | 1.24.0 |
| Protobuf | 4.24.1 | PSUTIL | 5.9.0 | PSYCOPG2 | 2.9.3 |
| ptyprocess | 0.7.0 | puro-eval | 0.2.2 | Pyarrow | 14.0.1 |
| Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 | Pyccolo | 0.0.52 |
| Pycparser | 2.21 | Pidântico | 1.10.6 | Pigmentos | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | Pyodbc | 4.0.39 |
| Pyparsing | 3.0.9 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
| Pytz | 2022.7 | PyYAML | 6,0 | Pyzmq | 23.2.0 |
| pedidos | 2.31.0 | RSA | 4,9 | s3transferir | 0.10.2 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.3.0 | SciPy | 1.11.1 | nascido no mar | 0.12.2 |
| Armazenamento Secreto | 3.3.1 | Ferramentas de configuração | 68.0.0 | seis | 1.16.0 |
| smmap | 5.0.1 | SQLPARSE | 0.5.0 | ssh-import-id | 5.11 |
| dados de pilha | 0.2.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.0 | tenacidade | 8.2.2 |
| ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
| traços | 5.7.1 | typing_extensions (extensões de digitação) | 4.10.0 | tzdata | 2022.1 |
| Ujson | 5.4.0 | Upgrades autônomos | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.24.2 | wadllib | 1.3.6 | largura de wc | 0.2.5 |
| wheel | 0.38.4 | zipp | | 3.11.0 |
Bibliotecas R instaladas
As bibliotecas de R são instaladas a partir do instantâneo CRAN fornecido pelo Posit Package Manager em 2024-02-05: https://packagemanager.posit.co/cran/2024-02-05/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 14.0.0.2 | AskPass | 1.2.0 | asserçãoat | 0.2.1 |
| Retroportagens | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | pouco | 4.0.5 | bit64 | 4.0.5 |
| Bitops | 1.0-7 | blob | 1.2.4 | arranque | 1.3-28 |
| fabricação de cerveja | 1.0-10 | Brio | 1.1.4 | vassoura | 1.0.5 |
| BSLIB | 0.6.1 | cachemira | 1.0.8 | Chamador | 3.7.3 |
| acento circunflexo | 6.0-94 | Cellranger | 1.1.0 | crono | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.2 | Clipr | 0.8.0 |
| relógio | 0.7.0 | cluster | 2.1.4 | CodeTools | 0.2-19 |
| espaço em cores | 2.1-0 | marca comum | 1.9.1 | compilador | 4.3.2 |
| configuração | 0.3.2 | conflituosos | 1.2.0 | CPP11 | 0.4.7 |
| lápis de cor | 1.5.2 | credenciais | 2.0.1 | encaracolar | 5.2.0 |
| tabela de dados | 1.15.0 | conjuntos de dados | 4.3.2 | DBI | 1.2.1 |
| DBPlyr | 2.4.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.34 |
| Iluminação reduzida | 0.4.3 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| E1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.23 |
| Fãsi | 1.0.6 | Farver | 2.1.1 | mapa rápido | 1.1.1 |
| fontawesome | 0.5.2 | FORCATS | 1.0.0 | para cada | 1.5.2 |
| externa | 0.8-85 | forjar | 0.2.0 | FS | 1.6.3 |
| Futuro | 1.33.1 | futuro.apply | 1.11.1 | gargarejo | 1.5.2 |
| genérico | 0.1.3 | Gert | 2.0.1 | GGPLOT2 | 3.4.4 |
| GH | 1.4.0 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
| GLMNET | 4.1-8 | Globais | 0.16.2 | colar | 1.7.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.3.2 | grDispositivos | 4.3.2 | grelha | 4.3.2 |
| gridExtra | 2.3 | GSUBFN | 0,7 | GT | 0.10.1 |
| tabela g | 0.3.4 | capacete | 1.3.1 | Refúgio | 2.5.4 |
| mais alto | 0.10 | HMS | 1.1.3 | htmltools | 0.5.7 |
| htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.14 | HTTR | 1.4.7 |
| HTTR2 | 1.0.0 | IDs | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | Isoband | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
| KernSmooth | 2.23-21 | Knitr | 1,45 | etiquetagem | 0.4.3 |
| mais tarde | 1.3.2 | treliça | 0.21-8 | lave | 1.7.3 |
| ciclo de vida | 1.0.4 | ouvirv | 0.9.1 | lubridato | 1.9.3 |
| Magrittr | 2.0.3 | Marcação | 1.12 | MASSA | 7.3-60 |
| Matriz | 1.5-4.1 | memorização | 2.0.1 | métodos | 4.3.2 |
| MGCV | 1.8-42 | mímica | 0,12 | miniUI | 0.1.1.1 |
| Mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
| Munsell | 0.5.0 | NLME | 3.1-163 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.1.1 | paralelo | 4.3.2 |
| Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogiar | 1.0.0 |
| unidades bonitas | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
| Prodlim | 2023.08.28 | Profvis | 0.3.8 | Progresso | 1.2.3 |
| progressor | 0.14.0 | promessas | 1.2.1 | prototipo | 1.0.0 |
| proxy | 0.4-27 | PS | 1.7.6 | ronronar | 1.0.2 |
| R6 | 2.5.1 | RAGG | 1.2.7 | Floresta Aleatória | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactável | 0.4.4 |
| reactR | 0.5.0 | Leitor | 2.1.5 | ReadXL | 1.4.3 |
| receitas | 1.0.9 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.4.2.1 | Reprex | 2.1.0 | remodelar2 | 1.4.4 |
| Rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
| oxigénio2 | 7.3.1 | rpart (função de partição recursiva em R) | 4.1.21 | rprojroot | 2.0.4 |
| Reserva | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversões | 2.1.2 | Rvest | 1.0.3 | Sass | 0.4.8 |
| escalas | 1.3.0 | seletor | 0.4-2 | Informação da sessão | 1.2.2 |
| forma | 1.4.6 | brilhante | 1.8.0 | ferramentas de origem | 0.1.7-1 |
| Brilho | 1.8.4 | espacial | 7.3-15 | estrias | 4.3.2 |
| sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.3.2 |
| estatísticas4 | 4.3.2 | string | 1.8.3 | stringr | 1.5.1 |
| sobrevivência | 3.5-5 | Charme | 3.33.1 | Sistema | 3.4.2 |
| fontes do sistema | 1.0.5 | tcltk (uma linguagem de programação) | 4.3.2 | testeatat | 3.2.1 |
| formatação de texto | 0.3.7 | Tibble | 3.2.1 | Tidyr | 1.3.1 |
| arrumadoselecionar | 1.2.0 | Tidyverse | 2.0.0 | mudança de hora | 0.3.0 |
| data e hora | 4032.109 | Tinytex | 0.49 | ferramentas | 4.3.2 |
| TZDB | 0.4.0 | verificador de URL | 1.0.1 | usethis | 2.2.2 |
| UTF8 | 1.2.4 | utilitários | 4.3.2 | Identificador Único Universal (UUID) | 1.2-0 |
| V8 | 4.4.1 | VCTRS | 0.6.5 | viridisLite | 0.4.2 |
| vruum | 1.6.5 | Waldo | 0.5.2 | vibrissas | 0.4.1 |
| murchar | 3.0.0 | xfun | 0.41 | XML2 | 1.3.6 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
| Zeallot | 0.1.0 | ZIP | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.610 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.610 |
| com.amazonaws | aws-java-sdk-core | 1.12.610 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.610 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
| com.amazonaws | aws-java-sdk-efs | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
| com.amazonaws | aws-java-sdk-emr | 1.12.610 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-glue | 1.12.610 |
| com.amazonaws | aws-java-sdk-iam | 1.12.610 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
| com.amazonaws | aws-java-sdk-kms | 1.12.610 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
| com.amazonaws | aws-java-sdk-logs | 1.12.610 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.610 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
| com.amazonaws | aws-java-sdk-rds | 1.12.610 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.610 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
| com.amazonaws | AWS Java SDK para SES | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
| com.amazonaws | aws-java-sdk-sns | 1.12.610 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.610 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.610 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.610 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
| com.amazonaws | jmespath-java | 1.12.610 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | jackson-anotações | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/2026 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | ICU4J | 75.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.4.3 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | Lapack | | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.25 |
| IO.Delta | delta-compartilhamento-client_2.12 | 1.1.1 |
| io.dropwizard.metrics | métricas-anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.netty | netty-tudo | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-meias | 4.1.96.Final |
| io.netty | netty-comum | 4.1.96.Final |
| io.netty | netty-manipulador | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Janelas finais x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | transporte de rede | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.96.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | picles | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de seta | 15.0.0 |
| org.apache.arrow | seta-memória-núcleo | 15.0.0 |
| org.apache.arrow | seta-memória-netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | AVRO-IPC | 1.11.3 |
| org.apache.avro | avro-mapeado | 1.11.3 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | curador-receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | colmeia-lamp-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-modelo-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-núcleo | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-calços | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações de audiência | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.3 |
| org.apache.zookeeper | zookeeper-juta | 3.6.3 |
| org.checkerframework | verificador-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-coleções | 11.1.0 |
| org.eclipse.collections | eclipse-collections-API | 11.1.0 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.píer | Molhe IO | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | Segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey comum | 2.40 |
| org.glassfish.jersey.core | servidor de jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mlflow | mlflow-spark_2,12 | 2.9.1 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 8.11.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | SLF4J-Simples | 1.7.25 |
| org.threeten | trêsdez-extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | mosca-selvagem-openssl | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |