Partilhar via


Databricks Tempo de execução 15.4 LTS

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 15.4 LTS, alimentado pelo Apache Spark 3.5.0.

A Databricks lançou esta versão em agosto de 2024.

Nota

LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.

Gorjeta

Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.

Mudanças comportamentais

Usar a VARIANT como o tipo de entrada ou saída com um Python UDF, UDAF ou UDTF gera uma exceção

[Alteração significativa] No Databricks Runtime 15.3 e versões superiores, chamar qualquer função definida pelo utilizador (UDF), função de agregação definida pelo utilizador (UDAF), ou função de tabela definida pelo utilizador (UDTF) que utiliza um tipo VARIANT como argumento ou valor de retorno gera uma exceção. Essa alteração é feita para evitar problemas que podem ocorrer devido a um valor inválido retornado por uma dessas funções. Para saber mais sobre o VARIANT tipo, consulte Usar VARIANTES para armazenar dados semiestruturados.

spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão

spark.sql.legacy.jdbc.useNullCalendar agora está definido como true por padrão. Se essa alteração quebrar suas consultas (como aquelas que retornam TIMESTAMP valores), defina-a como false em seu código.

Alterar para o modo de vinculação de esquema padrão para modos de exibição

As exibições agora se adaptam às alterações de esquema na consulta subjacente usando o ajuste de esquema com regras de conversão regulares. Esta é uma alteração em relação ao padrão anterior do modo, que gerava erros quando uma transmissão segura não podia ser executada BINDING ao fazer referência à exibição.

Consulte CREATE VIEW e função cast.

Não permitir o uso da sintaxe não documentada ! em vez de NOT expressões booleanas externas

Com esta versão, o uso de ! como sinônimo para NOT fora de expressões booleanas não é mais permitido. Por exemplo, afirmações como as seguintes: CREATE ... IF ! EXISTS, IS ! NULL, uma coluna ! NULL ou propriedade de campo, ! IN e ! ENTRE, devem ser substituídas por: CREATE ... IF NOT EXISTS, IS NOT NULL, uma coluna NOT NULL ou propriedade de campo, NOT IN e NOT BETWEEN.

Essa alteração garante consistência, alinha-se com o padrão SQL e torna seu SQL mais portátil.

O operador! de prefixo booleano (por exemplo, !is_mgr ou !(true AND false)) não é afetado por essa alteração.

Não permitir sintaxe de definição de coluna não documentada em modos de exibição

O Databricks suporta CREATE VIEW com colunas nomeadas e comentários de coluna. Anteriormente, a especificação de tipos de coluna, restrições de NOT NULL ou DEFAULT era permitida. Com esta versão, você não pode mais usar essa sintaxe.

Essa alteração garante consistência, alinha-se com o padrão SQL e oferece suporte a aprimoramentos futuros.

Tratamento consistente de erros para decodificação Base64 no Spark e Photon

Esta versão altera como o Photon lida com erros de decodificação Base64 para corresponder ao tratamento Spark desses erros. Antes dessas alterações, o caminho de geração de código do Photon e do Spark às vezes falhava em gerar exceções de análise, enquanto o Spark interpretava a execução corretamente gerada IllegalArgumentException ou ConversionInvalidInputError. Esta atualização garante que o Photon gere consistentemente as mesmas exceções que o Spark durante erros de decodificação Base64, fornecendo tratamento de erros mais previsível e confiável.

Adicionar uma restrição de CHECK numa coluna inválida agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION

Para fornecer mensagens de erro mais úteis, no Databricks Runtime 15.3 e superior, uma instrução ALTER TABLE ADD CONSTRAINT que inclua uma restrição CHECK que faça referência a um nome de coluna inválido retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION. Anteriormente, um INTERNAL_ERROR foi devolvido.

spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão

### spark.sql.legacy.jdbc.useNullCalendar agora está definido como true a configuração padrão. Se essa alteração quebrar suas consultas (como aquelas que retornam TIMESTAMP valores), defina-a como false em seu código.

pyodbc é atualizado de 4.0.38 para 4.0.39

O pacote pyodbc é atualizado da versão 4.0.38 para a versão 4.0.39. Esta alteração é necessária porque um bug foi encontrado na versão 4.0.38 e essa versão foi removida do PyPI.

Novos recursos e melhorias

Funções de validação UTF-8

Esta versão apresenta as seguintes funções para validar cadeias de caracteres UTF-8:

  • is_valid_utf8 verificado se uma cadeia de caracteres é uma cadeia de caracteres UTF-8 válida.
  • make_valid_utf8 converte uma cadeia de caracteres UTF-8 potencialmente inválida em uma cadeia de caracteres UTF-8 válida usando caracteres de substituição
  • validate_utf8 gera um erro se a entrada não for uma cadeia de caracteres UTF-8 válida.
  • try_validate_utf8 retorna NULL se a entrada não for uma cadeia de caracteres UTF-8 válida.

APIs de conjunto de dados tipadas com UDFs Scala

Esta versão adiciona suporte para APIs de conjunto de dados tipadas com funções definidas pelo usuário em Scala (excluindo funções agregadas definidas pelo usuário) em computação com o Unity Catalog habilitado no modo de acesso padrão (anteriormente modo de acesso compartilhado). Consulte APIs de conjunto de dados tipadas.

Habilite o UniForm Iceberg usando ALTER TABLE

Agora você pode habilitar o UniForm Iceberg em tabelas existentes sem reescrever arquivos de dados. Consulte Ativar leituras do Iceberg numa tabela existente.

try_url_decode função

Esta versão apresenta a função try_url_decode, que decodifica uma cadeia de caracteres codificada por URL. Se a cadeia de caracteres não estiver no formato correto, a função retornará NULL em vez de gerar um erro.

Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não impostas

Para melhorar o desempenho das consultas, já é possível especificar o termo RELY nas restrições de FOREIGN KEY quando CREATE ou ALTER uma tabela.

Execuções de trabalho paralelizadas para substituições seletivas

As substituições seletivas usando replaceWhere agora executam trabalhos que excluem dados e inserem novos dados em paralelo, melhorando o desempenho das consultas e a utilização do cluster.

Desempenho aprimorado para feed de dados de alteração com substituições seletivas

As substituições seletivas usando replaceWhere em tabelas que utilizam feed de dados de alterações já não criam arquivos de dados de alteração separados para os dados inseridos. Essas operações usam uma coluna _change_type oculta presente nos arquivos de dados subjacentes do Parquet para registrar alterações sem causar amplificação de escrita.

Latência de consulta melhorada para o COPY INTO comando

Esta versão inclui uma alteração que melhora a latência de consulta para o COPY INTO comando. Essa melhoria é implementada tornando o carregamento do estado pelo armazenamento de estado RocksDB assíncrono. Com essa alteração, você verá uma melhoria nos tempos de início para consultas com estados grandes, como consultas com um grande número de arquivos já ingeridos.

Suporte para descartar o recurso de tabela de restrições de verificação

Agora pode remover a funcionalidade de tabela checkConstraints de uma tabela Delta usando ALTER TABLE table_name DROP FEATURE checkConstraints. Consulte Desativar restrições de verificação.

A computação dedicada (anteriormente computação de usuário único) suporta controle de acesso refinado, exibições materializadas e tabelas de streaming (Visualização pública)

Quando um espaço de trabalho está habilitado para computação sem servidor, o Databricks Runtime 15.4 LTS adiciona suporte para controle de acesso refinado em computação dedicada. Quando uma consulta acessa qualquer um dos seguintes objetos, o recurso de computação dedicado no Databricks Runtime 15.4 LTS passa a consulta para a computação sem servidor para executar a filtragem de dados:

  • Vistas definidas em tabelas nas quais o utilizador não tem o privilégio SELECT.
  • Vistas dinâmicas.
  • Tabelas com filtros de linha ou máscaras de coluna aplicadas.
  • Visualizações materializadas e tabelas de streaming.

Essas consultas não são suportadas em computação dedicada que executa o Databricks Runtime 15.3 e inferior.

Para obter mais informações, consulte Controle de acesso refinado em computação dedicada.

Suporte expandido para bibliotecas Java e Scala

A partir do Databricks Runtime 15.4 LTS, todas as bibliotecas Java e Scala empacotadas com o Databricks Runtime estão disponíveis em todos os modos de acesso de computação quando você usa o Unity Catalog. Para saber mais sobre o suporte a idiomas na computação habilitada para Unity Catalog, consulte Requisitos e limitações de computação padrão.

Suporte expandido para operações de conjunto de dados Scala

Com esta versão, os recursos de computação habilitados para Unity Catalog que usam o modo de acesso padrão suportam as Dataset seguintes operações Scala: map, mapPartitions, foreachPartition, flatMapreducee filter.

Scala é GA na computação padrão do Unity Catalog

Com esta versão, o Scala está geralmente disponível no modo de acesso padrão Unity Catalog-enabled compute, incluindo suporte para funções escalares definidas pelo usuário (UDFs). Não há suporte para Streaming estruturado, UDFs do Hive e funções agregadas definidas pelo usuário do Hive. Para obter uma lista completa de limitações, consulte Requisitos e limitações de computação padrão.

Acesso controlado pelo catálogo Unity a serviços de nuvem externos usando credenciais de serviço (Visualização pública)

As credenciais de serviço permitem uma autenticação simples e segura com os serviços do locatário de nuvem usando identidades gerenciadas do Azure (MI) e o Catálogo Unity. Consulte Criar credenciais de serviço.

Correções de erros

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • azure-core de 1.30.1 a 1.30.2
    • google-auth de 2.29.0 a 2.31.0
    • google-cloud-storage de 2.16.0 a 2.17.0
    • google-retomable-media de 2.7.0 a 2.7.1
    • googleapis-common-protos de 1.63.0 a 1.63.2
    • mlflow-skinny de 2.11.3 a 2.11.4
    • proto-plus de 1.23.0 a 1.24.0
    • s3transfer de 0.10.1 a 0.10.2
  • Bibliotecas R atualizadas:
  • Bibliotecas Java atualizadas:
    • com.databricks.databricks-sdk-java de 0.17.1 a 0.27.0
    • com.ibm.icu.icu4j de 72.1 a 75.1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.1-linux-x86_64 para 1.6.2-linux-x86_64

Apache Spark

O Databricks Runtime 15.4 LTS inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.3 (EoS), além das seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [SPARK-48503] [DBRRM-1150][sc-172196][SQL] Permitir o agrupamento de expressões em subconsultas escalares, se elas estiverem vinculadas a linhas externas
  • [SPARK-48834] [BEHAVE-79][sc-170972][SQL] Desativar a entrada/saída variante para UDFs, UDTFs, UDAFs escalares em python durante a compilação da consulta
  • [SPARK-48441] [SC-170980][sql][WARMFIX] Corrigir o comportamento do StringTrim para agrupamentos não UTF8_BINARY
  • [SPARK-48440] [SC-170895][sql][WARMFIX] Corrigir o comportamento do StringTranslate para agrupamentos não UTF8_BINARY
  • [SPARK-48872] [SC-170866][python] Reduza a sobrecarga de _capture_call_site
  • [SPARK-48862] [SC-170845][python][CONNECT] Evite ligar _proto_to_string quando o nível INFO não estiver ativado
  • [SPARK-48852] [SC-170837][connect] Corrigir função de corte de string na conexão
  • [SPARK-48791] [SC-170658][core] Corrija a regressão perf causada pela sobrecarga de registro dos acumuladores usando CopyOnWriteArrayList
  • [FAÍSCA-48118] [SQL] Suporte SPARK_SQL_LEGACY_CREATE_HIVE_TABLE env variável
  • [SPARK-48241] [SC-165811][sql] Falha de análise CSV com colunas do tipo char/varchar
  • [SPARK-48168] [SC-166900][sql] Adicionar suporte a operadores de deslocamento bit a bit
  • [SPARK-48148] [SC-165630][core] Os objetos JSON não devem ser modificados quando lidos como STRING
  • [SPARK-46625] [SC-170561] CTE com cláusula de identificador como referência
  • [SPARK-48771] [SC-170546][sql] Otimizar LogicalPlanIntegrity.validateExprIdUniqueness para planos de consulta grandes
  • [SPARK-48831] [BEHAVE-76][sc-170554][CONNECT] Fazer o nome padrão da coluna cast compatível com o Spark Classic
  • [SPARK-48623] [SC-170544][core] Migrações de log estruturado [Parte 2]
  • [SPARK-48296] [SC-166138][sql] Suporte de Codegen para to_xml
  • [SPARK-48027] [SC-165154][sql] InjectRuntimeFilter para associação de vários níveis deve verificar o tipo de associação filha
  • [SPARK-48686] [SC-170365][sql] Melhorar o desempenho de ParserUtils.unescapeSQLString
  • [SPARK-48798] [SC-170588][python] Introdução spark.profile.render para criação de perfil baseada em SparkSession
  • [SPARK-48048] [SC-169099] Reverter "[SC-164846][connect][SS] Adicionado suporte de ouvinte do lado do cliente para Scala"
  • [SPARK-47910] [SC-168929][core] fechar fluxo quando DiskBlockObjectWriter fechaRecursos para evitar vazamento de memória
  • [SPARK-48816] [SC-170547][sql] Abreviação para conversores de intervalo no UnivocityParser
  • [SPARK-48589] [SC-170132][sql][SS] Adicionar opção snapshotStartBatchId e snapshotPartitionId à fonte de dados de estado
  • [SPARK-48280] [SC-170293][sql] Melhore a área de superfície de teste de agrupamento usando a caminhada de expressão
  • [SPARK-48837] [SC-170540][ml] No CountVectorizer, leia apenas o parâmetro binário uma vez por transformação, não uma vez por linha
  • [SPARK-48803] [SC-170541][sql] Lançar erro interno no Orc(De)serializer para alinhar com ParquetWriteSupport
  • [SPARK-48764] [SC-170129][python] Filtrando frames relacionados com IPython da pilha de usuários
  • [SPARK-48818] [SC-170414][python] Simplifique percentile funções
  • [SPARK-48479] [SC-169079][sql] Suporte à criação de UDFs SQL escalares e de tabela no analisador
  • [SPARK-48697] [SC-170122][lc-4703][SQL] Adicionar filtros de cadeia de caracteres com reconhecimento de agrupamento
  • [SPARK-48800] [SC-170409][connect][SS] Deflake ClientStreamingQuerySuite
  • [SPARK-48738] [SC-169814][sql] Correção do número da versão para a funcionalidade integrada alias random, position, mod, cardinality, current_schema, user, session_user, char_length, character_length
  • [SPARK-48638] [SC-169575][connect] Adicionar suporte ExecutionInfo para DataFrame
  • [SPARK-48064] [SC-164697][sql] Atualizar mensagens de erro para classes de erro associadas a rotinas
  • [FAÍSCA-48810] [CONECTAR] A API Session stop() deve ser idempotente e não falhar se a sessão já estiver fechada pelo servidor
  • [SPARK-48650] [15.x][python] Exibir o site de chamada correto do IPython Notebook
  • [SPARK-48271] [SC-166076][sql] Converta o erro de correspondência no RowEncoder em UNSUPPORTED_DATA_TYPE_FOR_ENCODER
  • [SPARK-48709] [SC-169603][sql] Corrigir incompatibilidade de resolução de tipo varchar para DataSourceV2 CTAS
  • [SPARK-48792] [SC-170335][sql] Corrigir regressão para INSERT com lista de colunas parciais para uma tabela com char/varchar
  • [SPARK-48767] [SC-170330][sql] Corrija alguns prompts de erro quando variant os dados de tipo são inválidos
  • [SPARK-48719] [SC-170339][sql] Corrija o bug de cálculo de RegrSlope & RegrIntercept quando o primeiro parâmetro é nulo
  • [SPARK-48815] [SC-170334][connect] Atualize o ambiente ao parar a sessão de conexão
  • [SPARK-48646] [SC-169020][python] Refine docstrings e dicas de tipo da API da fonte de dados em Python
  • [SPARK-48806] [SC-170310][sql] Passar a exceção real quando a função url_decode falha
  • [FAÍSCA-47777] [SC-168818] corrigir python streaming fonte de dados teste de conexão
  • [SPARK-48732] [SC-169793][sql] Limpeza do uso de API preterida relacionada a JdbcDialect.compileAggregate
  • [SPARK-48675] [SC-169538][sql] Corrigir tabela de cache com coluna agrupada
  • [SPARK-48623] [SC-169034][core] Migrações de registos estruturados
  • [SPARK-48655] [SC-169542][sql] SPJ: Adicionar testes para shuffle skipping para consultas agregadas
  • [SPARK-48586] [SC-169808][ss] Remova a aquisição de bloqueio em doMaintenance() fazendo uma cópia profunda dos mapeamentos de arquivos no RocksDBFileManager em load()
  • [SPARK-48799] [Backport][15.x][SC-170283][ss] Refatoração do sistema de versionamento para a leitura/escrita de metadados do operador e processos que os chamam
  • [SPARK-48808] [SC-170309][sql] Corrija o NPE ao conectar o thriftserver através do Hive 1.2.1 e o esquema de resultado está vazio
  • [SPARK-48715] [SC-170291][sql] Integre a validação UTF8String em implementações de função de cadeia de caracteres com reconhecimento de agrupamento
  • [SPARK-48747] [SC-170120][sql] Adicionar um iterador de ponto de código à UTF8String
  • [SPARK-48748] [SC-170115][sql] Cache numChars em UTF8String
  • [SPARK-48744] [SC-169817][core] A entrada de log deve ser construída apenas uma vez
  • [SPARK-46122] [SC-164313][sql] Definido spark.sql.legacy.createHiveTableByDefault como false por padrão
  • [SPARK-48765] [SC-170119][deploy] Aprimore a avaliação de valor padrão para SPARK_IDENT_STRING
  • [SPARK-48759] [SC-170128][sql] Adicionar documento de migração para a mudança de comportamento do CREATE TABLE AS SELECT desde o Spark 3.4
  • [SPARK-48598] [SC-169484][python][CONNECT] Propagar esquema armazenado em cache em operações de dataframe
  • [SPARK-48766] [SC-170126][python] Documente a diferença de comportamento entre extractionelement_at e try_element_at
  • [SPARK-48768] [SC-170124][python][CONNECT] Não deve armazenar em cache explain
  • [SPARK-48770] [Backport][15.x][SC-170133][ss] Altere para ler os metadados do operador uma única vez no driver para verificar se podemos encontrar informação para numColsPrefixKey usado para consultas de agregação de janela de sessão
  • [SPARK-48656] [SC-169529][core] Efetuar uma verificação de comprimento e lançar o erro COLLECTION_SIZE_LIMIT_EXCEEDED em CartesianRDD.getPartitions
  • [SPARK-48597] [SC-168817][sql] Introduza um marcador para a propriedade isStreaming na representação de texto do plano lógico
  • [SPARK-48472] [SC-169044][sql] Habilitar expressões de reflexão com cadeias de caracteres agrupadas
  • [SPARK-48699] [SC-169597][sql] Refinar API de agrupamento
  • [SPARK-48682] [SC-169812][sql][BEHAVE-58] Usar ICU na expressão InitCap para cadeias de caracteres UTF8_BINARY
  • [SPARK-48282] [SC-169813][sql] Alterar a lógica de pesquisa de sequência de caracteres para ordenação UTF8_BINARY_LCASE (StringReplace, FindInSet)
  • [SPARK-47353] [SC-169599][sql] Habilitar o suporte de agrupamento para a expressão Mode
  • [SPARK-48320] [SPARK-48490] Sincronize a característica de registro mais recente e os casos de teste do OSS Spark
  • [FAÍSCA-48629] [SC-169479] Migrar o código residual para a estrutura de log estruturada
  • [SPARK-48681] [SC-169469][sql][BEHAVE-58] Use o ICU em expressões de minúsculas/maiúsculas para cadeias de caracteres UTF8_BINARY
  • [SPARK-48573] [15.x][sc-169582][SQL] Atualizar versão da UTI
  • [SPARK-48687] [Backport][15.x][SS] Adicionar alteração para executar a validação do esquema de estado e atualização no driver para consultas com estado
  • [SPARK-47579] [15.x][sc-167310][CORE][part4] Migrar logInfo com variáveis para o framework de registos estruturados
  • [FAÍSCA-48008] [SC-167363][1/2] Suporta UDAFs no Spark Connect
  • [SPARK-48578] [SC-169505][sql] adicionar funções relacionadas à validação de cadeia de caracteres UTF8
  • [SPARK-48670] [SC-169598][sql] Fornecendo sugestão como parte da mensagem de erro quando o nome de agrupamento inválido é fornecido
  • [FAÍSCA-48059] [FAÍSCA-48145][faísca-48134][FAÍSCA-48182][faísca-48209][SPA... … RK-48291] Estrutura de log estruturada no lado java
  • [SPARK-47599] [15.x][sc-166000][MLLIB] MLLib: Migrar logWarn com variáveis para o framework de logging estruturado
  • [SPARK-48706] [SC-169589][python] Python UDF em funções de ordem superior não deve lançar erro interno
  • [SPARK-48498] [BEHAVE-38][sc-168060][SQL] Sempre faça preenchimento de caracteres em predicados
  • [SPARK-48662] [SC-169533][sql] Corrigir expressão StructsToXml com agrupamentos
  • [SPARK-48482] [SC-167702][python][15.x] dropDuplicates e dropDuplicatesWIthinWatermark deve aceitar args de comprimento variável
  • [SPARK-48678] [SC-169463][core] Otimizações de desempenho para SparkConf.get(ConfigEntry)
  • [FAÍSCA-48576] [SQL] Renomear UTF8_BINARY_LCASE para UTF8_LCASE
  • [SPARK-47927] [SC-164123][sql]: Corrigir atributo de anulabilidade no decodificador UDF
  • [SPARK-47579] [SC-165297][core][PART1] Migrar logInfo com variáveis para a estrutura de log estruturada (novo)
  • [SPARK-48695] [SC-169473][python] TimestampNTZType.fromInternal não usa os métodos preteridos
  • [SPARK-48431] [SC-167290][lc-4066][SQL] Não encaminhe predicados em colunas agrupadas para leitores de arquivos
  • [SPARK-47579] Reverter “[SC-165297][core][PART1] Migrar logInfo com variáveis para o framework de logging estruturado”
  • [SPARK-47585] [SC-164306][sql] SQL core: migrar logInfo com variáveis para a estrutura de log estruturada
  • [SPARK-48466] [SC-169042][sql] Criar nó dedicado para EmptyRelation no AQE
  • [SPARK-47579] [SC-165297][core][PART1] Migrar logInfo com variáveis para a estrutura de log estruturada
  • [SPARK-48410] [SC-168320][sql] Corrigir expressão InitCap para conjuntos de agrupamento de UTF8_BINARY_LCASE & ICU
  • [SPARK-48318] [SC-167709][sql] Habilitar o suporte de junção de hash para todos os agrupamentos (tipos complexos)
  • [SPARK-48435] [SC-168128][sql] O agrupamento UNICODE não deve suportar igualdade binária
  • [SPARK-48555] [SC-169041][sql][PYTHON][connect] Suporte usando colunas como parâmetros para várias funções em pyspark/scala
  • [SPARK-48591] [SC-169081][python] Adicione uma função auxiliar para simplificar Column.py
  • [SPARK-48574] [SC-169043][sql] Corrigir suporte para StructTypes com agrupamentos
  • [SPARK-48305] [SC-166390][sql] Adicionar suporte de agrupamento para expressões CurrentLike
  • [SPARK-48342] [SC-168941][sql] Introdução do SQL Scripting Parser
  • [SPARK-48649] [SC-169024][sql] Adicione as configurações "ignoreInvalidPartitionPaths" e "spark.sql.files.ignoreInvalidPartitionPaths" para permitir ignorar caminhos de partição inválidos
  • [SPARK-48000] [SC-167194][sql] Habilitar suporte para junção por hash para todos os agrupamentos (StringType)
  • [SPARK-48459] [SC-168947][connect][PYTHON] Implementar DataFrameQueryContext no Spark Connect
  • [SPARK-48602] [SC-168692][sql] Faça com que o gerador csv suporte um estilo de saída diferente com spark.sql.binaryOutputStyle
  • [SPARK-48283] [SC-168129][sql] Modificar a comparação de strings para UTF8_BINARY_LCASE
  • [SPARK-48610] [SC-168830][sql] refatorar: usar mapa de ID auxiliar em vez de OP_ID_TAG
  • [SPARK-48634] [SC-169021][python][CONNECT] Evite inicializar estaticamente o threadpool em ExecutePlanResponseReattachableIterator
  • [SPARK-47911] [SC-164658][sql] Introduz um BinaryFormatter universal para tornar a saída binária consistente
  • [SPARK-48642] [SC-168889][core] Falsa memória insuficiente reportada pelo Spark causada por eliminar tarefa ao fazer spill
  • [SPARK-48572] [SC-168844][sql] Corrigir expressões DateSub, DateAdd, WindowTime, TimeWindow e SessionWindow
  • [SPARK-48600] [SC-168841][sql] Corrigir transmissão implícita de expressões FrameLessOffsetWindowFunction
  • [SPARK-48644] [SC-168933][sql] Faça uma verificação de comprimento e lance COLLECTION_SIZE_LIMIT_EXCEEDED erro no Hex.hex
  • [SPARK-48587] [SC-168824][variante] Evite a amplificação de armazenamento ao acessar uma subvariante
  • [SPARK-48647] [SC-168936][python][CONNECT] Refine a mensagem de erro para YearMonthIntervalType in df.collect
  • [SPARK-48307] [SC-167802][sql] InlineCTE deve manter relações não embutidas no nó WithCTE original
  • [SPARK-48596] [SC-168581][sql] Melhoria do Perf para calcular a cadeia hexadecimal por muito tempo
  • [SPARK-48621] [SC-168726][sql] Corrigir a simplificação do operador 'Like' no Optimizador para cadeias de caracteres ordenadas
  • [SPARK-47148] [SC-164179][sql] Evite materializar AQE ExchangeQueryStageExec no cancelamento
  • [SPARK-48584] [SC-168579][sql] Melhoria do Perf para unescapePathName
  • [SPARK-48281] [SC-167260][sql] Alterar lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
  • [SPARK-48577] [SC-168826][sql] Substituição inválida da sequência de bytes UTF-8
  • [SPARK-48595] [SC-168580][core] Limpeza do uso preterido de API relacionado a commons-compress
  • [SPARK-48030] [SC-164303][sql] SPJ: armazenar em cache a rowOrdering e structType para InternalRowComparableWrapper
  • [SPARK-48004] [SC-164005][sql] Adicionar característica WriteFilesExecBase para gravação v1
  • [SPARK-48551] [SC-168438][sql] Melhoria do Perf para escapePathName
  • [SPARK-48565] [SC-168437][ui] Corrigir exibição do thread dump na interface
  • [SPARK-48364] [SC-166782][sql] Adicione a transmissão do tipo AbstractMapType e corrija o mapa de parâmetros RaiseError para trabalhar com cadeias de caracteres agrupadas
  • [SPARK-48421] [SC-168689][sql] SPJ: Adicionar documentação
  • [SPARK-48604] [SC-168698][sql] Substituir chamada de método preterido new ArrowType.Decimal(precision, scale)
  • [SPARK-46947] [SC-157561][core] Atrase a inicialização do gerenciador de memória até que o plug-in do driver seja carregado
  • [SPARK-48411] [SC-168576][ss][PYTHON] Adicionar teste E2E para DropDuplicateWithinWatermark
  • [SPARK-48543] [SC-168697][ss] Rastrear falhas de validação de linha de estado usando classe de erro explícita
  • [SPARK-48221] [SC-167143][sql] Alterar a lógica de pesquisa de cadeias de caracteres para o agrupamento UTF8_BINARY_LCASE (Contém, ComeçaCom, TerminaCom, LocalizarString)
  • [SPARK-47415] [SC-168441][sql] Adicionar suporte de agrupamento para expressão Levenshtein
  • [SPARK-48593] [SC-168719][python][CONNECT] Corrigir a representação de cadeia de caracteres da função lambda
  • [SPARK-48622] [SC-168710][sql] obtenha SQLConf uma vez ao resolver nomes de colunas
  • [SPARK-48594] [SC-168685][python][CONNECT] Renomear parent campo para child in ColumnAlias
  • [SPARK-48403] [SC-168319][sql] Corrigir expressões Lower & Upper para colações UTF8_BINARY_LCASE & ICU
  • [SPARK-48162] [SC-166062][sql] Adicionar suporte de agrupamento para expressões MISC
  • [SPARK-48518] [SC-167718][core] Faça com que a compressão LZF possa ser executada em paralelo
  • [SPARK-48474] [SC-167447][core] Corrija o nome da classe do login SparkSubmitArguments & SparkSubmit
  • [SPARK-48012] [SC-168267][sql] SPJ: Suporte a expressões Transfrom para embaralhamento de um lado
  • [SPARK-48552] [SC-168212][sql] A inferência do esquema CSV multilinha também deve lançar o erro FAILED_READ_FILE
  • [SPARK-48560] [SC-168268][ss][PYTHON] Tornar possível definir StreamingQueryListener.spark
  • [SPARK-48569] [SC-168321][ss][CONNECT] Manipule casos extremos em query.name
  • [SPARK-47260] [SC-167323][sql] Atribuir nome à classe de erro _LEGACY_ERROR_TEMP_3250
  • [SPARK-48564] [SC-168327][python][CONNECT] Propagar esquema armazenado em cache em operações definidas
  • [SPARK-48155] [SC-165910][sql] AQEPropagateEmptyRelation para join deve verificar se o filho remanescente é apenas BroadcastQueryStageExec
  • [SPARK-48506] [SC-167720][core] Os nomes curtos do codec de compressão não diferenciam maiúsculas de minúsculas, exceto para o registo de eventos
  • [SPARK-48447] [SC-167607][ss] Verifique a classe do provedor de armazenamento de estado antes de invocar o construtor
  • [FAÍSCA-47977] [SC-167650] DateTimeUtils.timestampDiff e DateTimeUtils.timestampAdd não devem lançar INTERNAL_ERROR exceção
  • [SPARK-48513] [Backport][15.x][SC-168085][ss] Adicionar classe de erro para compatibilidade de esquema de estado e refatoração menor
  • [SPARK-48413] [SC-167669][sql] ALTER COLUMN com ordenação
  • [SPARK-48561] [SC-168250][ps][CONNECT] Lançar PandasNotImplementedError para funções de plotagem não suportadas
  • [SPARK-48465] [SC-167531][sql] Evite no-op propagação de relação vazia
  • [SPARK-48553] [SC-168166][python][CONNECT] Armazenar em cache mais propriedades
  • [SPARK-48540] [SC-168069][core] Evitar carregar as definições de output do ivy para stdout
  • [SPARK-48535] [SC-168057][ss] Atualizar a documentação de configuração para indicar a possibilidade de perda ou corrupção de dados, caso a opção de ignorar nulos nas configurações de junção stream-stream esteja ativada.
  • [SPARK-48536] [SC-168059][python][CONNECT] Esquema especificado pelo usuário de cache em applyInPandas e applyInArrow
  • [SPARK-47873] [SC-163473][sql] Escreva cadeias de caracteres agrupadas no metastore do Hive usando o tipo de cadeia de caracteres regular
  • [SPARK-48461] [SC-167442][sql] Substitua NullPointerExceptions pela classe de erro na expressão AssertNotNull
  • [SPARK-47833] [SC-163191][sql][CORE] Fornecer stacktrace do chamador para checkAndGlobPathIfNecessary AnalysisException
  • [SPARK-47898] [SC-163146][sql] Porta HIVE-12270: Adicionar suporte DBTokenStore ao token de delegação HS2
  • [SPARK-47578] [SC-167497][r] Migrar RPackageUtils com variáveis para a estrutura de log estruturada
  • [SPARK-47875] [SC-162935][core] Remover spark.deploy.recoverySerializer
  • [SPARK-47552] [SC-160880][core] Defina spark.hadoop.fs.s3a.connection.establish.timeout para 30s caso esteja ausente
  • [SPARK-47972] [SC-167692][sql] Restringir expressão CAST para agrupamentos
  • [SPARK-48430] [SC-167489][sql] Corrigir a extração do valor do mapa quando o mapa contém cadeias de caracteres agrupadas
  • [SPARK-47318] [SC-162712][core][3.5] Adiciona uma rodada do HKDF à derivação de chave do AuthEngine para seguir as práticas padrão de KEX
  • [SPARK-48503] [BEHAVE-29][es-1135236][SQL] Corrigir subconsultas escalares inválidas com group-by em colunas não equivalentes que foram permitidas incorretamente
  • [SPARK-48508] [SC-167695][connect][PYTHON] Esquema especificado pelo usuário de cache em DataFrame.{to, mapInPandas, mapInArrow}
  • [SPARK-23015] [SC-167188][windows] Corrigir bug no Windows em que iniciar várias instâncias do Spark no mesmo segundo causa uma falha
  • [FAÍSCA-45891] [SC-167608]Reverter " Descrever esquema de destruição para variante"
  • [SPARK-48391] [SC-167554][core]Usando addAll em vez de adicionar função no método fromAccumulatorInfos da classe TaskMetrics
  • [SPARK-48496] [SC-167600][core] Usar instâncias de padrão regex estático em JavaUtils.timeStringAs e JavaUtils.byteStringAs
  • [SPARK-48476] [SC-167488][sql] corrigir mensagem de erro NPE para null delmiter csv
  • [SPARK-48489] [SC-167598][sql] Lançar um erro melhor, voltado para o utilizador ao ler um esquema ilegal da fonte de dados de texto
  • [SPARK-48471] [SC-167324][core] Melhorar a documentação e o guia de uso do servidor de histórico
  • [FAÍSCA-45891] [SC-167597] Descrever o esquema de destruição para Variant
  • [SPARK-47333] [SC-159043][sql] Usar checkInputDataTypes para verificar os tipos de entrada da função to_xml
  • [SPARK-47387] [SC-159310][sql] Remover algumas classes de erro não utilizadas
  • [SPARK-48265] [ES-1131440][sql] Inferir que o lote de limite de grupo da janela deve realizar a dobra constante
  • [SPARK-47716] [SC-167444][sql] Evitar conflito de nome de exibição no caso de teste de classificação semântica SQLQueryTestSuite
  • [SPARK-48159] [SC-167141][sql] Estendendo o suporte para cadeias de caracteres agrupadas em expressões datetime
  • [SPARK-48462] [SC-167271][sql][Testes] Use withSQLConf em testes: Refactor HiveQuerySuite e HiveTableScanSuite
  • [SPARK-48392] [SC-167195][core] Também carrega spark-defaults.conf quando fornecido --properties-file
  • [FAÍSCA-48468] [SC-167417] Adicionar interface LogicalQueryStage no catalyst
  • [SPARK-47578] [SC-164988][core] Backport manual para o Spark PR #46309: Migrar logWarning com variáveis para o sistema de registo estruturado
  • [FAÍSCA-48415] [SC-167321]Reverter "[PYTHON] Refactor TypeName para suportar tipos de dados parametrizados"
  • [SPARK-46544] [SC-151361][sql] Suporte v2 DESCRIBE TABLE ESTENDIDO com estatísticas de tabela
  • [SPARK-48325] [SC-166963][core] Sempre especifique mensagens em ExecutorRunner.killProcess
  • [SPARK-46841] [SC-167139][sql] Adicionar suporte de agrupamento para localidades de UTI e especificadores de agrupamento
  • [SPARK-47221] [SC-157870][sql] Usa assinaturas de CsvParser para AbstractParser
  • [SPARK-47246] [SC-158138][sql] Substitua InternalRow.fromSeq por new GenericInternalRow para salvar uma conversão de coleção
  • [SPARK-47597] [SC-163932][streaming] Backport manual para o Spark PR #46192: Streaming: Migrar logInfo com variáveis para a estrutura de log estruturada
  • [SPARK-48415] [SC-167130][python] Refatorar TypeName para suportar tipos de dados parametrizados
  • [SPARK-48434] [SC-167132][python][CONNECT] Faça printSchema uso do esquema armazenado em cache
  • [SPARK-48432] [ES-1097114][sql] Evitar o unboxing de inteiros no UnivocityParser
  • [SPARK-47463] [SC-162840][sql] Use V2Predicado para encapsular a expressão com o tipo de retorno de booleano
  • [SPARK-47781] [SC-162293][sql] Manipular decimais de escala negativa para fontes de dados JDBC
  • [SPARK-48394] [SC-166966][core] Limpeza de mapIdToMapIndex na desregistração de mapoutput
  • [SPARK-47072] [SC-156933][sql] Corrigir formatos de intervalo suportados em mensagens de erro
  • [SPARK-47001] [SC-162487][sql] Verificação de pushdown no otimizador
  • [SPARK-48335] [SC-166387][python][CONNECT] Tornar _parse_datatype_string compatível com o Spark Connect
  • [SPARK-48329] [SC-166518][sql] Ativar spark.sql.sources.v2.bucketing.pushPartValues.enabled por padrão
  • [SPARK-48412] [SC-166898][python] Reestruturar o tipo de dados na análise do JSON
  • [SPARK-48215] [SC-166781][sql] Estendendo o suporte para cadeias de caracteres agrupadas em date_format expressão
  • [SPARK-45009] [SC-166873][sql][FOLLOW UP] Adicionar uma classe de erro e testes para descorrelação de subconsultas de predicado na condição de junção que fazem referência a ambos os filhos de junção
  • [SPARK-47960] [SC-165295][ss][15.x] Permite encadear outros operadores com estado após o operador transformWithState.
  • [SPARK-48340] [SC-166468][python] Suporte TimestampNTZ infer schema miss prefer_timestamp_ntz
  • [SPARK-48157] [SC-165902][sql] Adicionar suporte de agrupamento para expressões CSV
  • [SPARK-48158] [SC-165652][sql] Adicionar suporte de agrupamento para expressões XML
  • [SPARK-48160] [SC-166064][sql] Adicionar suporte de agrupamento para expressões XPATH
  • [SPARK-48229] [SC-165901][sql] Adicionar suporte de agrupamento para expressões inputFile
  • [SPARK-48367] [SC-166487][connect] Corrigir o lint-scala para scalafmt a fim de detetar corretamente os ficheiros a formatar.
  • [SPARK-47858] [SC-163095][spark-47852][PYTHON][sql] Refatoração da estrutura para contexto de erro DataFrame
  • [SPARK-48370] [SC-166787][connect] Checkpoint e localCheckpoint no cliente Scala Spark Connect
  • [SPARK-48247] [SC-166028][python] Use todos os valores em um ditado ao inferir o esquema MapType
  • [SPARK-48395] [SC-166794][python] Correção StructType.treeString para tipos parametrizados
  • [SPARK-48393] [SC-166784][python] Mover um grupo de constantes para pyspark.util
  • [SPARK-48372] [SC-166776][spark-45716][PYTHON] Implementar StructType.treeString
  • [SPARK-48258] [SC-166467][python][CONNECT] Ponto de verificação e localCheckpoint no Spark Connect

Consulte Atualizações de manutenção do Databricks Runtime 15.4 LTS.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 22.04.4 LTS
    • Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
  • Java : Zulu 8.78.0.19-CA-linux64
  • Escala: 2.12.15
  • Píton: 3.11.11
  • R: 4.3.2
  • Lago Delta: 3.2.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AstTokens 2.0.5 Astunparse 1.6.3 azure-core 1.30.2
Azure Storage Blob 12.19.1 Armazenamento de Ficheiros Azure Data Lake 12.14.0 Backcall 0.2.0
preto 23.3.0 pisca-pisca 1.4 Boto3 1.34.39
Botocore 1.34.39 Ferramentas de cache 5.3.3 certifi 2023.7.22
CFFI 1.15.1 Chardet 4.0.0 Normalizador de Charset 2.0.4
clicar 8.0.4 Cloudpickle 2.2.1 Comm 0.1.2
contorno 1.0.5 criptografia 41.0.3 ciclista 0.11.0
Quisto 0.29.32 Databricks-SDK 0.20.0 dbus-python 1.2.18
depuração 1.6.7 decorador 5.1.1 Distlib 0.3.8
pontos de entrada 0.4 execução 0.8.3 facetas-visão geral 1.1.1
bloqueio de arquivo 3.13.4 Fonttools 4.25.0 GitDB 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 Google-Auth 2.31.0
google-nuvem-core 2.4.1 google-nuvem-armazenamento 2.17.0 Google-CRC32C 1.5.0
google-retomable-media 2.7.1 googleapis-comuns-protos 1.63.2 Grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 IDNA 3.4
importlib-metadados 6.0.0 ipyflow-núcleo 0.0.198 Ipykernel 6.25.1
IPython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Isodato 0.6.1 Jedi 0.18.1 Jeepney 0.7.1
JmesPath 0.10.0 Joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 porta-chaves 23.5.0 Kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
Matplotlib 3.7.2 matplotlib-em linha 0.1.6 mlflow-magro 2.11.4
mais-itertools 8.10.0 mypy-extensões 0.4.3 Ninho-Asyncio 1.5.6
dormência 1.23.5 OAuthlib 3.2.0 embalagem 23.2
pandas 1.5.3 Parso 0.8.3 PathSpec 0.10.3
vítima 0.5.3 Espere 4.8.0 pickleshare 0.7.5
Travesseiro 9.4.0 pip (o gestor de pacotes do Python) 23.2.1 plataformadirs 3.10.0
enredo 5.9.0 kit de ferramentas de prompt 3.0.36 Proto-Plus 1.24.0
Protobuf 4.24.1 PSUTIL 5.9.0 PSYCOPG2 2.9.3
ptyprocess 0.7.0 puro-eval 0.2.2 Pyarrow 14.0.1
Piasn1 0.4.8 pyasn1-módulos 0.2.8 Pyccolo 0.0.52
Pycparser 2.21 Pidântico 1.10.6 Pigmentos 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 Pyodbc 4.0.39
Pyparsing 3.0.9 python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.8.2 python-lsp-jsonrpc 1.1.1
Pytz 2022.7 PyYAML 6,0 Pyzmq 23.2.0
pedidos 2.31.0 RSA 4,9 s3transferir 0.10.2
scikit-learn (biblioteca de aprendizado de máquina em Python) 1.3.0 SciPy 1.11.1 nascido no mar 0.12.2
Armazenamento Secreto 3.3.1 Ferramentas de configuração 68.0.0 seis 1.16.0
smmap 5.0.1 SQLPARSE 0.5.0 ssh-import-id 5.11
dados de pilha 0.2.0 statsmodels (uma biblioteca de Python para modelos estatísticos) 0.14.0 tenacidade 8.2.2
ThreadPoolCtl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traços 5.7.1 typing_extensions (extensões de digitação) 4.10.0 tzdata 2022.1
Ujson 5.4.0 Upgrades autônomos 0.1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 largura de wc 0.2.5
wheel 0.38.4 zipp | 3.11.0

Bibliotecas R instaladas

As bibliotecas de R são instaladas a partir do instantâneo CRAN fornecido pelo Posit Package Manager em 2024-02-05: https://packagemanager.posit.co/cran/2024-02-05/.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 14.0.0.2 AskPass 1.2.0 asserçãoat 0.2.1
Retroportagens 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 pouco 4.0.5 bit64 4.0.5
Bitops 1.0-7 blob 1.2.4 arranque 1.3-28
fabricação de cerveja 1.0-10 Brio 1.1.4 vassoura 1.0.5
BSLIB 0.6.1 cachemira 1.0.8 Chamador 3.7.3
acento circunflexo 6.0-94 Cellranger 1.1.0 crono 2.3-61
classe 7.3-22 CLI 3.6.2 Clipr 0.8.0
relógio 0.7.0 cluster 2.1.4 CodeTools 0.2-19
espaço em cores 2.1-0 marca comum 1.9.1 compilador 4.3.2
configuração 0.3.2 conflituosos 1.2.0 CPP11 0.4.7
lápis de cor 1.5.2 credenciais 2.0.1 encaracolar 5.2.0
tabela de dados 1.15.0 conjuntos de dados 4.3.2 DBI 1.2.1
DBPlyr 2.4.0 descrição 1.4.3 DevTools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 resumo 0.6.34
Iluminação reduzida 0.4.3 DPLYR 1.1.4 DTPlyr 1.3.1
E1071 1.7-14 reticências 0.3.2 avaliar 0.23
Fãsi 1.0.6 Farver 2.1.1 mapa rápido 1.1.1
fontawesome 0.5.2 FORCATS 1.0.0 para cada 1.5.2
externa 0.8-85 forjar 0.2.0 FS 1.6.3
Futuro 1.33.1 futuro.apply 1.11.1 gargarejo 1.5.2
genérico 0.1.3 Gert 2.0.1 GGPLOT2 3.4.4
GH 1.4.0 Git2R 0.33.0 gitcreds 0.1.2
GLMNET 4.1-8 Globais 0.16.2 colar 1.7.0
GoogleDrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
gráficos 4.3.2 grDispositivos 4.3.2 grelha 4.3.2
gridExtra 2.3 GSUBFN 0,7 GT 0.10.1
tabela g 0.3.4 capacete 1.3.1 Refúgio 2.5.4
mais alto 0.10 HMS 1.1.3 htmltools 0.5.7
htmlwidgets (componentes HTML interativos) 1.6.4 httpuv 1.6.14 HTTR 1.4.7
HTTR2 1.0.0 IDs 1.0.1 ini 0.3.1
ipred 0.9-14 Isoband 0.2.7 iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 suco suculento 0.1.0
KernSmooth 2.23-21 Knitr 1,45 etiquetagem 0.4.3
mais tarde 1.3.2 treliça 0.21-8 lave 1.7.3
ciclo de vida 1.0.4 ouvirv 0.9.1 lubridato 1.9.3
Magrittr 2.0.3 Marcação 1.12 MASSA 7.3-60
Matriz 1.5-4.1 memorização 2.0.1 métodos 4.3.2
MGCV 1.8-42 mímica 0,12 miniUI 0.1.1.1
Mlflow 2.10.0 ModelMetrics 1.2.2.2 Modelador 0.1.11
Munsell 0.5.0 NLME 3.1-163 NNET 7.3-19
numDeriv 2016.8 a 1.1 openssl (conjunto de ferramentas para criptografia) 2.1.1 paralelo 4.3.2
Paralelamente 1.36.0 pilar 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 Plyr 1.8.9 elogiar 1.0.0
unidades bonitas 1.2.0 pROC 1.18.5 processx 3.8.3
Prodlim 2023.08.28 Profvis 0.3.8 Progresso 1.2.3
progressor 0.14.0 promessas 1.2.1 prototipo 1.0.0
proxy 0.4-27 PS 1.7.6 ronronar 1.0.2
R6 2.5.1 RAGG 1.2.7 Floresta Aleatória 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reactável 0.4.4
reactR 0.5.0 Leitor 2.1.5 ReadXL 1.4.3
receitas 1.0.9 revanche 2.0.0 revanche2 2.1.2
Controles remotos 2.4.2.1 Reprex 2.1.0 remodelar2 1.4.4
Rlang 1.1.3 rmarkdown 2,25 RODBC 1.3-23
oxigénio2 7.3.1 rpart (função de partição recursiva em R) 4.1.21 rprojroot 2.0.4
Reserva 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversões 2.1.2 Rvest 1.0.3 Sass 0.4.8
escalas 1.3.0 seletor 0.4-2 Informação da sessão 1.2.2
forma 1.4.6 brilhante 1.8.0 ferramentas de origem 0.1.7-1
Brilho 1.8.4 espacial 7.3-15 estrias 4.3.2
sqldf 0.4-11 QUADRADO 2021.1 estatísticas 4.3.2
estatísticas4 4.3.2 string 1.8.3 stringr 1.5.1
sobrevivência 3.5-5 Charme 3.33.1 Sistema 3.4.2
fontes do sistema 1.0.5 tcltk (uma linguagem de programação) 4.3.2 testeatat 3.2.1
formatação de texto 0.3.7 Tibble 3.2.1 Tidyr 1.3.1
arrumadoselecionar 1.2.0 Tidyverse 2.0.0 mudança de hora 0.3.0
data e hora 4032.109 Tinytex 0.49 ferramentas 4.3.2
TZDB 0.4.0 verificador de URL 1.0.1 usethis 2.2.2
UTF8 1.2.4 utilitários 4.3.2 Identificador Único Universal (UUID) 1.2-0
V8 4.4.1 VCTRS 0.6.5 viridisLite 0.4.2
vruum 1.6.5 Waldo 0.5.2 vibrissas 0.4.1
murchar 3.0.0 xfun 0.41 XML2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
Zeallot 0.1.0 ZIP 2.3.1

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
Antlr Antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.12.610
com.amazonaws AWS-Java-SDK-CloudFormation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws AWS Java SDK para CloudSearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-diretório 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-aprendizado de máquina 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-rota53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws AWS Java SDK para SES 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.12.610
com.amazonaws AWS-Java-SDK-STS 1.12.610
com.amazonaws aws-java-sdk-suporte 1.12.610
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics fluxo 2.9.6
com.databricks Reserva 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks Jatos 3T 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core jackson-anotações 2.15.2
com.fasterxml.jackson.core Jackson-Core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-módulo-paranamer 2.15.2
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.15.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-Java 1.1
com.github.fommil.netlib native_ref-Java 1.1-Nativos
com.github.fommil.netlib sistema_nativo-Java 1.1
com.github.fommil.netlib sistema_nativo-Java 1.1-Nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-Nativos
com.github.luben ZSTD-JNI 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs JSR305 3.0.0
com.google.code.gson Gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone anotações_propensas_a_erros 2.10.0
com.google.flatbuffers flatbuffers-java 23/05/2026
com.google.goiaba Goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger gerador de perfis 1.1.1
com.ibm.icu ICU4J 75.1
com.jcraft JSCH 0.1.55
com.jolbox BoneCP 0.8.0.LANÇAMENTO
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK para Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver MSSQL-JDBC 11.2.2.jre8
com.ning compressa-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind JAXB-CORE 2.2.11
com.sun.xml.bind JAXB-IMPL 2.2.11
com.tdunning Json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter Chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.4.3
com.typesafe.scala-logging Escala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocidade analisadores de univocidade 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
codec commons codec commons 1.16.0
Commons Collections Commons Collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload (upload de ficheiros comuns) commons-fileupload (upload de ficheiros comuns) 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib Lapack | 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.ponte aérea compressor de ar 0.25
IO.Delta delta-compartilhamento-client_2.12 1.1.1
io.dropwizard.metrics métricas-anotação 4.2.19
io.dropwizard.metrics métricas-base 4.2.19
io.dropwizard.metrics métricas-grafite 4.2.19
io.dropwizard.metrics métricas e verificações de saúde 4.2.19
io.dropwizard.metrics métricas-jetty9 4.2.19
io.dropwizard.metrics métricas-jmx 4.2.19
io.dropwizard.metrics métricas-json 4.2.19
io.dropwizard.metrics métricas do JVM 4.2.19
io.dropwizard.metrics Métricas-Servlets 4.2.19
io.netty netty-tudo 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-meias 4.1.96.Final
io.netty netty-comum 4.1.96.Final
io.netty netty-manipulador 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver (resolução do Netty) 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Janelas finais x86_64
io.netty netty-tcnative-classes 2.0.61.Última
io.netty transporte de rede 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-nativo-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-nativo-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-nativo-unix-comum 4.1.96.Final
io.prometeu cliente simples 0.7.0
io.prometeu simpleclient_comum 0.7.0
io.prometeu simpleclient_dropwizard 0.7.0
io.prometeu simpleclient_pushgateway 0.7.0
io.prometeu simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação Jacarta.Anotação-API 1.3.5
jacarta.servlet jacarta.servlet-api 4.0.3
jacarta.validação Jacarta.validation-api 2.0.2
jakarta.ws.rs Jacarta.ws.rs-api 2.1.6
javax.ativação ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo JDO-API 3.0.1
javax.transaction JTA 1.1
javax.transaction API de transação 1.1
javax.xml.bind JAXB-API 2.2.11
Javolution Javolution 5.5.1
Jline Jline 2.14.6
Joda-Time Joda-Time 2.12.1
net.java.dev.jna JNA 5.8.0
net.razorvine picles 1.3
net.sf.jpam JPAM 1.1
net.sf.opencsv OpenCSV 2.3
net.sf.supercsv Super-CSV 2.2.0
net.floco de neve flocos de neve-ingestão-sdk 0.9.6
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.5.2
org.antlr antlr4-tempo de execução 4.9.3
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ANT-JSCH 1.10.11
org.apache.ant lançador de formigas 1.10.11
org.apache.arrow formato de seta 15.0.0
org.apache.arrow seta-memória-núcleo 15.0.0
org.apache.arrow seta-memória-netty 15.0.0
org.apache.arrow vetor de seta 15.0.0
org.apache.avro Avro 1.11.3
org.apache.avro AVRO-IPC 1.11.3
org.apache.avro avro-mapeado 1.11.3
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-comprimir 1.23.0
org.apache.commons commons-cripto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-matemática3 3.6.1
org.apache.commons commons-texto 1.10.0
org.apache.curador curador-cliente 2.13.0
org.apache.curador curador-framework 2.13.0
org.apache.curador curador-receitas 2.13.0
org.apache.datasketches Datasketches-Java 3.1.0
org.apache.datasketches datasketches-memória 2.0.0
org.apache.derby Dérbi 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.6
org.apache.hive colmeia-abelha 2.3.9
org.apache.hive Hive-CLI 2.3.9
org.apache.hive Hive-JDBC 2.3.9
org.apache.hive hive-llap-cliente 2.3.9
org.apache.hive colmeia-lamp-comum 2.3.9
org.apache.hive Colmeia-Serde 2.3.9
org.apache.hive colmeias-calços 2.3.9
org.apache.hive API de armazenamento Hive 2.8.1
org.apache.hive.shims colmeia-calços-0,23 2.3.9
org.apache.hive.shims colmeia-calços-comum 2.3.9
org.apache.hive.shims colmeia-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents Núcleo Http 4.4.16
org.apache.ivy hera 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-modelo-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-núcleo 1.9.2-protobuf sombreado
org.apache.orc orc-mapreduce 1.9.2-protobuf sombreado
org.apache.orc Orc-calços 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-sombreado 4.23
org.apache.yetus anotações de audiência 0.13.0
org.apache.zookeeper cuidador de zoológico 3.6.3
org.apache.zookeeper zookeeper-juta 3.6.3
org.checkerframework verificador-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.janino compilador comum 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus DataNucleus Core 4.1.17
org.datanucleus Datanucleus-RDBMS 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-coleções 11.1.0
org.eclipse.collections eclipse-collections-API 11.1.0
org.eclipse.píer Jetty-Cliente 9.4.52.v20230823
org.eclipse.píer jetty-continuation (componente de software do Jetty) 9.4.52.v20230823
org.eclipse.píer Jetty-HTTP 9.4.52.v20230823
org.eclipse.píer Molhe IO 9.4.52.v20230823
org.eclipse.píer Cais-JNDI 9.4.52.v20230823
org.eclipse.píer Cais-Plus 9.4.52.v20230823
org.eclipse.píer Jetty-Proxy 9.4.52.v20230823
org.eclipse.píer Segurança do Jetty 9.4.52.v20230823
org.eclipse.píer servidor jetty 9.4.52.v20230823
org.eclipse.píer Jetty-servlet 9.4.52.v20230823
org.eclipse.píer Jetty-servlets 9.4.52.v20230823
org.eclipse.píer Jetty-util 9.4.52.v20230823
org.eclipse.píer cais-util-ajax 9.4.52.v20230823
org.eclipse.píer Aplicação web Jetty 9.4.52.v20230823
org.eclipse.píer Jetty-XML 9.4.52.v20230823
org.eclipse.jetty.websocket API WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-cliente 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-Comum 9.4.52.v20230823
org.eclipse.jetty.websocket servidor websocket 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 HK2-API 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 HK2-Utils 2.6.1
org.glassfish.hk2 localizador de recursos OSGi 1.0.3
org.glassfish.hk2.externo aopalliance-reembalado 2.6.1
org.glassfish.hk2.externo jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-cliente 2.40
org.glassfish.jersey.core Jersey comum 2.40
org.glassfish.jersey.core servidor de jersey 2.40
org.glassfish.jersey.inject Jersey-HK2 2.40
org.hibernate.validator hibernate-validator (ferramenta de validação de dados de Java) 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-registro em log 3.3.2.Final
org.jdbi JDBI 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-converter 1.7
org.jodd JODD-CORE 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M11
org.json4s JSON4S-core_2.12 3.7.0-M11
org.json4s JSON4S-jackson_2,12 3.7.0-M11
org.json4s JSON4S-scalap_2.12 3.7.0-M11
org.lz4 LZ4-Java 1.8.0
org.mlflow mlflow-spark_2,12 2.9.1
org.objenesis objenese 2.5.1
org.postgresql PostgreSQL 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap calços 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.15
org.scala-lang Escala-library_2.12 2.12.15
org.scala-lang Escala-reflect_2,12 2.12.15
org.scala-lang.modules scala-coleção-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules Escala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp Brisa-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-compatível-com-slf4j 2.0.7
org.slf4j jul-para-slf4j 2.0.7
org.slf4j SLF4J-API 2.0.7
org.slf4j SLF4J-Simples 1.7.25
org.threeten trêsdez-extra 1.7.1
org.tukaani XZ 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel gatos-kernel_2.12 2.1.1
org.typelevel torre-macros_2.12 0.17.0
org.typelevel torre-platform_2.12 0.17.0
org.typelevel torre-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl mosca-selvagem-openssl 1.1.3.Final
org.xerial SQLITE-JDBC 3.42.0.0
org.xerial.snappy Snappy-java 1.1.10.3
org.yaml Snakeyaml 2.0
ouro ouro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
software.amazon.ion íon-java 1.0.2
Stax Stax-API 1.0.1