Compartilhar via


Databricks Runtime 15.4 LTS

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 15.4 LTS, da plataforma Apache Spark 3.5.0.

A Databricks lançou essa versão em agosto de 2024.

Observação

LTS significa que essa versão possui suporte de longo prazo. Consulte Ciclo de vida da versão de LTS do Databricks Runtime.

Dica

Para ver as notas sobre a versão das versões do Databricks Runtime que chegaram ao fim do suporte (EoS), confira Notas sobre as versões do Databricks Runtime em fim de suporte. As versões do Databricks Runtime EoS foram desativadas e podem não ser atualizadas.

Alterações comportamentais

Usar uma VARIANT como o tipo de entrada ou saída com uma UDF, UDAF ou UDTF do Python gera uma exceção

[Alteração interruptiva] No Databricks Runtime 15.3 e superior, chamar qualquer função definida pelo usuário (UDF) do Python, função agregada definida pelo usuário (UDAF) ou função de tabela definida pelo usuário (UDTF) que usa um tipo VARIANT como argumento ou valor de retorno gera uma exceção. Essa alteração é feita para evitar problemas que possam ocorrer devido a um valor inválido retornado por uma dessas funções. Para saber mais sobre o tipo VARIANT, consulte usar VARIANTs para armazenar dados semiestruturados.

spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão

spark.sql.legacy.jdbc.useNullCalendar agora está definido como true por padrão. Se essa alteração interromper suas consultas (como aquelas que retornam valores TIMESTAMP), defina-o para false em seu código.

Alterar para o modo de associação de esquema padrão para exibições

As exibições agora se adaptam às alterações de esquema na consulta subjacente usando a compensação de esquema com regras de conversão regulares. Essa é uma alteração do padrão anterior do modo BINDING, que gerou erros quando uma conversão segura não pôde ser executada ao referenciar o modo de exibição.

Veja CREATE VIEW e a função cast.

Não permitir o uso da sintaxe não documentada ! em vez de NOT expressões boolianas externas

Com esta versão, o uso de ! como sinônimo para NOT fora de expressões boolianas não é mais permitido. Por exemplo, instruções como a seguinte: CREATE ... IF ! EXISTS, IS ! NULL, uma propriedade de campo ou coluna ! NULL, ! IN e ! BETWEEN, deve ser substituído por: CREATE ... IF NOT EXISTS, IS NOT NULL, propriedade de campo ou coluna NOT NULL, NOT IN e NOT BETWEEN.

Essa alteração garante consistência, alinha-se com o padrão SQL e torna seu SQL mais portátil.

O operador de prefixo booliano! (por exemplo, !is_mgr ou !(true AND false)) não é afetado por essa alteração.

Não permitir sintaxe de definição de coluna não documentada em exibições

O Databricks dá suporte a CREATE VIEW com colunas nomeadas e comentários de coluna. Anteriormente, a especificação de tipos de coluna, NOT NULL restrições ou DEFAULT foi permitida. Com esta versão, não é mais possível usar essa sintaxe.

Essa alteração garante a consistência, alinha-se com o padrão SQL e dá suporte a melhorias futuras.

Tratamento consistente de erros para decodificação Base64 no Spark e no Photon

Esta versão altera a forma como o Photon trata os erros de decodificação Base64 para corresponder à forma como o Spark trata esses erros. Antes dessas alterações, o caminho de geração de código do Photon e do Spark às vezes não gerava exceções de análise, enquanto a execução interpretada do Spark gerava corretamente IllegalArgumentException ou ConversionInvalidInputError. Essa atualização garante que o Photon gere consistentemente as mesmas exceções que o Spark durante erros de decodificação Base64, fornecendo um tratamento de erros mais previsível e confiável.

A adição de uma restrição CHECK em uma coluna inválida agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION

Para fornecer mensagens de erro mais úteis, no Databricks Runtime 15.3 e superior, uma instrução ALTER TABLE ADD CONSTRAINT que inclui uma restrição CHECK referenciando um nome de coluna inválido retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION. Anteriormente, era retornado um INTERNAL_ERROR.

spark.sql.legacy.jdbc.useNullCalendar agora está habilitado por padrão

### spark.sql.legacy.jdbc.useNullCalendar agora está definido true como a configuração padrão. Se essa alteração interromper suas consultas (como aquelas que retornam valores TIMESTAMP), defina-o para false em seu código.

pyodbc é atualizado de 4.0.38 para 4.0.39

O pacote pyodbc é atualizado da versão 4.0.38 para a versão 4.0.39. Essa alteração é necessária porque um bug foi encontrado na versão 4.0.38 e essa versão foi removida do PyPI.

Novos recursos e aprimoramentos

Funções de validação UTF-8

Esta versão apresenta as seguintes funções para validar strings UTF-8:

  • is_valid_utf8 verificou se uma cadeia de caracteres é uma UTF-8 válida.
  • make_valid_utf8 converte uma cadeia de caracteres UTF-8 potencialmente inválida em uma cadeia de caracteres UTF-8 válida usando caracteres de substituição
  • validate_utf8 gerará um erro se a entrada não for uma string UTF-8 válida.
  • try_validate_utf8 retornará NULL se a entrada não for uma string UTF-8 válida.

APIs de Conjuntos de Dados Tipada com UDFs do Scala

Esta versão inclui suporte adicional para APIs de conjunto de dados tipados com funções definidas pelo usuário do Scala (excluindo funções de agregação definidas pelo usuário) na computação habilitada para Catálogo do Unity com o modo de acesso padrão (antigo modo de acesso compartilhado). Consulte APIs de Conjuntos de Dados Tipadas.

Habilitar o Iceberg UniForm usando ALTER TABLE

Agora você pode habilitar o Iceberg do UniForm em tabelas existentes sem reescrever arquivos de dados. Consulte Habilitar as leituras do Iceberg em uma tabela existente.

Função try_url_decode

Esta versão apresenta a função try_url_decode, que decodifica uma cadeia de caracteres codificada em URL. Se a cadeia de caracteres não estiver no formato correto, a função retornará NULL em vez de gerar um erro.

Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não forçadas

Para melhorar o desempenho da consulta, agora você poderá especificar a palavra-chave RELY em restrições FOREIGN KEY ao usar CREATE ou ALTER em uma tabela.

Execuções de trabalho paralelizadas para substituições seletivas

Substituições seletivas usando replaceWhere trabalhos agora executados que excluem dados e inserem novos dados em paralelo, melhorando o desempenho da consulta e a utilização do cluster.

Desempenho aprimorado para o feed de dados de alteração com substituições seletivas

Substituições seletivas usando replaceWhere em tabelas com feed de dados de alteração já não gravam mais arquivos de dados de alteração separados para dados inseridos. Essas operações usam uma coluna oculta _change_type presente nos arquivos de dados Parquet subjacentes para registrar alterações sem amplificação de gravação.

Latência de consulta aprimorada para o comando COPY INTO

Esta versão inclui uma alteração que melhora a latência de consulta para o comando COPY INTO. Essa melhoria é implementada ao tornarmos o carregamento de estado pelo repositório de estado do RocksDB assíncrono. Com essa alteração, você deverá visualizar uma melhoria nos tempos de início para consultas com estados grandes, como consultas com um grande número de arquivos já ingeridos.

Suporte para eliminar o recurso de tabela de restrições de verificação

Agora você pode remover o recurso de tabela checkConstraints de uma tabela Delta usando ALTER TABLE table_name DROP FEATURE checkConstraints. Consulte Desabilitar restrições de verificação.

A computação dedicada (anteriormente computação de usuário único) dá suporte a controle de acesso refinado, exibições materializadas e tabelas de streaming (Visualização Pública)

Quando um workspace é habilitado para computação sem servidor, o Databricks Runtime 15.4 LTS adiciona suporte para controle de acesso refinado na computação dedicada. Quando uma consulta acessa qualquer um dos seguintes objetos, o recurso de computação dedicado no Databricks Runtime 15.4 LTS passa a consulta para a computação sem servidor para executar a filtragem de dados:

  • Exibições definidas sobre tabelas nas quais o usuário não tem o privilégio SELECT.
  • Visualizações dinâmicas.
  • Tabelas com filtros de linha ou máscaras de coluna aplicadas.
  • Exibições materializadas e tabelas de streaming.

Essas consultas não têm suporte na computação dedicada executando o Databricks Runtime 15.3 e abaixo.

Para obter mais informações, consulte o controle de acesso refinado na computação dedicada.

Suporte ampliado para bibliotecas Java e Scala

A partir do Databricks Runtime 15.4 LTS, todas as bibliotecas Java e Scala incluídas no Databricks Runtime estão disponíveis em todos os modos de acesso à computação quando você usa o Catálogo do Unity. Para saber mais sobre o suporte a idiomas na computação habilitada para Catálogo do Unity, consulte os requisitos e limitações de computação Padrão.

Suporte ampliado para operações de conjunto de dados Scala

Com esta versão, os recursos de computação habilitados para o Catálogo do Unity que usam o modo de acesso padrão dão suporte às seguintes operações Scala Dataset, map, mapPartitions, foreachPartition, flatMap, reduce e filter.

O Scala está em disponibilidade geral na computação padrão do Catálogo do Unity

Com esta versão, geralmente, o Scala está disponível na computação habilitada para o Catálogo do Unity no modo de acesso padrão, incluindo suporte para as funções escalares definidas pelo usuário (UDFs). Não há suporte para funções de agregação definidas pelo usuário, UDFs do Hive e Streaming Estruturado. Para obter uma lista completa de limitações, consulte requisitos e limitações de computação Padrão.

Acesso controlado pelo Catálogo do Unity a serviços de nuvem externos usando credenciais de serviço (Visualização Pública)

As credenciais de serviço permitem uma autenticação simples e segura com os serviços do seu locatário de nuvem usando identidades gerenciadas do Azure e o Unity Catalog. Consulte Criar credenciais de serviço.

Correções de bug

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • azure-core de 1.30.1 para 1.30.2
    • google-auth de 2.29.0 para 2.31.0
    • google-cloud-storage de 2.16.0 para 2.17.0
    • google-resumable-media de 2.7.0 para 2.7.1
    • googleapis-common-protos de 1.63.0 para 1.63.2
    • mlflow-skinny de 2.11.3 para 2.11.4
    • proto-plus de 1.23.0 para 1.24.0
    • s3transfer de 0.10.1 para 0.10.2
  • Atualização das bibliotecas do R:
  • Bibliotecas do Java atualizadas:
    • com.databricks.databricks-sdk-java de 0.17.1 para 0.27.0
    • com.ibm.icu.icu4j de 72.1 para 75.1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.1-linux-x86_64 para 1.6.2-linux-x86_64

Apache Spark

O Databricks Runtime 15.4 LTS inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.3 (EoS) e as seguintes correções de bug adicionais e melhorias feitas no Spark:

  • [SPARK-48503] [DBRRM-1150][sc-172196][SQL] Permitir o agrupamento de expressões em subconsultas escalares, se estiverem vinculadas a linhas externas
  • [SPARK-48834] [BEHAVE-79][sc-170972][SQL] Desabilitar a entrada/saída variante para UDFs escalares, UDTFs e UDAFs do Python durante a compilação da consulta
  • [SPARK-48441] [SC-170980][sql][WARMFIX] Corrigir o comportamento do StringTrim para ordenações não UTF8_BINARY
  • [SPARK-48440] [SC-170895][sql][WARMFIX] Corrigir o comportamento do StringTranslate para colações não UTF8_BINARY
  • [SPARK-48872] [SC-170866][python] Reduza a sobrecarga de _capture_call_site
  • [SPARK-48862] [SC-170845][python][CONNECT] Evite chamar _proto_to_string quando o nível DE INFORMAÇÕES não estiver habilitado
  • [SPARK-48852] [SC-170837][connect] Corrigir função de corte de cadeia de caracteres na conexão
  • [SPARK-48791] [SC-170658][core] Correção da regressão perf causada pela sobrecarga de registro dos acumuladores usando CopyOnWriteArrayList
  • [SPARK-48118] [SQL] Suporte à variável env SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
  • [SPARK-48241] [SC-165811][sql] Falha de análise de CSV com colunas de tipo char/varchar
  • [SPARK-48168] [SC-166900][sql] Adicionar suporte a operadores de deslocamento bit a bit
  • [SPARK-48148] [SC-165630][core] Objetos JSON não devem ser modificados quando lidos como STRING
  • [SPARK-46625] [SC-170561] CTE com a cláusula Identificador como referência
  • [SPARK-48771] [SC-170546][sql] Acelerar LogicalPlanIntegrity.validateExprIdUniqueness para grandes planos de consulta
  • [SPARK-48831] [BEHAVE-76][sc-170554][CONNECT] Tornar o nome da cast coluna padrão compatível com o Spark Classic
  • [SPARK-48623] [SC-170544][core] Migrações estruturadas de log [Parte 2]
  • [SPARK-48296] [SC-166138][sql] Suporte de codegen para to_xml
  • [SPARK-48027] [SC-165154][sql] O InjectRuntimeFilter para junção de vários níveis deve verificar o tipo de junção filho
  • [SPARK-48686] [SC-170365][sql] Melhorar o desempenho de ParserUtils.unescapeSQLString
  • [SPARK-48798] [SC-170588][python] Introdução spark.profile.render à criação de perfil baseada em SparkSession
  • [SPARK-48048] [SC-169099] Reverter "[SC-164846][connect][SS] Foi adicionado suporte ao ouvinte do lado do cliente para Scala"
  • [SPARK-47910] [SC-168929][core] Fechar o fluxo quando DiskBlockObjectWriter closeResources para evitar perda de memória
  • [SPARK-48816] [SC-170547][sql] Abreviação para conversores de intervalo no UnivocityParser
  • [SPARK-48589] [SC-170132][sql][SS] Adicionar opção snapshotStartBatchId e snapshotPartitionId à fonte de dados de estado
  • [SPARK-48280] [SC-170293][sql] Melhorar a área de superfície de teste de ordenação usando a verificação de expressão
  • [SPARK-48837] [SC-170540][ml] No CountVectorizer, somente leia o parâmetro binário uma vez por transformação, não uma vez por linha
  • [SPARK-48803] [SC-170541][sql] Gerar erro interno no Orc(De)serializer para se alinhar com ParquetWriteSupport
  • [SPARK-48764] [SC-170129][python] Filtrando quadros relacionados ao IPython da pilha de usuários
  • [SPARK-48818] [SC-170414][python] Simplificar percentile funções
  • [SPARK-48479] [SC-169079][sql] Suporte à criação de UDFs escalares e de tabela sql no analisador
  • [SPARK-48697] [SC-170122][lc-4703][SQL] Adicionar filtros de cadeia de caracteres com reconhecimento de ordenação
  • [SPARK-48800] [SC-170409][connect][SS] Estabilizar ClientStreamingQuerySuite
  • [SPARK-48738] [SC-169814][sql] Correto desde a versão do alias de função interno random, position, mod, cardinality, current_schema, user, session_user,char_length,character_length
  • [SPARK-48638] [SC-169575][connect] Adicionar suporte a ExecutionInfo para DataFrame
  • [SPARK-48064] [SC-164697][sql] Atualizar mensagens de erro para categorias de erro associadas a rotinas
  • [SPARK-48810] [CONNECT] A API Session stop() deve ser idempotente e não falhar se a sessão já tiver sido fechada pelo servidor
  • [SPARK-48650] [15.x][python] Exibir o ponto de chamada correto no IPython Notebook
  • [SPARK-48271] [SC-166076][sql] Transformar o erro de correspondência no RowEncoder em UNSUPPORTED_DATA_TYPE_FOR_ENCODER
  • [SPARK-48709] [SC-169603][sql] Corrigir incompatibilidade de resolução de tipo varchar para DataSourceV2 CTAS
  • [SPARK-48792] [SC-170335][sql] Corrigir a regressão para INSERT com lista de colunas parciais em uma tabela com char/varchar
  • [SPARK-48767] [SC-170330][sql] Corrigir alguns prompts de erro quando variant os dados de tipo são inválidos
  • [SPARK-48719] [SC-170339][sql] Corrigir o bug de cálculo de RegrSlope & RegrIntercept quando o primeiro parâmetro for nulo
  • [SPARK-48815] [SC-170334][conectar] Ambiente de atualização ao parar a sessão de conexão
  • [SPARK-48646] [SC-169020][python] Refinar docstring da API de fonte de dados do Python e dicas de tipo
  • [SPARK-48806] [SC-170310][sql] Passar exceção real quando url_decode falhar
  • [SPARK-47777] [SC-168818] Corrigir o teste de conexão da fonte de dados de streaming do Python
  • [SPARK-48732] [SC-169793][sql] Limpeza do uso de API obsoleto relacionado a JdbcDialect.compileAggregate
  • [SPARK-48675] [SC-169538][sql] Corrigir tabela de cache com coluna agrupada
  • [SPARK-48623] [SC-169034][core] Migrações estruturadas de log
  • [SPARK-48655] [SC-169542][sql] SPJ: Adicionar testes para ignorar embaralhar para consultas de agregação
  • [SPARK-48586] [SC-169808][ss] Remova a aquisição de bloqueio no doMaintenance() fazendo uma cópia profunda dos mapeamentos de arquivos no RocksDBFileManager em load()
  • [SPARK-48799] [Backport][15.x][SC-170283][ss] Refatorar o controle de versão para leitura/gravação de metadados do operador e chamadores
  • [SPARK-48808] [SC-170309][sql] Correção de NPE ao conectar o thriftserver por meio do Hive 1.2.1 e o esquema de resultados está vazio
  • [SPARK-48715] [SC-170291][sql] Integrar a validação UTF8String em implementações de função de cadeia de caracteres com reconhecimento de ordenação
  • [SPARK-48747] [SC-170120][sql] Adicionar iterador de ponto de código a UTF8String
  • [SPARK-48748] [SC-170115][sql] Cache numChars em UTF8String
  • [SPARK-48744] [SC-169817][core] A entrada de log deve ser construída apenas uma vez
  • [SPARK-46122] [SC-164313][sql] Definir spark.sql.legacy.createHiveTableByDefault para false como padrão
  • [SPARK-48765] [SC-170119][deploy] Aprimorar a avaliação de valor padrão para SPARK_IDENT_STRING
  • [SPARK-48759] [SC-170128][sql] Adicionar um documento de migração para CREATE TABLE como alteração de comportamento SELECT desde o Spark 3.4
  • [SPARK-48598] [SC-169484][python][CONNECT] Propagar esquema armazenado em cache em operações de dataframe
  • [SPARK-48766] [SC-170126][python] Documente a diferença de comportamento entre extractionelement_at e try_element_at
  • [SPARK-48768] [SC-170124][python][CONNECT] Não deve armazenar em cache explain
  • [SPARK-48770] [Backport][15.x][SC-170133][ss] Alterar para ler metadados do operador uma vez no driver para verificar se podemos encontrar informações para numColsPrefixKey usadas para consultas de agregação de janela de sessão
  • [SPARK-48656] [SC-169529][core] Fazer verificação de comprimento e lançar erro COLLECTION_SIZE_LIMIT_EXCEEDED em CartesianRDD.getPartitions
  • [SPARK-48597] [SC-168817][sql] Introduza um marcador para a propriedade isStreaming na representação de texto do plano lógico
  • [SPARK-48472] [SC-169044][sql] Habilitar expressões de reflexão com cadeias de caracteres agrupadas
  • [SPARK-48699] [SC-169597][sql] Refinar a API de ordenação
  • [SPARK-48682] [SC-169812][sql][BEHAVE-58] Use o ICU na expressão InitCap para cadeias de caracteres UTF8_BINARY
  • [SPARK-48282] [SC-169813][sql] Alterar a lógica de pesquisa de cadeia de caracteres para ordenação de UTF8_BINARY_LCASE (StringReplace, FindInSet)
  • [SPARK-47353] [SC-169599][sql] Habilitar o suporte de ordenação para a expressão Mode
  • [SPARK-48320] [SPARK-48490] Sincronizar a característica de registro em log e os casos de teste mais recentes do OSS Spark
  • [SPARK-48629] [SC-169479] Migrar o código residual para a estrutura de registros estruturada
  • [SPARK-48681] [SC-169469][sql][BEHAVE-58] Usar A ICU em expressões inferiores/superiores para cadeias de caracteres UTF8_BINARY
  • [SPARK-48573] [15.x][sc-169582][SQL] Atualizar versão do ICU
  • [SPARK-48687] [Backport][15.x][SS] Adicionar alteração para executar validação do esquema de estado e atualização no driver para consultas com estado
  • [SPARK-47579] [15.x][sc-167310][CORE][part4] Migrar logInfo com variáveis para framework de log estruturado
  • [SPARK-48008] [SC-167363][1/2] Suporte a UDAFs no Spark Connect
  • [SPARK-48578] [SC-169505][sql] adicionar funções relacionadas à validação de cadeia de caracteres UTF8
  • [SPARK-48670] [SC-169598][sql] Fornecendo sugestão como parte da mensagem de erro quando um nome de ordenação inválido é fornecido
  • [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPA... ...RK-48291] Estrutura de registro em log estruturado no lado java
  • [SPARK-47599] [15.x][sc-166000][MLLIB] MLLib: Migrar logWarn com variáveis para estrutura de log estruturada
  • [SPARK-48706] [SC-169589][python] UDF do Python em funções de ordem superior não deve gerar erro interno
  • [SPARK-48498] [BEHAVE-38][sc-168060][SQL] Sempre fazer preenchimento de caracteres em predicados
  • [SPARK-48662] [SC-169533][sql] Corrigir expressão StructsToXml com ordenações
  • [SPARK-48482] [SC-167702][python][15.x] dropDuplicates e dropDuplicatesWIthinWatermark deve aceitar args de comprimento variável
  • [SPARK-48678] [SC-169463][core] Otimizações de desempenho para SparkConf.get(ConfigEntry)
  • [SPARK-48576] [SQL] Renomear UTF8_BINARY_LCASE para UTF8_LCASE
  • [SPARK-47927] [SC-164123][sql]: corrigir atributo de nulidade no decodificador UDF
  • [SPARK-47579] [SC-165297][core][PART1] Migrar logInfo com variáveis para estrutura de log estruturado (novo)
  • [SPARK-48695] [SC-169473][python] TimestampNTZType.fromInternal não usar os métodos preteridos
  • [SPARK-48431] [SC-167290][lc-4066][SQL] Não encaminhe predicados em colunas agrupadas para leitores de arquivos
  • [SPARK-47579] Revert “[SC-165297][core][PART1] Migrar logInfo com variáveis para a estrutura de registros em log estruturada"
  • [SPARK-47585] [SC-164306][sql] SQL core: Migrar logInfo com variáveis para a estrutura de log estruturada
  • [SPARK-48466] [SC-169042][sql] Criar um nó dedicado para EmptyRelation no AQE
  • [SPARK-47579] [SC-165297][core][PART1] Migrar logInfo com variáveis para a estrutura de log estruturada
  • [SPARK-48410] [SC-168320][sql] Corrigir a expressão InitCap para ordenações de UTF8_BINARY_LCASE e ICU
  • [SPARK-48318] [SC-167709][sql] Habilitar o suporte de junção de hash para todas as ordenações (tipos complexos)
  • [SPARK-48435] [SC-168128][sql] A ordenação UNICODE não deve dar suporte à igualdade binária
  • [SPARK-48555] [SC-169041][sql][PYTHON][connect] Suporte usando Colunas como parâmetros para várias funções no pyspark/scala
  • [SPARK-48591] [SC-169081][python] Adicionar uma função auxiliar para simplificar Column.py
  • [SPARK-48574] [SC-169043][sql] Corrigir o suporte para StructTypes com ordenações
  • [SPARK-48305] [SC-166390][sql] Adicionar suporte de ordenação para expressões CurrentLike
  • [SPARK-48342] [SC-168941][sql] Introdução ao Analisador de Scripts SQL
  • [SPARK-48649] [SC-169024][sql] Adicionar configurações "ignoreInvalidPartitionPaths" e "spark.sql.files.ignoreInvalidPartitionPaths" para permitir ignorar caminhos de partição inválidos
  • [SPARK-48000] [SC-167194][sql] Habilitar o suporte de junção de hash para todas as ordenações (StringType)
  • [SPARK-48459] [SC-168947][connect][PYTHON] Implementar o DataFrameQueryContext no Spark Connect
  • [SPARK-48602] [SC-168692][sql] Fazer com que o gerador csv dê suporte a estilos de saída diferentes com spark.sql.binaryOutputStyle
  • [SPARK-48283] [SC-168129][sql] Modificar a comparação de cadeia de caracteres para UTF8_BINARY_LCASE
  • [SPARK-48610] [SC-168830][sql] refatoração: Usar o idMap auxiliar em vez de OP_ID_TAG
  • [SPARK-48634] [SC-169021][python][CONNECT] Evite inicializar estaticamente o threadpool em ExecutePlanResponseReattachableIterator
  • [SPARK-47911] [SC-164658][sql] Introduz um BinaryFormatter universal para tornar a saída binária consistente
  • [SPARK-48642] [SC-168889][núcleo] SparkOutOfMemoryError falso causado por encerrar a tarefa ao ocorrer um despejo
  • [SPARK-48572] [SC-168844][sql] Corrigir as expressões DateSub, DateAdd, WindowTime, TimeWindow e SessionWindow
  • [SPARK-48600] [SC-168841][sql] Corrigir a conversão implícita de expressões FrameLessOffsetWindowFunction
  • [SPARK-48644] [SC-168933][sql] Fazer uma verificação de comprimento e gerar um erro COLLECTION_SIZE_LIMIT_EXCEEDED em Hex.hex
  • [SPARK-48587] [SC-168824][variant] Evite amplificação de armazenamento ao acessar uma sub-Variant
  • [SPARK-48647] [SC-168936][python][CONNECT] Refinar a mensagem de erro em YearMonthIntervalTypedf.collect
  • [SPARK-48307] [SC-167802][sql] InlineCTE deve manter relações não embutidas no nó WithCTE original
  • [SPARK-48596] [SC-168581][sql] Melhoria de desempenho para calcular a cadeia de caracteres hexa por muito tempo
  • [SPARK-48621] [SC-168726][sql] Correção da simplificação Like no Otimizador para cadeias de caracteres agrupadas
  • [SPARK-47148] [SC-164179][sql] Evitar materializar o AQE ExchangeQueryStageExec no cancelamento
  • [SPARK-48584] [SC-168579][sql] Melhoria do Perf para unescapePathName
  • [SPARK-48281] [SC-167260][sql] Alterar a lógica de pesquisa de cadeia de caracteres para ordenação de UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
  • [SPARK-48577] [SC-168826][sql] Substituição de sequência de bytes UTF-8 inválida
  • [SPARK-48595] [SC-168580][core] Limpeza do uso preterido da API relacionada a commons-compress
  • [SPARK-48030] [SC-164303][sql] SPJ: rowOrdering de cache e structType para InternalRowComparableWrapper
  • [SPARK-48004] [SC-164005][sql] Adicionar a característica WriteFilesExecBase para gravação v1
  • [SPARK-48551] [SC-168438][sql] Melhoria do Perf para escapePathName
  • [SPARK-48565] [SC-168437][interface do usuário] Corrigir a exibição de despejo de thread na interface do usuário
  • [SPARK-48364] [SC-166782][sql] Adicionar a conversão de tipo AbstractMapType e corrigir o mapa de parâmetros RaiseError para trabalhar com cadeias de caracteres agrupadas
  • [SPARK-48421] [SC-168689][sql] SPJ: Adicionar documentação
  • [SPARK-48604] [SC-168698][sql] Substituir a chamada de método preterida new ArrowType.Decimal(precision, scale)
  • [SPARK-46947] [SC-157561][core] Atrasar a inicialização do gerenciador de memória até que o plug-in driver seja carregado
  • [SPARK-48411] [SC-168576][ss][PYTHON] Adicionar teste E2E para DropDuplicateWithinWatermark
  • [SPARK-48543] [SC-168697][ss] Acompanhar falhas de validação de linha de estado usando a classe de erro explícita
  • [SPARK-48221] [SC-167143][sql] Alterar a lógica de pesquisa de cadeia de caracteres para UTF8_BINARY_LCASE collation (Contains, StartsWith, EndsWith, StringLocate)
  • [SPARK-47415] [SC-168441][sql] Adicionar suporte de ordenação para a expressão Levenshtein
  • [SPARK-48593] [SC-168719][python][CONNECT] Corrigir a representação de cadeia de caracteres da função lambda
  • [SPARK-48622] [SC-168710][sql] Obter o SQLConf uma vez ao resolver nomes de coluna
  • [SPARK-48594] [SC-168685][python][CONNECT] Renomear parent campo para child in ColumnAlias
  • [SPARK-48403] [SC-168319][sql] Corrigir expressões inferiores e superiores para ordenações de UTF8_BINARY_LCASE e de ICU
  • [SPARK-48162] [SC-166062][sql] Adicionar suporte de ordenação para expressões MISC
  • [SPARK-48518] [SC-167718][core] Fazer com que a compactação LZF seja capaz de ser executada em paralelo
  • [SPARK-48474] [SC-167447][núcleo] Corrigir o nome da classe do log em SparkSubmitArguments e SparkSubmit
  • [SPARK-48012] [SC-168267][sql] SPJ: suporte a expressões de transformação para embaralhamento de um lado
  • [SPARK-48552] [SC-168212][sql] Inferência de esquema CSV de várias linhas também deve gerar FAILED_READ_FILE
  • [SPARK-48560] [SC-168268][ss][PYTHON] Tornar o StreamingQueryListener.spark configurável
  • [SPARK-48569] [SC-168321][ss][CONNECT] Lidar com casos de borda em query.name
  • [SPARK-47260] [SC-167323][sql] Atribuir nome à classe de erro _LEGACY_ERROR_TEMP_3250
  • [SPARK-48564] [SC-168327][python][CONNECT] Propagar esquema armazenado em cache em operações de conjunto
  • [SPARK-48155] [SC-165910][sql] O AQEPropagateEmptyRelation para junção deve verificar se o filho restante é apenas BroadcastQueryStageExec
  • [SPARK-48506] [SC-167720][core] Nomes abreviados de codecs de compressão são insensíveis a maiúsculas e minúsculas, exceto para log de eventos.
  • [SPARK-48447] [SC-167607][ss] Verifique a classe do provedor do repositório de estado antes de invocar o construtor
  • [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff e DateTimeUtils.timestampAdd não devem gerar a exceção INTERNAL_ERROR
  • [SPARK-48513] [Backport][15.x][SC-168085][ss] Adicionar classe de erro para compatibilidade de esquema de estado e refatoração menor
  • [SPARK-48413] [SC-167669][sql] ALTER COLUMN com ordenação
  • [SPARK-48561] [SC-168250][ps][CONNECT] Gerar PandasNotImplementedError para funções de plotagem sem suporte
  • [SPARK-48465] [SC-167531][sql] Evite no-op propagação de relação vazia
  • [SPARK-48553] [SC-168166][python][CONNECT] Armazenar mais propriedades em cache
  • [SPARK-48540] [SC-168069][core] Evitar configurações de carregamento de saída ivy para stdout
  • [SPARK-48535] [SC-168057][ss] Atualizar documentos de configuração para indicar a possibilidade de perda de dados/problema de corrupção se a configuração de ignorar nulos para junções de fluxo para fluxo estiver habilitada
  • [SPARK-48536] [SC-168059][python][CONNECT] Esquema especificado pelo usuário do cache em applyInPandas e applyInArrow
  • [SPARK-47873] [SC-163473][sql] Gravar cadeias de caracteres agrupadas no metastore do Hive usando o tipo de cadeia de caracteres regular
  • [SPARK-48461] [SC-167442][sql] Substitua NullPointerExceptions pela classe de erro na expressão AssertNotNull
  • [SPARK-47833] [SC-163191][sql][CORE] Fornecer o stackstrace de chamador para checkAndGlobPathIfNecessary AnalysisException
  • [SPARK-47898] [SC-163146][sql] Porta HIVE-12270: Adicionar suporte DBTokenStore ao token de delegação HS2
  • [SPARK-47578] [SC-167497][r] Migrar RPackageUtils com variáveis para estrutura de log estruturada
  • [SPARK-47875] [SC-162935][core] Remove spark.deploy.recoverySerializer
  • [SPARK-47552] [SC-160880][núcleo] Definir spark.hadoop.fs.s3a.connection.establish.timeout como 30s se ausente
  • [SPARK-47972] [SC-167692][sql] Restringir expressão CAST para ordenações
  • [SPARK-48430] [SC-167489][sql] Correção da extração de valor do mapa quando o mapa contém cadeias de caracteres agrupadas
  • [SPARK-47318] [SC-162712][core][3.5] Adiciona a rodada HKDF à derivação de chave AuthEngine para seguir as práticas padrão de KEX
  • [SPARK-48503] [BEHAVE-29][es-1135236][SQL] Corrigir subconsultas escalares inválidas com agrupamento em colunas não equivalentes incorretamente permitidas
  • [SPARK-48508] [SC-167695][connect][PYTHON] Esquema especificado pelo usuário do cache em DataFrame.{to, mapInPandas, mapInArrow}
  • [SPARK-23015] [SC-167188][windows] Corrigir bug no Windows em que iniciar várias instâncias do Spark no mesmo segundo causa uma falha
  • [SPARK-45891] [SC-167608] Reverter " Descrever o esquema de fragmentação da Grade"
  • [SPARK-48391] [SC-167554][core]Usando addAll em vez de adicionar função no método fromAccumulatorInfos da Classe TaskMetrics
  • [SPARK-48496] [SC-167600][core] Use instâncias de padrão regex estático em JavaUtils.timeStringAs e JavaUtils.byteStringAs
  • [SPARK-48476] [SC-167488][sql] Corrigir a mensagem de erro NPE para csv de delimitador nulo
  • [SPARK-48489] [SC-167598][sql] Gerar um erro melhor voltado para o usuário ao ler o esquema ilegal da Fonte de Dados de texto
  • [SPARK-48471] [SC-167324][core] Aprimorar a documentação e o guia de uso do servidor de histórico
  • [SPARK-45891] [SC-167597] Descrever o esquema de fragmentação da Grade
  • [SPARK-47333] [SC-159043][sql] Usar checkInputDataTypes para verificar os tipos de parâmetro da função to_xml
  • [SPARK-47387] [SC-159310][sql] Remover algumas classes de erro não utilizados
  • [SPARK-48265] [ES-1131440][sql] Inferir o lote de limite do grupo de janelas deve fazer dobramento constante
  • [SPARK-47716] [SC-167444][sql] Evite conflito de nome de exibição no caso de teste de classificação semântica SQLQueryTestSuite
  • [SPARK-48159] [SC-167141][sql] Estendendo o suporte para cadeias de caracteres agrupadas em expressões datetime
  • [SPARK-48462] [SC-167271][sql][Testes] Usar withSQLConf em testes: Refatorar HiveQuerySuite e HiveTableScanSuite
  • [SPARK-48392] [SC-167195][núcleo] Carregar também spark-defaults.conf quando a --properties-file for fornecida
  • [SPARK-48468] [SC-167417] Adicionar interface LogicalQueryStage no Catalyst
  • [SPARK-47578] [SC-164988][core] Backport manual para Spark PR #46309: Migrar logWarning com variáveis para a estrutura de log estruturada
  • [SPARK-48415] [SC-167321]Reverter "[PYTHON] Refatorar TypeName para dar suporte a tipos de dados parametrizados"
  • [SPARK-46544] [SC-151361][sql] Suporte a v2 DESCRIBE TABLE EXTENDED com estatísticas de tabela
  • [SPARK-48325] [SC-166963][core] Sempre especifique mensagens em ExecutorRunner.killProcess
  • [SPARK-46841] [SC-167139][sql] Adicionar suporte de ordenação para localidades de ICU e especificadores de ordenação
  • [SPARK-47221] [SC-157870][sql] Usa assinaturas de CsvParser para AbstractParser
  • [SPARK-47246] [SC-158138][sql] Substitua InternalRow.fromSeq por new GenericInternalRow para salvar uma conversão de coleção
  • [SPARK-47597] [SC-163932][streaming] Backport manual para Spark PR #46192: Streaming: Migrar logInfo com variáveis para a estrutura de registros em log estruturada
  • [SPARK-48415] [SC-167130][python] Refatoração TypeName para dar suporte a tipos de dados parametrizados
  • [SPARK-48434] [SC-167132][python][CONNECT] Fazer uso do esquema armazenado em cache
  • [SPARK-48432] [ES-1097114][sql] Evitar unboxing de números inteiros no UnivocityParser
  • [SPARK-47463] [SC-162840][sql] Usar V2Predicate para encapsular a expressão com o tipo de retorno de booliano
  • [SPARK-47781] [SC-162293][sql] Manipular decimais de escala negativa para fontes de dados JDBC
  • [SPARK-48394] [SC-166966][core] Limpar mapIdToMapIndex em mapoutput unregister
  • [SPARK-47072] [SC-156933][sql] Corrigir formatos de intervalo com suporte em mensagens de erro
  • [SPARK-47001] [SC-162487][sql] Verificação por pushdown no otimizador
  • [SPARK-48335] [SC-166387][python][CONNECT] Tornar _parse_datatype_string compatível com o Spark Connect
  • [SPARK-48329] [SC-166518][sql] Habilitar spark.sql.sources.v2.bucketing.pushPartValues.enabled por padrão
  • [SPARK-48412] [SC-166898][python] Refatorar a análise JSON do tipo de dados
  • [SPARK-48215] [SC-166781][sql] Estendendo o suporte para cadeias de caracteres agrupadas em date_format expressão
  • [SPARK-45009] [SC-166873][sql][ACOMPANHAMENTO] Adicionar classe de erro e testes para a disposição de subconsultas de predicado na condição de junção que fazem referência a ambos os filhos de junção
  • [SPARK-47960] [SC-165295][ss][15.x] Permitir encadeamento de outros operadores com estado após o operador transformWithState.
  • [SPARK-48340] [SC-166468][python] Suporte a ignorar a inferência de esquema TimestampNTZ prefer_timestamp_ntz
  • [SPARK-48157] [SC-165902][sql] Adicionar suporte de ordenação para expressões CSV
  • [SPARK-48158] [SC-165652][sql] Adicionar suporte de ordenação para expressões XML
  • [SPARK-48160] [SC-166064][sql] Adicionar suporte de ordenação para expressões XPATH
  • [SPARK-48229] [SC-165901][sql] Adicionar suporte de ordenação para expressões inputFile
  • [SPARK-48367] [SC-166487][connect] Corrigir lint-scala para que o scalafmt detecte corretamente os arquivos a serem formatados.
  • [SPARK-47858] [SC-163095][spark-47852][PYTHON][sql] Refatorando a estrutura para o contexto de erro de DataFrame
  • [SPARK-48370] [SC-166787][conectar] Ponto de verificação e localCheckpoint no cliente Scala Spark Connect
  • [SPARK-48247] [SC-166028][python] Use todos os valores em um ditado ao inferir o esquema MapType
  • [SPARK-48395] [SC-166794][python] Correção StructType.treeString para tipos parametrizados
  • [SPARK-48393] [SC-166784][python] Mover um grupo de constantes para pyspark.util
  • [SPARK-48372] [SC-166776][spark-45716][PYTHON] Implementar StructType.treeString
  • [SPARK-48258] [SC-166467][python][CONNECT] Ponto de verificação e localCheckpoint no Spark Connect

Consulte Atualizações de manutenção do Databricks Runtime 15.4 LTS.

Ambiente do sistema

  • Sistema operacional: Ubuntu 22.04.4 LTS
    • Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
  • Java: Zulu 8.78.0.19-CA-linux64
  • Scala: 2.12.15
  • Python: 3.11.11
  • R: 4.3.2
  • Delta Lake: 3.2.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
asttokens 2.0.5 Astunparse 1.6.3 azure-core 1.30.2
Armazenamento em Blob do Azure 12.19.1 Azure Armazenamento Arquivos Data Lake 12.14.0 chamada de retorno 0.2.0
preto 23.3.0 antolho 1.4 boto3 1.34.39
botocore 1.34.39 ferramentas de cache 5.3.3 certificação 2023.7.22
cffi 1.15.1 chardet 4.0.0 normalizador de conjunto de caracteres 2.0.4
clique 8.0.4 cloudpickle 2.2.1 Comunicação 0.1.2
contorno 1.0.5 criptografia 41.0.3 ciclista 0.11.0
Cython 0.29.32 databricks-sdk 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 decorador 5.1.1 distlib 0.3.8
pontos de entrada 0,4 em execução 0.8.3 Visão geral de facetas 1.1.1
bloqueio de arquivo 3.13.4 fonttools 4.25.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth 2.31.0
google-cloud-core 2.4.1 armazenamento na nuvem do Google 2.17.0 google-crc32c 1.5.0
google-mídia-retomável 2.7.1 googleapis-common-protos 1.63.2 grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 IDNA 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets (biblioteca Python para widgets interativos) 7.7.2
isodate 0.6.1 Jedi 0.18.1 Jeepney 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 keyring 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-magro 2.11.4
more-itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 empacotando 23,2
Pandas 1.5.3 parso 0.8.3 pathspec 0.10.3
Patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Almofada 9.4.0 caroço 23.2.1 platformdirs 3.10.0
enredo 5.9.0 kit de ferramentas de prompt 3.0.36 proto-plus 1.24.0
protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 Pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.39
pyparsing 3.0.9 python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
Pytz 2022.7 PyYAML 6,0 pyzmq 23.2.0
solicitações 2.31.0 RSA 4.9 s3transfer 0.10.2
scikit-aprender 1.3.0 Scipy 1.11.1 seaborn (biblioteca de visualização em Python) 0.12.2
SecretStorage 3.3.1 Ferramentas de configuração 68.0.0 seis 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id 5.11
dados empilhados 0.2.0 statsmodels (biblioteca para modelos estatísticos em Python) 0.14.0 tenacidade 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traitlets 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
ujson 5.4.0 atualizações não supervisionadas 0,1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 wcwidth 0.2.5
wheel 0.38.4 zipp 3.11.0

Bibliotecas R instaladas

As bibliotecas do R são instaladas com base no instantâneo CRAN do Gerenciador de Pacotes do Posit em 05/02/2024: https://packagemanager.posit.co/cran/2024-02-05/.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 14.0.0.2 AskPass 1.2.0 afirme isso 0.2.1
retroportações 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 blob 1.2.4 ciar 1.3-28
Fabricação de cerveja 1.0-10 Brio 1.1.4 vassoura 1.0.5
bslib 0.6.1 cachem 1.0.8 chamador 3.7.3
sinal de interpolação 6.0-94 Cellranger 1.1.0 crono 2.3-61
classe 7.3-22 Interface de Linha de Comando (CLI) 3.6.2 clipr 0.8.0
relógio 0.7.0 cluster 2.1.4 codetools 0.2-19
espaço de cores 2.1-0 commonmark 1.9.1 compilador 4.3.2
configuração 0.3.2 conflituoso 1.2.0 cpp11 0.4.7
giz de cera 1.5.2 credenciais 2.0.1 encurvar 5.2.0
Tabela de Dados 1.15.0 conjuntos de dados 4.3.2 DBI 1.2.1
dbplyr 2.4.0 Descrição 1.4.3 devtools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 hash 0.6.34
iluminação para baixo 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 reticências 0.3.2 avaliar 0,23
fansi 1.0.6 cores 2.1.1 mapa rápido 1.1.1
fontawesome 0.5.2 para gatos 1.0.0 para cada 1.5.2
estrangeiro 0.8-85 forja 0.2.0 Fs 1.6.3
futuro 1.33.1 future.apply 1.11.1 gargarejar 1.5.2
genéricos 0.1.3 Gert 2.0.1 ggplot2 3.4.4
Gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globais 0.16.2 associar 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
elemento gráfico 4.3.2 grDevices 4.3.2 grade 4.3.2
gridExtra 2.3 gsubfn 0,7 Gt 0.10.1
gtable 0.3.4 capacete de segurança 1.3.1 refúgio 2.5.4
mais alto 0,10 Hms 1.1.3 ferramentas HTML 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 Identificadores 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 Iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 malhador 1,45 rotulagem 0.4.3
posterior 1.3.2 treliça 0.21-8 lava vulcânica 1.7.3
ciclo de vida 1.0.4 ouça 0.9.1 lubrificado 1.9.3
magrittr 2.0.3 redução de preço 1.12 MISSA 7.3-60
Matriz 1.5-4.1 memorizar 2.0.1 métodos 4.3.2
mgcv 1.8-42 mímica 0,12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 modelador 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 paralelo 4.3.2
paralelamente 1.36.0 coluna 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 elogio 1.0.0
prettyunits 1.2.0 Proc 1.18.5 processx 3.8.3
Prodlim 2023.08.28 profvis 0.3.8 progresso 1.2.3
progressador 0.14.0 Promessas 1.2.1 proto 1.0.0
proxy 0.4-27 P.S. 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 capaz de reagir 0.4.4
reactR 0.5.0 Readr 2.1.5 readxl 1.4.3
Receitas 1.0.9 jogo de revanche 2.0.0 revanche2 2.1.2
remotos 2.4.2.1 exemplo reprodutível (reprex) 2.1.0 remodelar2 1.4.4
rlang 1.1.3 rmarkdown 2,25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 rvest 1.0.3 Sass 0.4.8
escamas 1.3.0 Seletor 0.4-2 informações de sessão 1.2.2
forma 1.4.6 brilhante 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 espacial 7.3-15 Splines 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 estatísticas 4.3.2
estatísticas4 4.3.2 stringi 1.8.3 stringr 1.5.1
sobrevivência 3.5-5 Ostentação 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
formatação de texto 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 mudança de horário 0.3.0
data e hora 4032.109 tinytex 0,49 manuais 4.3.2
tzdb 0.4.0 verificador de URL 1.0.1 usethis 2.2.2
utf8 1.2.4 utilitários 4.3.2 identificador único universal (UUID) 1.2-0
V8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
Vroom 1.6.5 Waldo 0.5.2 vibrissa 0.4.1
murchar 3.0.0 xfun 0,41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 YAML 2.3.8
zeallot 0.1.0 zíper 2.3.1

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws SDK Java para o ECS da AWS 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.610
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.datatype jackson-module-paranamer 2.15.2
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.15.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-nativos
com.github.fommil.netlib sistema_nativo-java 1,1
com.github.fommil.netlib sistema_nativo-java 1.1-nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-nativos
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-nativos
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Sininho 1.9.0
com.google.errorprone anotações_propensas_a_erros 2.10.0
com.google.flatbuffers flatbuffers-java 26/05/2023
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger criador de perfil 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0,25
io.delta delta-sharing-client_2.12 1.1.1
io.dropwizard.metrics anotação de métricas 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics métricas-verificações de saúde 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json (métricas em JSON) 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty Netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty Netty Resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty Netty Tcnative Classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-comum 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction API de transação 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine picles 1,3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant lançador de formigas 1.10.11
org.apache.arrow formato de seta 15.0.0
org.apache.arrow seta-memória-core 15.0.0
org.apache.arrow Arrow-Memory-Netty 15.0.0
org.apache.arrow vetor de seta 15.0.0
org.apache.avro Avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Texto Comum 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator estrutura do curador 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.6
org.apache.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de armazenamento do Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Agendador de Ajustes do Hive (hive-shims-scheduler) 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-calços 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus comentários da audiência 0.13.0
org.apache.zookeeper zelador de zoológico 3.6.3
org.apache.zookeeper guarda de zoológico-juta 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty segurança do jetty 9.4.52.v20230823
org.eclipse.jetty servidor jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty Webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket API de WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket servidor WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,40
org.glassfish.jersey.containers jersey-container-servlet-core 2,40
org.glassfish.jersey.core jersey-client 2,40
org.glassfish.jersey.core jersey-comum 2,40
org.glassfish.jersey.core jersey-server 2,40
org.glassfish.jersey.inject jersey-hk2 2,40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenésia 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Calços 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2,0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1