Compartilhar via


Azure Databricks Runtime 14.3 LTS

As notas de lançamento a seguir fornecem informações sobre o Databricks Runtime 14.3 LTS, com tecnologia Apache Spark 3.5.0.

O Databricks lançou esta versão em fevereiro de 2024.

Observação

LTS significa que essa versão possui suporte de longo prazo. Consulte Ciclo de vida da versão de LTS do Databricks Runtime.

Dica

Para ver as notas de versão das versões do Databricks Runtime que chegaram ao fim de suporte (EoS), confira Notas de versão do Databricks Runtime em fim de suporte. As versões do Databricks Runtime EoS foram desativadas e podem não ser atualizadas.

Novos recursos e aprimoramentos

Suporte ao sistema de arquivos do workspace em UDFs (funções definidas pelo usuário) do PySpark em clusters de modo de acesso padrão (anteriormente compartilhados no modo de acesso)

As UDFs do PySpark em clusters padrão agora podem importar módulos Python de pastas Git, arquivos de espaços de trabalho ou volumes UC.

Para obter mais informações sobre como trabalhar com módulos em pastas Git e arquivos de workspace, consulte Trabalhar com módulos Python e R.

Suporte para otimizações MERGE de vetor de exclusão sem o Photon

O Photon não é mais necessário para operações MERGE para aproveitar otimizações de vetores de exclusão. Confira O que são vetores de exclusão?

As APIs do catálogo do Spark agora têm suporte total no modo de acesso padrão

Agora você pode usar todas as funções na API spark.catalog em Python e Scala na computação configurada com o modo de acesso padrão.

O Delta UniForm agora está em disponibilidade geral

O UniForm agora está em disponibilidade geral e usa o recurso de tabela IcebergCompatV2. Agora você pode habilitar ou atualizar o UniForm em tabelas existentes. Consulte Ler tabelas Delta com os clientes do Iceberg.

Nova função SQL EXECUTE IMMEDIATE

Agora você pode usar a sintaxe EXECUTE IMMEDIATE para dar suporte a consultas parametrizadas no SQL. Consulte EXECUTE IMMEDIATE.

Recomputar dados ignorando estatísticas de tabelas Delta

Agora você pode recomputar estatísticas armazenadas no log Delta depois de alterar colunas usadas para ignorar dados. Confira Especificar as colunas de estatísticas Delta.

Informações de estado de consulta para consultas de streaming com estado

Agora você pode consultar dados de estado e metadados de Streaming Estruturado. Consulte a seção Ler informações de estado do Streaming Estruturado.

Usar a ID do Microsoft Entra para autenticação kafka em clusters padrão

Agora você pode autenticar os serviços dos Hubs de Eventos por meio do OAuth com o Microsoft Entra ID em máquinas configuradas com o modo de acesso padrão. Confira Autenticação de Entidade de Serviço com Microsoft Entra ID e Hubs de Eventos do Azure.

Suporte adicionado para a poda de arquivos e partições para melhorar o desempenho da consulta

Para acelerar algumas consultas que dependem da igualdade tolerante a nulos em condições JOIN, agora damos suporte a DynamicFilePruning e DynamicPartitionPruningpara o operador EqualNullSafe em JOINs.

Declarar variáveis temporárias em uma Sessão SQL

Esta versão apresenta a capacidade de declarar variáveis temporárias em uma sessão, que podem ser definidas e, em seguida, referenciadas de dentro de consultas. Veja Variáveis.

Atualizações do Thriftserver para remover recursos não utilizados

O código do Thriftserver foi atualizado para remover o código de recursos obsoletos. Devido a essas alterações, as seguintes configurações não têm mais suporte:

  • Os JARs auxiliares do Hive, configurados usando a propriedade hive.aux.jars.path, não têm mais suporte para conexões hive-thriftserver.
  • O arquivo de inicialização global do Hive (.hiverc), cuja localização está configurada usando a propriedade hive.server2.global.init.file.location ou a variável de ambiente HIVE_CONF_DIR, não tem mais suporte para conexões hive-thriftserver.

Use arquivos truststore e repositório de chaves em volumes do Catálogo do Unity

Agora você pode usar os arquivos truststore e repositório de chaves nos volumes do Catálogo do Unity para autenticar um Registro de Esquema Confluente para dados de buffer de protocolo ou avro. Consulte a documentação sobre avro ou buffers de protocolo.

Suporte ao formato de arquivo XML nativo (Visualização Pública)

O suporte ao formato de arquivo XML nativo está agora em Visualização Pública. O suporte ao formato de arquivo XML permite ingestão, consulta e análise de dados XML para processamento em lotes ou streaming. Ele pode inferir e evoluir automaticamente tipos de esquema e dados, dá suporte a expressões SQL como from_xml e pode gerar documentos XML. Ele não requer jars externos e funciona perfeitamente com o Auto Loader, read_files, COPY INTO e DLT. Consulte Leitura e gravação de arquivos XML.

Suporte para armazenamento Cloudflare R2 (visualização Pública)

Agora você pode usar o Cloudflare R2 como armazenamento em nuvem para dados registrados no Catálogo do Unity. O Cloudflare R2 destina-se principalmente a casos de uso de compartilhamento Delta em que você deseja evitar as taxas de saída de dados cobradas pelos provedores de nuvem quando os dados cruzam regiões. O armazenamento R2 dá suporte a todos os dados do Databricks e ativos de IA com suporte na AWS S3, no Azure Data Lake Storage e no Google Cloud Storage. Confira Usar réplicas do Cloudflare R2 ou migrar o armazenamento para R2 e Criar uma credencial de armazenamento para se conectar ao Cloudflare R2.

O acesso do Spark e do dbutils aos arquivos de workspace dá suporte em clusters do Catálogo do Unity de acesso padrão

Agora há suporte para acesso de leitura e gravação do dbutils e do Spark a arquivos de workspace em clusters do Catálogo do Unity no modo de acesso padrão. Confira Trabalhar com arquivos da área de trabalho.

Init scripts e suporte à biblioteca de clusters em clusters do Catálogo do Unity de acesso padrão

A instalação de scripts de inicialização com escopo de cluster e bibliotecas Python e JAR em clusters do Catálogo do Unity no modo de acesso padrão, incluindo a instalação usando políticas de cluster, agora está em disponibilidade geral. O Databricks recomenda a instalação de scripts e bibliotecas de inicialização de volumes do Catálogo do Unity.

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • fastjsonschema de 2.19.0 a 2.19.1
    • filelock de 3.12.4 a 3.13.1
    • googleapis-common-protos de 1.61.0 a 1.62.0
    • empacotamento de 22.0 a 23.2
  • Bibliotecas do R atualizadas:
    • externa de 0.8-82 a 0.8-85
    • nlme de 3.1-162 a 3.1-163
    • rpart de 4.1.19 a 4.1.21
  • Bibliotecas do Java atualizadas:
    • com.databricks.databricks-sdk-java de 0.7.0 a 0.13.0
    • org.apache.orc.orc-core de 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
    • org.apache.orc.orc-mapreduce de 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
    • org.apache.orc.orc-shims a 1.9.1 a 1.9.2
    • org.scala-lang.modules.scala-collection-compat_2.12 de 2.9.0 a 2.11.0

Apache Spark

O Databricks Runtime 14.3 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 14.2 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-46541] [SC-153546][SQL][CONNECT] Corrige a referência de coluna ambígua na autojunção
  • [SPARK-45433] Reverte "[SC-145163][SQL] Corrige a inferência do esquema CSV/JSON...
  • [SPARK-46723] [14.3][SASP-2792][SC-153425][CONNECT][SCALA] Possibilita novas tentativas do addArtifact
  • [SPARK-46660] [SC-153391][CONNECT] ReattachExecute solicita atualizações de vivacidade de SessionHolder
  • [SPARK-46670] [SC-153273][python][SQL] Tornar o DataSourceManager auto clone-able separando fontes de dados python estáticas e de runtime
  • [SPARK-46720] [SC-153410][SQL][PYTHON] Refatora a Fonte de Dados do Python para se alinhar com outras Fontes de Dados DSv2 internas
  • [SPARK-46684] [SC-153275][python][CONNECT] Corrigir CoGroup.applyInPandas/Arrow para passar argumentos corretamente
  • [SPARK-46667] [SC-153271][SC-153263][SQL] XML: gera erro em várias fontes de dados XML
  • [SPARK-46382] [SC-151881][sql]XML: definir ignoreSurroundingSpaces como verdadeiro por padrão
  • [SPARK-46382] [SC-153178][sql] XML: atualizar documento para ignoreSurroundingSpaces
  • [SPARK-45292] Reverte “[SC-151609][SQL][HIVE] Remove o Guava das classes compartilhadas do IsolatedClientLoader”
  • [SPARK-45292] [SC-151609][sql][HIVE] Remover Guava das classes compartilhadas do IsolatedClientLoader
  • [SPARK-46311] [SC-150137][CORE] Registra o estado final dos drivers durante Master.removeDriver
  • [SPARK-46413] [SC-151052][PYTHON] Valida returnType do UDF do Python para Arrow
  • [SPARK-46633] [WARMFIX][sc-153092][SQL] Corrigir o leitor do Avro para manipular blocos de comprimento zero
  • [SPARK-46537] [SC-151286][SQL] Converte o NPE e declarações de comando em erros internos
  • [SPARK-46179] [SC-151678][SQL] Adiciona CrossDbmsQueryTestSuites, que executa outros gerenciadores de banco de dados em arquivos finais com outros gerenciadores de banco de dados, começando com o Postgres
  • [SPARK-44001] [SC-151413][PROTOBUF] Adiciona opção para permitir desencapsular tipos de wrapper conhecidos do protobuf
  • [SPARK-40876] [SC-151786][SQL] Amplia a promoção de tipos para decimais com maior escala nos leitores Parquet
  • [SPARK-46605] [SC-151769][CONNECT] Faz a função lit/typedLit no módulo de conexão dar suporte a s.c.immutable.ArraySeq
  • [SPARK-46634] [SC-153005][sql] a validação literal não deve se aprofundar em campos nulos
  • [SPARK-37039] [SC-153094][ps] Corrigir Series.astype para funcionar corretamente com o valor ausente
  • [SPARK-46312] [SC-150163][core] Usar lower_camel_case em store_types.proto
  • [SPARK-46630] [SC-153084][sql] XML: validar o nome do elemento XML ao gravar
  • [SPARK-46627] [SC-152981][SS][UI] Corrige o conteúdo da dica de ferramenta da linha do tempo na interface do usuário do streaming
  • [SPARK-46248] [SC-151774][sql] XML: suporte para opções ignoreCorruptFiles e ignoreMissingFiles
  • [SPARK-46386] [SC-150766][python] Aprimorar as declarações de observação (pyspark.sql.observation)
  • [SPARK-46581] [SC-151789][core] Atualizar comentário sobre isZero no AccumulatorV2
  • [SPARK-46601] [SC-151785] [CORE] Corrige erro de log no handleStatusMessage
  • [SPARK-46568] [SC-151685][python] Tornar as opções de fonte de dados do Python um dicionário que não diferencia maiúsculas de minúsculas
  • [SPARK-46611] [SC-151783][core] Remover ThreadLocal substituindo SimpleDateFormat por DateTimeFormatter
  • [SPARK-46604] [SC-151768][sql] Fazer com que Literal.apply dê suporte a s.c.immuable.ArraySeq
  • [SPARK-46324] [SC-150223][sql][PYTHON] Corrigir o nome de saída de pyspark.sql.functions.user e session_user
  • [SPARK-46621] [SC-151794][PYTHON] Exceção capturada de endereço nulo de Exception.getMessage em Py4J
  • [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader deve respeitar o modo de memória ao criar vetores de coluna para a coluna ausente
  • [SPARK-46613] [SC-151778][sql][PYTHON] Registrar exceção completa quando não foi possível pesquisar fontes de dados do Python
  • [SPARK-46559] [SC-151364][MLLIB] Encapsula export no nome do pacote com marcações de código
  • [SPARK-46522] [SC-151784][python] Bloquear o registro de origem de dados do Python em caso de conflitos de nome
  • [SPARK-45580] [SC-149956][SQL] Trata o caso em que uma subconsulta aninhada se torna uma junção de existência
  • [SPARK-46609] [SC-151714][sql] Evitar explosão exponencial em PartitioningPreservingUnaryExecNode
  • [SPARK-46535] [SC-151288][SQL] Corrige o NPE quando descreve uma coluna estendida sem col stats
  • [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Use TypeCoercion.findTightestCommonType para verificar a compatibilidade
  • [SPARK-40876] [SC-151129][SQL] Amplia promoções de tipo em leitores Parquet
  • [SPARK-46179] [SC-151069][sql] Extrair o código para funções reutilizáveis no SQLQueryTestSuite
  • [SPARK-46586] [SC-151679][sql] Suporte s.c.immutable.ArraySeq como customCollectionCls em MapObjects
  • [SPARK-46585] [SC-151622][CORE] metricPeaks construído diretamente como um immutable.ArraySeq em vez de usar mutable.ArraySeq.toSeq em Executor
  • [SPARK-46488] [SC-151173][sql] Ignorando a chamada trimAll durante a análise de timestamp
  • [SPARK-46231] [SC-149724][python] Migrar todos os NotImplementedError & TypeError restantes para a estrutura de erros do PySpark
  • [SPARK-46348] [SC-150281][CORE] Suporte a spark.deploy.recoveryTimeout
  • [SPARK-46313] [SC-150164][CORE] Registra a duração de recuperação do Spark HA
  • [SPARK-46358] [SC-150307][CONNECT] Simplifica a verificação de condição no ResponseValidator#verifyResponse
  • [SPARK-46380] [SC-151078][sql]Substituir a hora/data atual antes de avaliar expressões de tabela em linha.
  • [SPARK-46563] [SC-151441][SQL] Exibir simpleString não segue conf spark.sql.debug.maxToStringFields
  • [SPARK-46101] [SC-149211][CORE][SQL][MLLIB][SS][R][CONNECT][GRAPHX] Reduz a profundidade da pilha substituindo (string|array).size por (string|array).length
  • [SPARK-46539] [SC-151469][SQL] SELECT * EXCEPT (todos os campos de um struct) resulta em uma falha de declaração
  • [SPARK-46565] [SC-151414][python] Refinar classes de erro e mensagens de erro para fontes de dados do Python
  • [SPARK-46576] [SC-151614][SQL] Melhora as mensagens de erro para o modo de salvamento da fonte de dados sem suporte
  • [SPARK-46540] [SC-151355][PYTHON] Respeita os nomes das colunas quando a função de leitura da fonte de dados do Python produz chamadas objetos de Linha
  • [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite permite vazamento do SessionState do hive
  • [SPARK-44556] [SC-151562][sql] Reutilizar OrcTail ao habilitar vectorizedReader
  • [SPARK-46587] [SC-151618][SQL] XML: corrige a conversão de inteiros grandes do XSD
  • [SPARK-46382] [SC-151297][sql] XML: capturar valores intercalados entre elementos
  • [SPARK-46567] [SC-151447][CORE] Remove ThreadLocal de ReadAheadInputStream
  • [SPARK-45917] [SC-151269][python][SQL] Registro automático da fonte de dados do Python na inicialização
  • [SPARK-28386] [SC-151014][sql] Não é possível resolver colunas ORDER BY com GROUP BY e HAVING
  • [SPARK-46524] [SC-151446][SQL] Aprimora mensagens de erro para modo de salvamento inválido
  • [SPARK-46294] [SC-150672][SQL] Limpa a semântica de inicialização versus valor zero
  • [SPARK-46301] [SC-150100][CORE] Suporte a spark.worker.(initial|max)RegistrationRetries
  • [SPARK-46542] [SC-151324][SQL] Remove a verificação de c>=0 do ExternalCatalogUtils#needsEscaping como sempre é verdadeira
  • [SPARK-46553] [SC-151360][PS] FutureWarning para interpolate com o tipo de objeto
  • [SPARK-45914] [SC-151312][PYTHON] Suporta a API de confirmação e anulação para gravação da fonte de dados do Python
  • [SPARK-46543] [SC-151350][python][CONNECT] Fazer json_tuple lançar PySparkValueError para campos vazios
  • [SPARK-46520] [SC-151227][PYTHON] Suporta o modo de substituição para gravação da fonte de dados do Python
  • [SPARK-46502] [SC-151235][SQL] Suporta os tipos de carimbo de data/hora em UnwrapCastInBinaryComparison
  • [SPARK-46532] [SC-151279][CONNECT] Passa parâmetros de mensagem em metadados de ErrorInfo
  • [SPARK-46397] Reverte “[SC-151311][PYTHON][CONNECT] O sha2 de função deve gerar PySparkValueError para numBits inválido”
  • [SPARK-46170] [SC-149472][SQL] Suporta regras de estratégia de pós-planejador de consulta adaptável injetáveis em SparkSessionExtensions
  • [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable não deve carregar a tabela
  • [SPARK-46397] [SC-151311][PYTHON][CONNECT] O sha2 de função deve gerar PySparkValueError para numBits inválido
  • [SPARK-46145] [SC-149471][sql] spark.catalog.listTables não gera exceção quando a tabela ou exibição não é encontrada
  • [SPARK-46272] [SC-151012][sql] Suporte CTAS usando fontes DSv2
  • [SPARK-46480] [SC-151127][CORE][SQL] Corrige o NPE quando houver tentativa de tarefa de cache de tabela
  • [SPARK-46100] [SC-149051][CORE][PYTHON] Reduz a profundidade da pilha substituindo (string|array).size por (string|array).length
  • [SPARK-45795] [SC-150764][sql] DS V2 dá suporte ao modo push down
  • [SPARK-46485] [SC-151133][sql] V1Write não deve adicionar Classificação quando não necessário
  • [SPARK-46468] [SC-151121] [SQL] Corrigir bug do COUNT em subconsultas EXISTS que usam agregação sem chaves de agrupamento
  • [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE Suporte ao SQL
  • [SPARK-46498] [SC-151199][core] Remover shuffleServiceEnabled de o.a.spark.util.Utils#getConfiguredLocalDirs
  • [SPARK-46440] [SC-150807][sql] Defina as configurações de rebase para o modo CORRECTED por padrão
  • [SPARK-45525] [SC-151120][sql][PYTHON] Suporte para gravação de fonte de dados python usando DSv2
  • [SPARK-46505] [SC-151187][connect] Tornar o limite de bytes configurável em ProtoUtils.abbreviate
  • [SPARK-46447] [SC-151025][SQL] Remove as configurações do SQL de troca de base do datetime herdado
  • [SPARK-46443] [SC-151123][sql] A precisão e a escala decimais devem ser decididas pelo dialeto H2.
  • [SPARK-46384] [SC-150694][SPARK-46404][SS][UI] Corrige o gráfico da pilha de duração da operação na página de streaming estruturado
  • [SPARK-46207] [SC-151068][SQL] Suporta o MergeInto no DataFrameWriterV2
  • [SPARK-46452] [SC-151018][sql] Adicionar uma nova API no DataWriter para gravar um iterador de registros
  • [SPARK-46273] [SC-150313][SQL] Suporta INSERT INTO/OVERWRITE usando fontes DSv2
  • [SPARK-46344] [SC-150267][CORE] Avisa corretamente quando um driver existir com êxito, mas o mestre está desconectado
  • [SPARK-46284] [SC-149944][python][CONNECT] Adicionar função session_user ao Python
  • [SPARK-46043] [SC-149786][sql] Suporte para criar tabela usando fontes DSv2
  • [SPARK-46323] [SC-150191][python] Corrigir o nome de saída de pyspark.sql.functions.now
  • [SPARK-46465] [SC-151059][python][CONNECT] Adicionar Column.isNaN no PySpark
  • [SPARK-46456] [SC-151050][core] Adicionar spark.ui.jettyStopTimeout para definir o tempo limite de parada do servidor Jetty para desbloquear o desligamento do SparkContext
  • [SPARK-43427] [SC-150356][PROTOBUF] protobuf do Spark: permite tipos inteiros sem sinal de upcasting
  • [SPARK-46399] [SC-151013][14.x][Core] Adiciona status de saída ao evento Application End para usar o Ouvinte do Spark
  • [SPARK-46423] [SC-150752][python][SQL] Criar a instância da Fonte de Dados em Python no DataSource.lookupDataSourceV2
  • [SPARK-46424] [SC-150765][PYTHON][SQL] Suporta métricas do Python na Fonte de Dados Python
  • [SPARK-46330] [SC-151015] Carregamento da interface do Spark demora muito tempo quando o HybridStore está habilitado
  • [SPARK-46378] [SC-150397][SQL] Ainda remove a Classificação após converter Agregação em Projeto
  • [SPARK-45506] [SC-146959][connect] Adicionar suporte para ivy URI ao SparkConnect addArtifact
  • [SPARK-45814] [SC-147871][conectar][SQL] Faça com que ArrowConverters.createEmptyArrowBatch chame close() para evitar vazamento de memória
  • [SPARK-46427] [SC-150759][python][SQL] Alterar a descrição da fonte de dados do Python para ser bastante explicada
  • [SPARK-45597] [SC-150730][python][SQL] Suporte à criação de tabela usando uma fonte de dados Python no SQL (exec DSv2)
  • [SPARK-46402] [SC-150700][python] Adicionar getMessageParameters e suporte a getQueryContext
  • [SPARK-46453] [SC-150897][CONNECT] Gera exceção de internalError() em SessionHolder
  • [SPARK-45758] [SC-147454][sql] Introduza um mapeador para codecs de compactação hadoop
  • [SPARK-46213] [PYTHON] Introduz PySparkImportError para estrutura de erro
  • [SPARK-46230] [SC-149960][PYTHON] Migra RetriesExceeded para o erro do PySpark
  • [SPARK-45035] [SC-145887][SQL] Corrige ignoreCorruptFiles/ignoreMissingFiles com CSV/JSON multilinha para relatar erro
  • [SPARK-46289] [SC-150846][SQL] Suporta a ordenação de UDTs no modo interpretado
  • [SPARK-46229] [SC-150798][python][CONNECT] Adicionar applyInArrow ao groupBy e coagrupar no Spark Connect
  • [SPARK-46420] [SC-150847][sql] Remover transporte não utilizado no SparkSQLCLIDriver
  • [SPARK-46226] [PYTHON] Migra todo o RuntimeError restante para a estrutura de erros do PySpark
  • [SPARK-45796] [SC-150613][SQL] Suporta MODE() WITHIN GROUP (ORDER BY col)
  • [SPARK-40559] [SC-149686][PYTHON][14.X] Adiciona applyInArrow ao groupBy e coagrupa
  • [SPARK-46069] [SC-149672][SQL] Suporta o desencapsulamento do tipo de carimbo de data/hora para o tipo de data
  • [SPARK-46406] [SC-150770][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1023
  • [SPARK-46431] [SC-150782][ss] Converter IllegalStateException em internalError em iteradores de sessão
  • [SPARK-45807] [SC-150751][sql] Aprimorar a API ViewCatalog
  • [SPARK-46009] [SC-149771][sql][CONNECT] Mesclar a regra de análise de PercentileCont e PercentileDisc em functionCall
  • [SPARK-46403] [SC-150756][SQL] Decodifica binário parquet com método getBytesUnsafe
  • [SPARK-46389] [SC-150779][core] Feche manualmente a instância de RocksDB/LevelDB quando checkVersion lançar Exceção
  • [SPARK-46360] [SC-150376][python] Aprimorar a depuração de mensagens de erro com a nova API de getMessage
  • [SPARK-46233] [SC-149766][python] Migrar todos os AttributeError restantes para a estrutura de erros do PySpark
  • [SPARK-46394] [SC-150599][sql] Corrigir problemas spark.catalog.listDatabases() em esquemas com caracteres especiais quando spark.sql.legacy.keepCommandOutputSchema definido como true
  • [SPARK-45964] [SC-148484][SQL] Remover o acessador sql privado no pacote XML e JSON no pacote do catalyst
  • [SPARK-45856] [SC-148691] Move o ArtifactManager do Spark Connect para SparkSession (sql/core)
  • [SPARK-46409] [SC-150714][CONNECT] Corrige o script de lançamento spark-connect-scala-client
  • [SPARK-46416] [SC-150699][core] Adicionar @tailrec a HadoopFSUtils#shouldFilterOutPath
  • [SPARK-46115] [SC-149154][sql] Restringir conjuntos de caracteres em encode()
  • [SPARK-46253] [SC-150416][python] Planejamento da leitura da fonte de dados do Python usando MapInArrow
  • [SPARK-46339] [SC-150266][ss] O diretório com o nome do número do lote não deve ser tratado como log de metadados
  • [SPARK-46353] [SC-150396][CORE] Refatorar para melhorar a cobertura do teste de unidade RegisterWorker
  • [SPARK-45826] [SC-149061][SQL] Adiciona uma configuração SQL para rastreamentos de pilha no contexto de consulta DataFrame
  • [SPARK-45649] [SC-150300][sql] Unificar a estrutura de preparação para OffsetWindowFunctionFrame
  • [SPARK-46346] [SC-150282][CORE] Corrige o Mestre para atualizar um trabalho de UNKNOWN para ALIVE em msg RegisterWorker
  • [SPARK-46388] [SC-150496][SQL] HiveAnalysis perde a proteção padrão de query.resolved
  • [SPARK-46401] [SC-150609][core] Use !isEmpty() em RoaringBitmap em vez de getCardinality() > 0 em RemoteBlockPushResolver
  • [SPARK-46393] [SC-150603][sql] Classificar exceções no catálogo de tabelas JDBC
  • [SPARK-45798] [SC-150513][connect] Seguimento: adicionar serverSessionId a SessionHolderInfo
  • [SPARK-46153] [SC-146564][sc-150508][SQL] XML: adicionar suporte a TimestampNTZType
  • [SPARK-46075] [SC-150393][connect] Melhorias no SparkConnectSessionManager
  • [SPARK-46357] [SC-150596] Substitui o uso incorreto da documentação de setConf por conf.set
  • [SPARK-46202] [SC-150420][CONNECT] Expõe novas APIs de ArtifactManager para dar suporte a diretórios de destino personalizados
  • [SPARK-45824] [SC-147648][SQL] Impõe a classe de erro em ParseException
  • [SPARK-45845] [SC-148163][SS][UI] Adiciona um número de linhas de estado removidas à interface do usuário de streaming
  • [SPARK-46316] [SC-150181][core] Habilitar buf-lint-action no módulo core
  • [SPARK-45816] [SC-147656][SQL] Retorna NULL ao estourar durante a conversão do carimbo de data/hora para números inteiros
  • [SPARK-46333] [SC-150263][SQL] Substitui IllegalStateException por SparkException.internalError no catalyst
  • [SPARK-45762] [SC-148486][CORE] Suporta gerenciadores de ordem aleatória definidos em jars de usuário alterando a ordem de inicialização
  • [SPARK-46239] [SC-149752][CORE] Oculta informações de Jetty
  • [SPARK-45886] [SC-148089][SQL] Rastreamento de pilha completa de saída em callSite do contexto do DataFrame
  • [SPARK-46290] [SC-150059][python] Alterar saveMode para um sinalizador booliano para DataSourceWriter
  • [SPARK-45899] [SC-148097][CONNECT] Define errorClass em errorInfoToThrowable
  • [SPARK-45841] [SC-147657][SQL] Expõe rastreamento de pilha por DataFrameQueryContext
  • [SPARK-45843] [SC-147721][core] Suporte killall na API de Envio REST
  • [SPARK-46234] [SC-149711][python] Apresentar PySparkKeyError para a estrutura de erros do PySpark
  • [SPARK-45606] [SC-147655][SQL] Restrições de versão no filtro de runtime de várias camadas
  • [SPARK-45725] [SC-147006][SQL] Remove o filtro de runtime de subconsulta IN não padrão
  • [SPARK-45694] [SC-147314][spark-45695][SQL] Limpar o uso preterido da API View.force e ScalaNumberProxy.signum
  • [SPARK-45805] [SC-147488][sql] Tornar withOrigin mais genérico
  • [SPARK-46292] [SC-150086][core][UI] Mostrar um resumo dos trabalhadores no MasterPage
  • [SPARK-45685] [SC-146881][core][SQL] Use LazyList em vez de Stream
  • [SPARK-45888] [SC-149945][SS] Aplica estrutura de classe de erro à Fonte de Dados (metadados) de Estado
  • [SPARK-46261] [SC-150111][CONNECT] DataFrame.withColumnsRenamed deve manter a ordenação de dicionário/mapa
  • [SPARK-46263] [SC-149933][SQL][SS][ML][MLLIB][UI] Limpa as conversões SeqOps.view e ArrayOps.view
  • [SPARK-46029] [SC-149255][SQL] Escape de aspas simples, _ e % para pressionar o DS V2
  • [SPARK-46275] [SC-150189] Protobuf: Retorna nulo no modo permissivo quando a desserialização falhar.
  • [SPARK-46320] [SC-150187][CORE] Suporte a spark.master.rest.host
  • [SPARK-46092] [SC-149658][sql] Não aplique filtros de grupos de linhas Parquet que excedem
  • [SPARK-46300] [SC-150097][PYTHON][CONNECT] Corresponder a comportamentos secundários na coluna com cobertura de teste completa
  • [SPARK-46298] [SC-150092][PYTHON][CONNECT] Corresponde aviso de substituição, caso de teste e erro de Catalog.createExternalTable
  • [SPARK-45689] [SC-146898][SPARK-45690][SPARK-45691][CORE][SQL] Limpa o uso relacionado a StringContext/StringOps/RightProjection/LeftProjection/Either e uso do tipo de BufferedIterator/CanBuildFrom/Traversable da API preterida
  • [SPARK-33393] [SC-148407][sql] Suporte SHOW TABLE EXTENDED na v2
  • [SPARK-45737] [SC-147011][SQL] Remove .toArray[InternalRow] inútil em SparkPlan#executeTake
  • [SPARK-46249] [SC-149797][SS] Exige bloqueio de instância para adquirir métricas do RocksDB, a fim de evitar conflitos com operações em segundo plano
  • [SPARK-46260] [SC-149940][PYTHON][SQL] DataFrame.withColumnsRenamed deve respeitar a ordem do dicionário
  • [SPARK-46274] [SC-150043] [SQL] Corrige o operador de intervalo computeStats() para verificar a validade de long antes da conversão
  • [SPARK-46040] [SC-149767][sql][Python] Atualizar a API UDTF para analisar colunas de particionamento/ordenação para dar suporte a expressões gerais
  • [SPARK-46287] [SC-149949][python][CONNECT] DataFrame.isEmpty deve funcionar com todos os tipos de dados
  • [SPARK-45678] [SC-146825][CORE] Cobre BufferReleasingInputStream.available/reset em tryOrFetchFailedException
  • [SPARK-45667] [SC-146716][core][SQL][connect] Limpar o uso obsoleto da API relacionado ao IterableOnceExtensionMethods.
  • [SPARK-43980] [SC-148992][SQL] apresentando a sintaxe select * except
  • [SPARK-46269] [SC-149816][ps] Habilitar mais testes de compatibilidade de funções NumPy
  • [SPARK-45807] [SC-149851][sql] Adicionar createOrReplaceView(..) / replaceView(..) ao ViewCatalog
  • [SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Introduza uma função implícita para Scala Array encapsular em immutable.ArraySeq.
  • [SPARK-46205] [SC-149655][CORE] Melhorar o desempenho de PersistenceEngine com KryoSerializer
  • [SPARK-45746] [SC-149359][python] Retornar mensagens de erro específicas se o método 'analyze' ou 'eval' da UDTF aceitar ou retornar valores incorretos
  • [SPARK-46186] [SC-149707][CONNECT] Corrige a transição de estado ilegal quando ExecuteThreadRunner for interrompido antes de começar
  • [SPARK-46262] [SC-149803][PS] Habilita o teste de np.left_shift para o objeto Pandas-on-Spark.
  • [SPARK-45093] [SC-149679][connect][PYTHON] Suporte adequado ao tratamento e à conversão de erros para AddArtifactHandler
  • [SPARK-46188] [SC-149571][doc][3.5] Corrigir o CSS das tabelas geradas pelo documento do Spark
  • [SPARK-45940] [SC-149549][python] Adicionar InputPartition à interface DataSourceReader
  • [SPARK-43393] [SC-148301][SQL] Bug de estouro da expressão de sequência de endereços.
  • [SPARK-46144] [SC-149466][sql] Falha INSERT EM... Instrução REPLACE se a condição contiver subconsulta
  • [SPARK-46118] [SC-149096][sql][SS][connect] Use SparkSession.sessionState.conf em vez de SQLContext.conf e marque SQLContext.conf como preterido
  • [SPARK-45760] [SC-147550][sql] Adicionar com expressão para evitar a duplicação de expressões
  • [SPARK-43228] [SC-149670][sql] As chaves de junção também correspondem a PartitioningCollection em CoalesceBucketsInJoin
  • [SPARK-46223] [SC-149691][ps] Testar SparkPandasNotImplementedError com a limpeza de código não utilizado
  • [SPARK-46119] [SC-149205][sql] Substituir método toString para UnresolvedAlias
  • [SPARK-46206] [SC-149674][ps] Use uma exceção de escopo mais estreita para o processador SQL
  • [SPARK-46191] [SC-149565][CORE] Aprimora a msg de erro FileSystemPersistenceEngine.persist no caso de arquivo existente
  • [SPARK-46036] [SC-149356][SQL] Remove a classe de erro da função raise_error
  • [SPARK-46055] [SC-149254][sql] Reescreva a implementação das APIs de Banco de Dados do Catálogo
  • [SPARK-46152] [SC-149454][sql] XML: adicionar suporte a DecimalType na inferência de esquema XML
  • [SPARK-45943] [SC-149452][SQL] Move DetermineTableStats para regras de resolução
  • [SPARK-45887] [SC-148994][SQL] Alinhar a implementação codegen e não codegen de Encode
  • [SPARK-45022] [SC-147158][sql] Fornecer contexto para erros de API do conjunto de dados
  • [SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Substitua toIterator por iterator para IterableOnce
  • [SPARK-46141] [SC-149357][sql] Alterar o padrão de spark.sql.legacy.ctePrecedencePolicy para CORRECTED
  • [SPARK-45663] [SC-146617][core][MLLIB] Substitua IterableOnceOps#aggregate por IterableOnceOps#foldLeft
  • [SPARK-45660] [SC-146493][SQL] Reutiliza objetos Literais na regra ComputeCurrentTime
  • [SPARK-45803] [SC-147489][core] Remova o que não é mais usado RpcAbortException
  • [SPARK-46148] [SC-149350][ps] Corrigir teste de pyspark.pandas.mlflow.load_model (Python 3.12)
  • [SPARK-46110] [SC-149090][PYTHON] Usa classes de erro no catálogo, configuração, conexão, observação, módulos pandas
  • [SPARK-45827] [SC-149203][SQL] Correções variantes com codegen e leitor vetorizado desabilitados
  • [SPARK-46080] Revert “[SC-149012][PYTHON] Atualiza Cloudpickle para 3.0.0”
  • [SPARK-45460] [SC-144852][sql] Substitua scala.collection.convert.ImplicitConversions por scala.jdk.CollectionConverters
  • [SPARK-46073] [SC-149019][sql] Remova a resolução especial de UnresolvedNamespace para determinados comandos
  • [SPARK-45600] [SC-148976][PYTHON] Tornar o nível de sessão do registro da fonte de dados do Python
  • [SPARK-46074] [SC-149063][connect][SCALA] Detalhes insuficientes na mensagem de erro sobre falha da UDF
  • [SPARK-46114] [SC-149076][python] Adicionar PySparkIndexError para a estrutura de erros
  • [SPARK-46120] [SC-149083][CONNECT][PYTHON] Remover a função DataFrame.withPlan auxiliar
  • [SPARK-45927] [SC-148660][python] Atualização do tratamento de caminhos para a fonte de dados do Python
  • [SPARK-46062] [14.x][SC-148991][SQL] Sincroniza o sinalizador isStreaming entre a referência e a definição de CTE
  • [SPARK-45698] [SC-146736][core][SQL][ss] Limpar o uso preterido da API relacionado a Buffer
  • [SPARK-46064] [SC-148984][SQL][SS] Move EliminateEventTimeWatermark para o analisador e altera para entrar em vigor apenas no filho resolvido
  • [SPARK-45922] [SC-149038][CONNECT][CLIENT] Tentativas secundárias de refatoração (acompanhamento de várias políticas)
  • [SPARK-45851] [SC-148419][connect][SCALA] Suporte a várias políticas no cliente scala
  • [SPARK-45974] [SC-149062][SQL] Adiciona o julgamento não vazio scan.filterAttributes para RowLevelOperationRuntimeGroupFiltering
  • [SPARK-46085] [SC-149049][CONNECT] Dataset.groupingSets no cliente Scala Spark Connect
  • [SPARK-45136] [SC-146607][CONNECT] Aprimora o ClosureCleaner com suporte a Ammonite
  • [SPARK-46084] [SC-149020][PS] Refatora operação de conversão do tipo de dados para tipo Categórico.
  • [SPARK-46083] [SC-149018][python] Tornar SparkNoSuchElementException uma API padrão de erro
  • [SPARK-46048] [SC-148982][PYTHON][CONNECT] Suporta DataFrame.groupingSets no Python Spark Connect
  • [SPARK-46080] [SC-149012][python] Atualizar Cloudpickle para 3.0.0
  • [SPARK-46082] [SC-149015][python][CONNECT] Corrigir representação de cadeia de caracteres protobuf para a API do Pandas Functions com o Spark Connect
  • [SPARK-46065] [SC-148985][ps] Refatorar (DataFrame|Series).factorize() para usar create_map.
  • [SPARK-46070] [SC-148993][SQL] Compila o padrão regex em SparkDateTimeUtils.getZoneId fora do loop frequente
  • [SPARK-46063] [SC-148981][PYTHON][CONNECT] Aprimora mensagens de erro relacionadas a tipos de argumento em cute, rollup, groupby e pivot
  • [SPARK-44442] [SC-144120][mesos] Remover suporte do Mesos
  • [SPARK-45555] [SC-147620][PYTHON] Inclui um objeto depurável para declaração com falha
  • [SPARK-46048] [SC-148871][PYTHON][SQL] Suporta DataFrame.groupingSets no PySpark
  • [SPARK-45768] [SC-147304][sql][PYTHON] Tornar o manipulador de falhas uma configuração de runtime para execução do Python no SQL
  • [SPARK-45996] [SC-148586][python][CONNECT] Mostrar mensagens de requisito de dependência adequadas para o Spark Connect
  • [SPARK-45681] [SC-146893][ui] Clonar uma versão js de UIUtils.errorMessageCell para renderização de erro consistente na interface do usuário
  • [SPARK-45767] [SC-147225][core] Excluir TimeStampedHashMap e seu UT
  • [SPARK-45696] [SC-148864][core] O método de correção tryCompleteWith em trait Promise foi preterido
  • [SPARK-45503] [SC-146338][ss] Adicionar Configuração para Definir Compressão do RocksDB
  • [SPARK-45338] [SC-143934][core][SQL] Substitua scala.collection.JavaConverters por scala.jdk.CollectionConverters
  • [SPARK-44973] [SC-148804][sql] Corrigir ArrayIndexOutOfBoundsException em conv()
  • [SPARK-45912] [SC-144982][sc-148467][SQL] Aprimoramento da API XSDToSchema: Alteração na API do HDFS para acessibilidade do armazenamento em nuvem
  • [SPARK-45819] [SC-147570][core] Suporte clear na API de Envio REST
  • [SPARK-45552] [14.x][sc-146874][PS] Introduzir parâmetros flexíveis para assertDataFrameEqual
  • [SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Forneça uma interface para outras fontes de streaming adicionarem colunas _metadata
  • [SPARK-45929] [SC-148692][SQL] Suporta a operação groupingSets na API do dataframe
  • [SPARK-46012] [SC-148693][CORE] O EventLogFileReader não deve ler logs sem interrupção se o arquivo de status do aplicativo estiver ausente
  • [SPARK-45965] [SC-148575][SQL] Move expressões de particionamento do DSv2 para functions.partitioning
  • [SPARK-45971] [SC-148541][core][SQL] Corrigir o nome do pacote de SparkCollectionUtils para org.apache.spark.util
  • [SPARK-45688] [SC-147356][spark-45693][CORE] Limpar o uso preterido da API relacionado ao MapOps & Corrigir method += in trait Growable is deprecated
  • [SPARK-45962] [SC-144645][sc-148497][SQL] Remover treatEmptyValuesAsNulls e usar a opção nullValue em vez disso no XML
  • [SPARK-45988] [SC-148580][spark-45989][PYTHON] Corrigir typehints para lidar com list GenericAlias no Python 3.11+
  • [SPARK-45999] [SC-148595][PS] Usa PandasProduct dedicado em cumprod
  • [SPARK-45986] [SC-148583][ml][PYTHON] Corrigir pyspark.ml.torch.tests.test_distributor no Python 3.11
  • [SPARK-45994] [SC-148581][python] Altere description-file para description_file
  • [SPARK-45575] [SC-146713][SQL] Suporta opções de viagem no tempo para a API de leitura df
  • [SPARK-45747] [SC-148404][SS] Usa informações de chave de prefixo em metadados de estado para lidar com o estado de leitura para agregação de janela de sessão
  • [SPARK-45898] [SC-148213][sql] Reescrever APIs de tabela de catálogo para usar plano lógico não resolvido
  • [SPARK-45828] [SC-147663][sql] Remover método preterido em dsl
  • [SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Atualização protobuf para 4.25.1 para dar suporte a Python 3.11
  • [SPARK-45911] [SC-148226][core] Tornar o TLS1.3 o padrão para RPC SSL
  • [SPARK-45955] [SC-148429][UI] Recolhe o suporte para detalhes de despejo do Flamegraph e de thread
  • [SPARK-45936] [SC-148392][PS] Otimiza Index.symmetric_difference
  • [SPARK-45389] [SC-144834][sql][3.5] Regra de correspondência correta de MetaException na obtenção de metadados de partição
  • [SPARK-45655] [SC-148085][sql][SS] Permitir expressões não determinísticas dentro de AggregateFunctions em CollectMetrics
  • [SPARK-45946] [SC-148448][SS] Corrige o uso de gravação de FileUtils preterida para passar o conjunto de caracteres padrão no RocksDBSuite
  • [SPARK-45511] [SC-148285][SS] Fonte de dados de estado – Leitor
  • [SPARK-45918] [SC-148293][PS] Otimiza MultiIndex.symmetric_difference
  • [SPARK-45813] [SC-148288][CONNECT][PYTHON] Retorna as métricas observadas dos comandos
  • [SPARK-45867] [SC-147916][CORE] Suporte a spark.worker.idPattern
  • [SPARK-45945] [SC-148418][connect] Adicionar uma função auxiliar para parser
  • [SPARK-45930] [SC-148399][sql] Adicionar suporte a UDFs não determinísticas no MapInPandas/MapInArrow
  • [SPARK-45810] [SC-148356][python] Criar a API UDTF do Python para parar de consumir linhas da tabela de entrada
  • [SPARK-45731] [SC-147929][sql] Atualize também as estatísticas de partição com o comando ANALYZE TABLE
  • [SPARK-45868] [SC-148355][CONNECT] Garante que spark.table use o mesmo analisador com vanilla spark
  • [SPARK-45882] [SC-148161][SQL] BroadcastHashJoinExec que propaga o particionamento deve respeitar CoalescedHashPartitioning
  • [SPARK-45710] [SC-147428][sql] Atribuir nomes ao erro _LEGACY_ERROR_TEMP_21[59,60,61,62]
  • [SPARK-45915] [SC-148306][sql] Tratar decimal(x, 0) da mesma forma que IntegralType em PromoteStrings
  • [SPARK-45786] [SC-147552][sql] Corrigir resultados imprecisos de multiplicação decimal e divisão
  • [SPARK-45871] [SC-148084][CONNECT] Conversão da coleção de otimizações relacionada a .toBuffer nos módulos connect
  • [SPARK-45822] [SC-147546][CONNECT] SparkConnectSessionManager pode procurar um sparkcontext interrompido
  • [SPARK-45913] [SC-148289][python] Tornar os atributos internos privados de erros do PySpark.
  • [SPARK-45827] [SC-148201][SQL] Adiciona o tipo de dados Variante no Spark.
  • [SPARK-44886] [SC-147876][sql] Introduzir cláusula CLUSTER BY para CREATE/REPLACE TABLE
  • [SPARK-45756] [SC-147959][CORE] Suporte a spark.master.useAppNameAsAppId.enabled
  • [SPARK-45798] [SC-147956][CONNECT] Declara a ID da sessão do lado do servidor
  • [SPARK-45896] [SC-148091][SQL] Constructo ValidateExternalType com o tipo esperado correto
  • [SPARK-45902] [SC-148123][sql] Remover função não utilizada resolvePartitionColumns de DataSource
  • [SPARK-45909] [SC-148137][SQL] Remove a conversão NumericType se puder converter com segurança em IsNotNull
  • [SPARK-42821] [SC-147715][sql] Remover parâmetros não utilizados em métodos splitFiles
  • [SPARK-45875] [SC-148088][core] Remover MissingStageTableRowData do módulo core
  • [SPARK-45783] [SC-148120][python][CONNECT] Melhorar as mensagens de erro quando o modo Spark Connect estiver habilitado, mas a URL remota não estiver definida
  • [SPARK-45804] [SC-147529][ui] Adicionar configuração spark.ui.threadDump.flamegraphEnabled para ativar/desativar o grafo de chama
  • [SPARK-45664] [SC-146878][sql] Introduza um mapeador para codecs de compressão ORC
  • [SPARK-45481] [SC-146715][SQL] Introduz um mapeador para codecs de compactação parquet
  • [SPARK-45752] [SC-148005][sql] Simplificar o código para verificar relações CTE não referenciadas
  • [SPARK-44752] [SC-146262][sql] XML: Atualizar o Spark Docs
  • [SPARK-45752] [SC-147869][SQL] CTE não referenciado deve ser verificado pelo CheckAnalysis0
  • [SPARK-45842] [SC-147853][sql] Refatorar APIs de funções do catálogo para utilizar o analisador
  • [SPARK-45639] [SC-147676][sql][PYTHON] Suporte ao carregamento de fontes de dados python no DataFrameReader
  • [SPARK-45592] [SC-146977][SQL] Problema de correção no AQE com InMemoryTableScanExec
  • [SPARK-45794] [SC-147646][SS] Introduz a fonte de metadados de estado para consultar as informações de metadados do estado de streaming
  • [SPARK-45739] [SC-147059][PYTHON] Captura IOException em vez de somente EOFException para faulthandler
  • [SPARK-45677] [SC-146700] Melhor registro de erros na API de Observação
  • [SPARK-45544] [SC-146873][core] Integrar o suporte de SSL ao TransportContext
  • [SPARK-45654] [SC-147152][python] Adicionar API de gravação da fonte de dados do Python
  • [SPARK-45771] [SC-147270][core] Habilitar spark.eventLog.rolling.enabled por padrão
  • [SPARK-45713] [SC-146986][python] Suporte ao registro de fontes de dados do Python
  • [SPARK-45656] [SC-146488][SQL] Corrige a observação quando observações nomeadas com o mesmo nome em conjuntos de dados diferentes
  • [SPARK-45808] [SC-147571][connect][PYTHON] Melhor tratamento de erros para exceções SQL
  • [SPARK-45774] [SC-147353][core][interface do usuário] Suporte spark.master.ui.historyServerUrl em ApplicationPage
  • [SPARK-45776] [SC-147327][CORE] Remove a verificação de nulo defensiva para MapOutputTrackerMaster#unregisterShuffle adicionado no SPARK-39553
  • [SPARK-45780] [SC-147410][CONNECT] Propaga todos os threadlocals de cliente do Spark Connect em InheritableThread
  • [SPARK-45785] [SC-147419][CORE] Suporta spark.deploy.appNumberModulo para girar o número do aplicativo
  • [SPARK-45793] [SC-147456][CORE] Aprimora os codecs de compactação internos
  • [SPARK-45757] [SC-147282][ML] Evite a recomputação de NNZ no Binarizador
  • [SPARK-45209] [SC-146490][CORE][UI] Suporta o Flame Graph para a página de despejo de thread do executor
  • [SPARK-45777] [SC-147319][core] Suporte spark.test.appId em LocalSchedulerBackend
  • [SPARK-45523] [SC-146331][PYTHON] Refatora a verificação de nulo para ter atalhos
  • [SPARK-45711] [SC-146854][SQL] Introduz um mapeador para codecs de compactação avro
  • [SPARK-45523] [SC-146077][Python] Retorna mensagem de erro útil se o UDTF retornar a coluna Nenhum para qualquer coluna não anulável
  • [SPARK-45614] [SC-146729][sql] Atribuir nomes ao erro _LEGACY_ERROR_TEMP_215[6,7,8]
  • [SPARK-45755] [SC-147164][sql] Melhorar Dataset.isEmpty() aplicando o limite global 1
  • [SPARK-45569] [SC-145915][sql] Atribuir nome ao erro _LEGACY_ERROR_TEMP_2153
  • [SPARK-45749] [SC-147153][core][WEBUI] Corrigir Spark History Server para classificar a coluna Duration corretamente
  • [SPARK-45754] [SC-147169][CORE] Suporte a spark.deploy.appIdPattern
  • [SPARK-45707] [SC-146880][sql] Simplificar DataFrameStatFunctions.countMinSketch com CountMinSketchAgg
  • [SPARK-45753] [SC-147167][CORE] Suporte a spark.deploy.driverIdPattern
  • [SPARK-45763] [SC-147177][core][interface do usuário] Melhorar MasterPage para mostrar Resource coluna somente quando existir
  • [SPARK-45112] [SC-143259][SQL] Usar a resolução baseada em UnresolvedFunction em funções SQL Dataset

Suporte ao driver ODBC/JDBC do Databricks

O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos dois anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).

Atualizações de manutenção

Consulte as atualizações de manutenção do Azure Databricks Runtime 14.3.

Ambiente do sistema

  • Sistema operacional: Ubuntu 22.04.3 LTS
    • Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
  • Java: Zulu 8.74.0.17-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 3.1.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 atributos 22.1.0 chamada de retorno 0.2.0
beautifulsoup4 4.11.1 preto 22.6.0 alvejante 4.1.0
antolho 1.4 boto3 1.24.28 botocore 1.27.96
certificação 2022.12.7 cffi 1.15.1 chardet 4.0.0
normalizador de conjunto de caracteres 2.0.4 clique 8.0.4 Comunicação 0.1.2
contorno 1.0.5 criptografia 39.0.1 ciclista 0.11.0
Cython 0.29.32 databricks-sdk 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 decorador 5.1.1 defusedxml 0.7.1
distlib 0.3.7 de docstring para markdown 0,11 pontos de entrada 0,4
em execução 0.8.3 visão geral das facetas 1.1.1 fastjsonschema 2.19.1
bloqueio de arquivo 3.13.1 fonttools 4.25.0 googleapis-common-protos 1.62.0
grpcio 1.48.2 grpcio-status 1.48.1 httplib2 0.20.2
IDNA 3.4 importlib-metadata 4.6.4 ipykernel 6.25.0
ipython 8.14.0 ipython-genutils 0.2.0 ipywidgets (biblioteca Python para widgets interativos) 7.7.2
Jedi 0.18.1 Jeepney 0.7.1 Jinja2 3.1.2
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.17.3
Cliente Jupyter 7.3.4 servidor Jupyter 1.23.4 jupyter_core 5.2.0
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 keyring 23.5.0
kiwisolver 1.4.4 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 lxml 4.9.1 MarkupSafe 2.1.1
matplotlib 3.7.0 matplotlib-inline 0.1.6 Mccabe 0.7.0
Mistune 0.8.4 more-itertools 8.10.0 mypy-extensions 0.4.3
nbclassic 0.5.2 nbclient 0.5.13 nbconvert 6.5.4
nbformat 5.7.0 nest-asyncio 1.5.6 nodeenv 1.8.0
notebook 6.5.2 notebook_shim 0.2.2 numpy 1.23.5
oauthlib 3.2.0 embalagem 23.2 Pandas 1.5.3
pandocfilters 1.5.0 parso 0.8.3 pathspec 0.10.3
Patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Almofada 9.4.0 caroço 22.3.1 platformdirs 2.5.2
enredo 5.9.0 Pluggy 1.0.0 prometheus-client 0.14.1
kit de ferramentas de prompt 3.0.36 protobuf 4.24.0 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 8.0.0 pyarrow-hotfix 0,5 pycparser 2.21
pydantic 1.10.6 pyflakes 3.1.0 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 piright 1.1.294 pirsistent 0.18.0
python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 python-lsp-server (servidor LSP para Python) 1.8.0
pytoolconfig 1.2.5 Pytz 2022.7 pyzmq 23.2.0
solicitações 2.28.1 corda 1.7.0 s3transfer 0.6.2
scikit-aprender 1.1.1 Scipy 1.10.0 seaborn (biblioteca de visualização em Python) 0.12.2
SecretStorage 3.3.1 Send2Trash 1.8.0 Ferramentas de configuração 65.6.3
seis 1.16.0 sniffio 1.2.0 Soupsieve 2.3.2.post1
ssh-import-id 5.11 dados empilhados 0.2.0 statsmodels (biblioteca para modelos estatísticos em Python) 0.13.5
tenacidade 8.1.0 terminado 0.17.1 threadpoolctl 2.2.0
tinycss2 1.2.1 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.7.1 typing_extensions 4.4.0
ujson 5.4.0 atualizações não supervisionadas 0,1 urllib3 1.26.14
virtualenv 20.16.7 wadllib 1.3.6 wcwidth 0.2.5
codificações web 0.5.1 websocket-client (cliente WebSocket) 0.58.0 whatthepatch 1.0.2
wheel 0.38.4 widgetsnbextension 3.6.1 yapf 0.33.0
zipp 1.0.0

Bibliotecas R instaladas

As bibliotecas do R são instaladas com base no instantâneo CRAN do Gerenciador de Pacotes do Posit em 13/07/2023: https://packagemanager.posit.co/cran/2023-07-13/.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
flecha 12.0.1 AskPass 1.1 afirme isso 0.2.1
backports 1.4.1 base 4.3.1 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.4
ciar 1.3-28 Fabricação de cerveja 1.0-8 Brio 1.1.3
vassoura 1.0.5 bslib 0.5.0 cachem 1.0.8
chamador 3.7.3 acento circunflexo (^) 6.0-94 Cellranger 1.1.0
crono 2.3-61 classe 7.3-22 Interface de Linha de Comando (CLI) 3.6.1
clipr 0.8.0 relógio 0.7.0 cluster 2.1.4
codetools 0.2-19 espaço de cores 2.1-0 commonmark 1.9.0
compilador 4.3.1 configuração 0.3.1 conflituoso 1.2.0
cpp11 0.4.4 giz de cera 1.5.2 credenciais 1.3.2
encurvar 5.0.1 Tabela de Dados 1.14.8 conjuntos de dados 4.3.1
DBI 1.1.3 dbplyr 2.3.3 Descrição 1.4.2
devtools 2.4.5 diagrama 1.6.5 diffobj 0.3.5
hash 0.6.33 iluminação para baixo 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 reticências 0.3.2
avaliar 0,21 fansi 1.0.4 cores 2.1.1
fastmap 1.1.1 fontawesome 0.5.1 para gatos 1.0.0
para cada 1.5.2 estrangeiro 0.8-85 forja 0.2.0
Fs 1.6.2 futuro 1.33.0 future.apply 1.11.0
gargarejar 1.5.1 genéricos 0.1.3 Gert 1.9.2
ggplot2 3.4.2 Gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 globais 0.16.2 associar 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
gráficos 4.3.1 grDevices 4.3.1 grade 4.3.1
gridExtra 2.3 gsubfn 0,7 gtable 0.3.3
capacete de segurança 1.3.0 refúgio 2.5.3 mais alto 0,10
Hms 1.1.3 ferramentas HTML 0.5.5 htmlwidgets 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
Identificadores 1.0.1 ini 0.3.1 ipred 0.9-14
isoband 0.2.7 Iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 malhador 1.43
rotulagem 0.4.2 posterior 1.3.1 treliça 0.21-8
lava vulcânica 1.7.2.1 ciclo de vida 1.0.3 ouça 0.9.0
lubrificado 1.9.2 magrittr 2.0.3 redução de preço 1,7
MISSA 7.3-60 Matriz 1.5-4.1 memorizar 2.0.1
métodos 4.3.1 mgcv 1.8-42 mímica 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelador 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.0.6 paralelo 4.3.1
paralelamente 1.36.0 pilar 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
plogr 0.2.0 plyr 1.8.8 elogio 1.0.0
prettyunits 1.1.1 Proc 1.18.4 processx 3.8.2
Prodlim 2023.03.31 profvis 0.3.8 progresso 1.2.2
progressador 0.13.0 promessas 1.2.0.1 proto 1.0.0
proxy 0.4-27 P.S. 1.7.5 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
Readr 2.1.4 readxl 1.4.3 receitas 1.0.6
jogo de revanche 1.0.1 revanche2 2.1.2 Controles remotos 2.4.2
exemplo reprodutível (reprex) 2.0.2 remodelar2 1.4.4 rlang 1.1.1
rmarkdown 2.23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.21 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
rvest 1.0.3 Sass 0.4.6 escamas 1.2.1
Seletor 0.4-2 informações da sessão 1.2.2 forma 1.4.6
brilhante 1.7.4.1 sourcetools 0.1.7-1 sparklyr 1.8.1
SparkR 3.5.0 espacial 7.3-15 Splines 4.3.1
sqldf 0.4-11 SQUAREM 2021.1 estatísticas 4.3.1
estatísticas4 4.3.1 stringi 1.7.12 stringr 1.5.0
sobrevivência 3.5-5 sys 3.4.2 systemfonts 1.0.4
tcltk 4.3.1 testthat 3.1.10 formatação de texto 0.3.6
tibble 3.2.1 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 2.0.0 mudança de horário 0.2.0 data e hora 4022.108
tinytex 0,45 ferramentas 4.3.1 tzdb 0.4.0
verificador de URL 1.0.1 usethis 2.2.2 utf8 1.2.3
utilitários 4.3.1 identificador único universal (UUID) 1.1-0 vctrs 0.6.3
viridisLite 0.4.2 Vroom 1.6.3 Waldo 0.5.1
vibrissa 0.4.1 murchar 2.5.0 xfun 0.39
xml2 1.3.5 xopen 1.0.0 xtable 1.8-4
YAML 2.3.7 zíper 2.3.0

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo ID do Artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws SDK Java para o ECS da AWS 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.390
com.amazonaws aws-java-sdk-swf-libraryes 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.13.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.datatype jackson-module-paranamer 2.15.2
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.15.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-nativos
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1-nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-nativos
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-nativos
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Sininho 1.9.0
com.google.errorprone anotações_propensas_a_erros 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0,25
io.delta delta-sharing-client_2.12 1.1.4
io.dropwizard.metrics anotação de métricas 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics métricas-verificações de saúde 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json (métricas em JSON) 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty Netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty Netty Resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty Netty Tcnative Classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-comum 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine picles 1,3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant lançador de formigas 1.9.16
org.apache.arrow formato de seta 12.0.1
org.apache.arrow seta-memória-core 12.0.1
org.apache.arrow Arrow-Memory-Netty 12.0.1
org.apache.arrow vetor de seta 12.0.1
org.apache.avro Avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Texto Comum 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator estrutura do curador 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.6
org.apache.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive API de armazenamento do Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Agendador de Ajustes do Hive (hive-shims-scheduler) 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-calços 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus comentários da audiência 0.13.0
org.apache.zookeeper zelador de zoológico 3.6.3
org.apache.zookeeper guarda de zoológico-juta 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty segurança do jetty 9.4.52.v20230823
org.eclipse.jetty servidor Jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty Webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket API de WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket servidor de websocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,40
org.glassfish.jersey.containers jersey-container-servlet-core 2,40
org.glassfish.jersey.core jersey-client 2,40
org.glassfish.jersey.core jersey-comum 2,40
org.glassfish.jersey.core jersey-server 2,40
org.glassfish.jersey.inject jersey-hk2 2,40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenésia 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Calços 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1