Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 14.3 LTS, alimentado pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em fevereiro de 2024.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Sugestão
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte as Notas de versão do Databricks Runtime com fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Novos recursos e melhorias
- Suporte ao sistema de arquivos Workspace no PySpark User-Defined Functions (UDFs) em clusters de modo de acesso padrão (anteriormente modo de acesso compartilhado)
-
MERGE - APIs de catálogo do Spark agora totalmente suportadas no modo de acesso padrão
- Delta UniForm agora está disponível para o público em geral
- Nova função SQL EXECUTE IMMEDIATE
- Recalcular estatísticas de pulo de dados para tabelas Delta
- Informações de estado de consulta para consultas de streaming com estado
- Usar o Microsoft Entra ID para autenticação Kafka em clusters padrão
- Suporte adicionado para remoção de arquivos e partições para melhorar o desempenho da consulta
- Declarar variáveis temporárias em uma sessão SQL
- Atualizações do Thriftserver para remover recursos não utilizados
- Utilize os ficheiros truststore e keystore em volumes do Unity Catalog
- Suporte ao formato de arquivo XML nativo (Visualização pública)
- Suporte para armazenamento Cloudflare R2 (visualização pública)
- Acesso ao Spark e ao dbutils aos ficheiros do espaço de trabalho em clusters de acesso padrão do Unity Catalog
- Scripts de inicialização e suporte de biblioteca de cluster em clusters do Unity Catalog com acesso padrão
Suporte ao sistema de ficheiros do espaço de trabalho em Funções Definidas pelo Utilizador (UDFs) do PySpark em clusters no modo de acesso normalizado (anteriormente modo de acesso compartilhado)
UDFs do PySpark em clusters padrão agora podem importar módulos Python de pastas Git, arquivos de espaço de trabalhoou volumes UC.
Para obter mais informações sobre como trabalhar com módulos em pastas Git ou arquivos de espaço de trabalho, consulte Trabalhar com módulos Python e R.
Suporte para otimizações de vetores de exclusão MERGE sem Photon
Já não é necessário utilizar o Photon para que as operações MERGE tirem partido das otimizações de vetores de eliminação. Consulte O que são vetores de exclusão?.
APIs de catálogo do Spark agora totalmente suportadas no modo de acesso padrão
Agora você pode usar todas as funções na API spark.catalog em Python e Scala na computação configurada com o modo de acesso padrão.
Delta UniForm agora está disponível para o público em geral
O UniForm está agora geralmente disponível e utiliza o recurso de tabela IcebergCompatV2. Agora você pode habilitar ou atualizar o UniForm em tabelas existentes. Veja Como ler tabelas Delta com clientes Iceberg.
Nova função SQL EXECUTE IMMEDIATE
Agora você pode usar a sintaxe EXECUTE IMMEDIATE para dar suporte a consultas parametrizadas em SQL. Consulte EXECUTE IMMEDIATE.
Recalcular estatísticas de salto de dados para as tabelas Delta
Agora você pode recalcular as estatísticas armazenadas no log Delta depois de alterar as colunas usadas para pular dados. Consulte Especificação das colunas de estatísticas delta.
Informações de estado de consulta para consultas de streaming com monitoração de estado
Agora você pode consultar dados e metadados de estado do Streaming Estruturado. Consulte Ler informações de estado do Structured Streaming.
Usar o Microsoft Entra ID para autenticação Kafka em clusters padrão
Agora pode autenticar serviços do Event Hubs via OAuth com o Microsoft Entra ID em sistema computacional configurado com o modo de acesso padrão. Consulte Autenticação do Principal do Serviço com o Microsoft Entra ID e Azure Event Hubs.
Suporte adicionado para remoção de arquivos e partições para melhorar o desempenho da consulta
Para acelerar algumas consultas que dependem da igualdade tolerante a nulos em condições JOIN, agora oferecemos suporte a DynamicFilePruning e DynamicPartitionPruning para o operador EqualNullSafe em JOINs.
Declarar variáveis temporárias em uma sessão SQL
Esta versão introduz a capacidade de declarar variáveis temporárias em uma sessão que pode ser definida e, em seguida, referida a partir de consultas. Consulte Variáveis.
Atualizações do Thriftserver para remover recursos não utilizados
O código do Thriftserver foi atualizado para remover o código relacionado a funcionalidades obsoletas. Devido a essas alterações, as seguintes configurações não são mais suportadas:
- Os JARs auxiliares do Hive, configurados usando a
hive.aux.jars.pathpropriedade, não são mais suportados parahive-thriftserverconexões. - O arquivo de inicialização global do Hive (
.hiverc), cujo local é configurado usando ahive.server2.global.init.file.locationpropriedade ou aHIVE_CONF_DIRvariável de ambiente, não é mais suportado parahive-thriftserverconexões.
Utilizar arquivos de truststore e keystore em volumes do Unity Catalog
Agora, pode usar ficheiros truststore e keystore nos volumes do Unity Catalog para autenticar num Confluent Schema Registry para dados avro ou de buffer de protocolo. Consulte a documentação para avro ou protocol buffers.
Suporte ao formato de arquivo XML nativo (Visualização pública)
O suporte ao formato de arquivo XML nativo agora está em Visualização Pública. O suporte ao formato de arquivo XML permite a ingestão, consulta e análise de dados XML para processamento em lote ou streaming. Ele pode inferir e evoluir automaticamente esquemas e tipos de dados, suporta expressões SQL como from_xml, e pode gerar documentos XML. Não requer JARs externos e funciona perfeitamente com Auto Loader, read_files, COPY INTO e DLT. Consulte Ler e gravar arquivos XML.
Suporte para armazenamento Cloudflare R2 (visualização pública)
Agora você pode usar o Cloudflare R2 como armazenamento em nuvem para dados registrados no Unity Catalog. O Cloudflare R2 destina-se principalmente a casos de uso do Delta Sharing nos quais você deseja evitar as taxas de saída de dados cobradas pelos provedores de nuvem quando os dados cruzam regiões. O armazenamento R2 suporta todos os dados Databricks e ativos de IA compatíveis com o AWS S3, o Azure Data Lake Storage e o Google Cloud Storage. Consulte Usar réplicas do Cloudflare R2 ou migrar o armazenamento para o R2 e Criar uma credencial de armazenamento para se conectar ao Cloudflare R2.
Acesso do Spark e dbutils ao suporte para ficheiros no espaço de trabalho em clusters de acesso padrão do Unity Catalog
O acesso de leitura e gravação do Spark e dbutils aos arquivos do espaço de trabalho agora é suportado nos clusters do Unity Catalog no modo de acesso padrão . Consulte Trabalhar com ficheiros de espaço de trabalho.
Suporte a scripts de inicialização e biblioteca de clusters em clusters do Unity Catalog de acesso padrão
A instalação de scripts init com escopo de cluster e bibliotecas Python e JAR em clusters do Unity Catalog em modo de acesso padrão, incluindo a instalação usando políticas de cluster, está agora geralmente disponível. O Databricks recomenda a instalação de scripts init e bibliotecas a partir de volumes do Unity Catalog.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- fastjsonschema de 2.19.0 para 2.19.1
- filelock de 3.12.4 a 3.13.1
- googleapis-common-protos de 1.61.0 a 1.62.0
- embalagem de 22,0 a 23,2
- Bibliotecas R atualizadas:
- estrangeiro de 0,8-82 a 0,8-85
- nlme de 3.1-162 a 3.1-163
- parte de 4.1.19 a 4.1.21
- Bibliotecas Java atualizadas:
- com.databricks.databricks-sdk-java de 0.7.0 a 0.13.0
- org.apache.orc.orc-core de 1.9.1-shaded-protobuf para 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.1-shaded-protobuf para 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.1 a 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 de 2.9.0 a 2.11.0
Faísca Apache
O Databricks Runtime 14.3 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 14.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-46541] [SC-153546][sql][CONNECT] Corrigir a referência de coluna ambígua na auto-união
- [SPARK-45433] Revert «[SC-145163][sql] Corrigir CSV/JSON schema infer…
- [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Tornar addArtifact repetível
- [SPARK-46660] [SC-153391][connect] ReattachExecute solicita atualizações sobre a vitalidade do SessionHolder
- [SPARK-46670] [SC-153273][python][SQL] Torne o DataSourceManager autoclonável separando fontes de dados Python estáticas e de tempo de execução
- [SPARK-46720] [SC-153410][sql][PYTHON] Refatore a fonte de dados Python para alinhar com outras fontes de dados internas do DSv2
- [SPARK-46684] [SC-153275][python][CONNECT] Corrija CoGroup.applyInPandas/Arrow para passar argumentos corretamente
- [SPARK-46667] [SC-153271][sc-153263][SQL] XML: Gerar erro em várias fontes de dados XML
- [SPARK-46382] [SC-151881][sql]XML: Padrão ignoreSurroundingSpaces para verdadeiro
-
[SPARK-46382] [SC-153178][sql] XML: Documento de atualização para
ignoreSurroundingSpaces - [SPARK-45292] Reverter "[SC-151609][sql][HIVE] Remover Guava de classes compartilhadas de IsolatedClientLoader"
- [SPARK-45292] [SC-151609][sql][HIVE] Remover Guava de classes compartilhadas de IsolatedClientLoader
-
[SPARK-46311] [SC-150137][core] Registe o estado final dos drivers durante
Master.removeDriver - [SPARK-46413] [SC-151052][python] Validar o returnType do Python UDF do Arrow
- [SPARK-46633] [WARMFIX][sc-153092][SQL] Corrija o leitor Avro para lidar com blocos de comprimento zero
- [SPARK-46537] [SC-151286][sql] Converter NPE e declarações de comandos para erros internos
- [SPARK-46179] [SC-151678][sql] Adicione CrossDbmsQueryTestSuites, que executa testes em outros DBMS contra ficheiros de referência com outros DBMS, começando com Postgres
- [SPARK-44001] [SC-151413][protobuf] Adicionar opção para permitir desembrulhar os tipos de invólucro bem conhecidos do protobuf
- [SPARK-40876] [SC-151786][sql] Expansão da promoção de tipo para decimais com maior escala em leitores Parquet
-
[SPARK-46605] [SC-151769][connect] Fazer com que
lit/typedLitfunção no módulo de conexão suportes.c.immutable.ArraySeq - [SPARK-46634] [SC-153005][sql] validação literal não deve aprofundar em campos nulos
-
[SPARK-37039] [SC-153094][ps] Corrigir
Series.astypepara funcionar corretamente quando há um valor em falta -
[SPARK-46312] [SC-150163][core] Use
lower_camel_casenostore_types.proto - [SPARK-46630] [SC-153084][sql] XML: Validar o nome do elemento XML durante a gravação
- [SPARK-46627] [SC-152981][ss][UI] Corrigir o conteúdo da dica de linha do tempo na interface de streaming
- [SPARK-46248] [SC-151774][sql] XML: Suporte para as opções ignoreCorruptFiles e ignoreMissingFiles
- [SPARK-46386] [SC-150766][python] Melhorar asserções de observação (pyspark.sql.observation)
- [SPARK-46581] [SC-151789][core] Comentário de atualização sobre isZero no AccumulatorV2
- [SPARK-46601] [SC-151785] [CORE] Corrigir erro de log em handleStatusMessage
- [SPARK-46568] [SC-151685][python] Tornar as opções de fonte de dados Python um dicionário que não diferencia maiúsculas de minúsculas
- [SPARK-46611] [SC-151783][core] Remova ThreadLocal substituindo SimpleDateFormat por DateTimeFormatter
-
[SPARK-46604] [SC-151768][sql] Suportar
Literal.applyas.c.immuable.ArraySeq - [SPARK-46324] [SC-150223][sql][PYTHON] Corrija o nome de saída de pyspark.sql.functions.user e session_user
- [SPARK-46621] [SC-151794][python] Corrigir o valor null de Exception.getMessage na exceção capturada pelo Py4J
- [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader deve respeitar o modo de memória ao criar vetores de coluna para a coluna ausente
- [SPARK-46613] [SC-151778][sql][PYTHON] Registar exceção completa ao falhar em procurar fontes de dados em Python
-
[SPARK-46559] [SC-151364][mllib] Envolva o
exportno nome do pacote com aspas invertidas - [SPARK-46522] [SC-151784][python] Bloquear o registo de uma fonte de dados Python com conflitos de nome
- [SPARK-45580] [SC-149956][sql] Gerir a situação em que uma subconsulta aninhada se torna uma junção de existência
- [SPARK-46609] [SC-151714][sql] Evite explosão exponencial em PartitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][sql] Corrigir NPE ao descrever detalhadamente uma coluna sem estatísticas de coluna
- [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Use TypeCoercion.findTightestCommonType para verificação de compatibilidade
- [SPARK-40876] [SC-151129][sql] Ampliando promoções de tipo em leitores Parquet
- [SPARK-46179] [SC-151069][sql] Extrair código para funções reutilizáveis no SQLQueryTestSuite
-
[SPARK-46586] [SC-151679][sql] Suporte
s.c.immutable.ArraySeqcomocustomCollectionClsemMapObjects -
[SPARK-46585] [SC-151622][core] Construir diretamente
metricPeakscomo umimmutable.ArraySeqem vez de usarmutable.ArraySeq.toSeqemExecutor - [SPARK-46488] [SC-151173][sql] Ignorando a chamada da função trimAll durante a análise de carimbos de data/hora
-
[SPARK-46231] [SC-149724][python] Migrar todos os
NotImplementedError&TypeErrorrestantes para a estrutura de erro do PySpark -
[SPARK-46348] [SC-150281][core] Suporte
spark.deploy.recoveryTimeout -
[SPARK-46313] [SC-150164][core] Duração da recuperação do log
Spark HA -
[SPARK-46358] [SC-150307][connect] Simplifique a verificação de condições no
ResponseValidator#verifyResponse - [SPARK-46380] [SC-151078][sql]Substitua a data/hora atual antes de avaliar expressões de tabela internas.
- [SPARK-46563] [SC-151441][sql] Vista simpleString não segue conf spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] Reduzir a profundidade da pilha ao substituir (string|array).size por (string|array).length
- [SPARK-46539] [SC-151469][sql] SELECT * EXCETO(todos os campos de uma estrutura) resulta numa falha de asserção
- [SPARK-46565] [SC-151414][python] Refine classes de erro e mensagens de erro para fontes de dados Python
- [SPARK-46576] [SC-151614][sql] Melhorar mensagens de erro para o modo de salvamento de fonte de dados sem suporte
- [SPARK-46540] [SC-151355][python] Respeitar os nomes das colunas quando a fonte de dados Python ler saídas de função denominadas Row objects
- [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite vaza o SessionState do Hive
-
[SPARK-44556] [SC-151562][sql] Reutilizar
OrcTailao ativar vectorizedReader - [SPARK-46587] [SC-151618][sql] XML: Corrigir a conversão de XSD para grandes inteiros
- [SPARK-46382] [SC-151297][sql] XML: Capturar valores intercalados entre elementos
- [SPARK-46567] [SC-151447][core] Remover ThreadLocal para ReadAheadInputStream
- [SPARK-45917] [SC-151269][python][SQL] Registro automático de Python Data Source na inicialização
- [SPARK-28386] [SC-151014][sql] Não é possível resolver ORDER BY colunas com GROUP BY e HAVING
- [SPARK-46524] [SC-151446][sql] Melhorar mensagens de erro para modo de salvamento inválido
- [SPARK-46294] [SC-150672][sql] Clarificar a semântica de init em comparação com valor zero
-
[SPARK-46301] [SC-150100][core] Suporte
spark.worker.(initial|max)RegistrationRetries -
[SPARK-46542] [SC-151324][sql] Remova a verificação de
c>=0doExternalCatalogUtils#needsEscaping, já que é sempre verdadeira -
[SPARK-46553] [SC-151360][ps]
FutureWarningparainterpolatecom objeto dtype - [SPARK-45914] [SC-151312][python] Suporte para confirmação e anulação de API para gravação de fonte de dados em Python
-
[SPARK-46543] [SC-151350][python][CONNECT] Faça
json_tuplelance PySparkValueError para campos vazios - [SPARK-46520] [SC-151227][python] Suporte para modo de substituição na gravação da fonte de dados Python
- [SPARK-46502] [SC-151235][sql] Suporta tipos de carimbo de data/hora em UnwrapCastInBinaryComparison
-
[SPARK-46532] [SC-151279][connect] Transmitir parâmetros de mensagem no metadado de
ErrorInfo -
[SPARK-46397] Revert "[SC-151311][python][CONNECT] Função
sha2deve lançarPySparkValueErrorparanumBitsinválido" - [SPARK-46170] [SC-149472][sql] Suportar a injeção de regras de estratégia de pós-planeamento de consulta adaptável em SparkSessionExtensions
- [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable não deve carregar a tabela
-
[SPARK-46397] [SC-151311][python][CONNECT] Função
sha2deve lançarPySparkValueErrorparanumBitsinválidos - [SPARK-46145] [SC-149471][sql] spark.catalog.listTables não lança exceção quando a tabela ou exibição não é encontrada
- [SPARK-46272] [SC-151012][sql] Suporte CTAS usando fontes DSv2
- [SPARK-46480] [SC-151127][core][SQL] Corrigir NPE ao tentar tarefa de cache de tabela
- [SPARK-46100] [SC-149051][core][PYTHON] Reduza a profundidade da pilha substituindo (string|array).size por (string|array).length
- [SPARK-45795] [SC-150764][sql] DS V2 suporta o modo push down
- [SPARK-46485] [SC-151133][sql] V1Write não deve adicionar Sort quando não for necessário
- [SPARK-46468] [SC-151121] [SQL] Resolver o bug COUNT para subconsultas EXISTS com Aggregate sem grupos de chaves
- [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE suporte SQL
-
[SPARK-46498] [SC-151199][core] Remover
shuffleServiceEnableddoo.a.spark.util.Utils#getConfiguredLocalDirs -
[SPARK-46440] [SC-150807][sql] Definir as configurações de rebase para o modo
CORRECTEDpor padrão - [SPARK-45525] [SC-151120][sql][PYTHON] Suporte para gravação de fonte de dados Python usando DSv2
-
[SPARK-46505] [SC-151187][connect] Torne o limite de bytes configurável no
ProtoUtils.abbreviate - [SPARK-46447] [SC-151025][sql] Remova as configurações SQL herdadas de rebaseamento de data/hora
- [SPARK-46443] [SC-151123][sql] A precisão decimal e a escala devem ser decididas pelo dialeto H2.
- [SPARK-46384] [SC-150694][spark-46404][SS][ui] Corrigir gráfico de duração das operações em pilha na página de streaming estruturado
- [SPARK-46207] [SC-151068][sql] Suporte MergeInto em DataFrameWriterV2
- [SPARK-46452] [SC-151018][sql] Adicionar uma nova API no DataWriter para escrever um iterador de registros
- [SPARK-46273] [SC-150313][sql] Suporte INSERT INTO/OVERWRITE usando fontes DSv2
- [SPARK-46344] [SC-150267][core] Avisar corretamente quando um driver existe com êxito, mas o mestre está desconectado
-
[SPARK-46284] [SC-149944][python][CONNECT] Adicionar
session_userfunção ao Python - [SPARK-46043] [SC-149786][sql] Suporte criar tabela usando fontes DSv2
- [SPARK-46323] [SC-150191][python] Corrigir o nome de saída de pyspark.sql.functions.now
-
[SPARK-46465] [SC-151059][python][CONNECT] Adicionar
Column.isNaNno PySpark -
[SPARK-46456] [SC-151050][core] Adicione
spark.ui.jettyStopTimeoutpara definir o tempo limite de parada do servidor Jetty para desbloquear o desligamento do SparkContext - [SPARK-43427] [SC-150356][protobuf] Spark Protobuf: permitir a transmissão de tipos inteiros não assinados
- [SPARK-46399] [SC-151013][14.x][Núcleo] Adicionar código de saída ao evento Application End para uso do Spark Listener
- [SPARK-46423] [SC-150752][python][SQL] Crie a instância Python Data Source em DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][python][SQL] Suporte a métricas Python em Python Data Source
- [SPARK-46330] [SC-151015] Carregamento de blocos da UI do Spark demorando muito tempo quando o HybridStore está ativado
- [SPARK-46378] [SC-150397][sql] Continuar a remover ordenação após converter agregação em projeto
- [SPARK-45506] [SC-146959][connect] Adicionar suporte a URI de Ivy no SparkConnect addArtifact
- [SPARK-45814] [SC-147871][connect][SQL]Make ArrowConverters.createEmptyArrowBatch call close() para evitar vazamento de memória
- [SPARK-46427] [SC-150759][python][SQL] Altere a descrição da fonte de dados Python para ser bonita na explicação
- [SPARK-45597] [SC-150730][python][SQL] Suporte à criação de tabela usando uma fonte de dados Python em SQL (DSv2 exec)
- [SPARK-46402] [SC-150700][python] Adicionar suporte a getMessageParameters e getQueryContext
-
[SPARK-46453] [SC-150897][connect] Lançar exceção de
internalError()emSessionHolder - [SPARK-45758] [SC-147454][sql] Introduzir um mapeador para codecs de compressão hadoop
-
[SPARK-46213] [PYTHON] Introduzir
PySparkImportErrorpara a estrutura de erros -
[SPARK-46230] [SC-149960][python] Migrar
RetriesExceededpara erro no PySpark - [SPARK-45035] [SC-145887][sql] Corrigir ignoreCorruptFiles/ignoreMissingFiles com arquivos CSV/JSON de várias linhas irá gerar um erro.
- [SPARK-46289] [SC-150846][sql] Suporte para ordenação de UDTs no modo interpretado
- [SPARK-46229] [SC-150798][python][CONNECT] Adicionar applyInArrow ao groupBy e cogroup em Spark Connect
- [SPARK-46420] [SC-150847][sql] Remover transporte não utilizado no SparkSQLCLIDriver
- [SPARK-46226] [PYTHON] Migrar o restante para a estrutura de erros do PySpark
- [SPARK-45796] [SC-150613][sql] Suporte para MODE() dentro do grupo (ORDER BY col)
- [SPARK-40559] [SC-149686][python][14.X] Adicionar applyInArrow ao groupBy e ao cogroup
- [SPARK-46069] [SC-149672][sql] Suporte a conversão de tipo de carimbo de data/hora para tipo de data
- [SPARK-46406] [SC-150770][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][ss] Converter
IllegalStateExceptioneminternalErrorem iteradores de sessão - [SPARK-45807] [SC-150751][sql] Melhorar a API ViewCatalog
- [SPARK-46009] [SC-149771][sql][CONNECT] Mesclar a regra de análise de PercentileCont e PercentileDisc em functionCall
- [SPARK-46403] [SC-150756][sql] Decodificar binário de Parquet com o método getBytesUnsafe
-
[SPARK-46389] [SC-150779][core] Feche manualmente a instância de
RocksDB/LevelDBquandocheckVersionlançar exceção -
[SPARK-46360] [SC-150376][python] Melhorar a depuração de mensagens de erro com a nova API
getMessage -
[SPARK-46233] [SC-149766][python] Migrar todos os restantes
AttributeErrorpara o quadro de erros do PySpark -
[SPARK-46394] [SC-150599][sql] Corrija problemas spark.catalog.listDatabases() em esquemas com caracteres especiais quando
spark.sql.legacy.keepCommandOutputSchemadefinido como true - [SPARK-45964] [SC-148484][sql] Remover o acessor SQL privado nos pacotes XML e JSON sob o pacote catalyst
- [SPARK-45856] [SC-148691] Move o ArtifactManager do Spark Connect para o SparkSession (sql/core)
- [SPARK-46409] [SC-150714][connect] Corrigir script de inicialização spark-connect-scala-client
-
[SPARK-46416] [SC-150699][core] Adicionar
@tailrecaHadoopFSUtils#shouldFilterOutPath -
[SPARK-46115] [SC-149154][sql] Restringir conjuntos de caracteres no
encode() - [SPARK-46253] [SC-150416][python] Planejar a leitura da fonte de dados Python usando MapInArrow
- [SPARK-46339] [SC-150266][ss] Diretório com nome de número de lote não deve ser tratado como log de metadados
-
[SPARK-46353] [SC-150396][núcleo] Refatorar para melhorar a cobertura dos testes unitários
RegisterWorker - [SPARK-45826] [SC-149061][sql] Adicionar uma configuração SQL para rastreamentos de pilha no contexto de consulta DataFrame
- [SPARK-45649] [SC-150300][sql] Unifique a estrutura de preparação para OffsetWindowFunctionFrame
-
[SPARK-46346] [SC-150282][core] Corrigir o Master para atualizar um worker de
UNKNOWNparaALIVEna mensagemRegisterWorker -
[SPARK-46388] [SC-150496][sql] HiveAnalysis falha em reconhecer a verificação de padrão de
query.resolved -
[SPARK-46401] [SC-150609][core] Use
!isEmpty()noRoaringBitmapem vez degetCardinality() > 0noRemoteBlockPushResolver - [SPARK-46393] [SC-150603][sql] Classificar exceções no catálogo de tabelas JDBC
- [SPARK-45798] [SC-150513][connect] Seguimento: adicionar serverSessionId a SessionHolderInfo
- [SPARK-46153] [SC-146564][sc-150508][SQL] XML: Adicionar suporte a TimestampNTZType
- [SPARK-46075] [SC-150393][connect] Melhorias no SparkConnectSessionManager
- [FAÍSCA-46357] [SC-150596] Substituir o uso incorreto de setConf na documentação por conf.set
- [SPARK-46202] [SC-150420][connect] Expor novas APIs do ArtifactManager para oferecer suporte a diretórios de destino personalizados
-
[SPARK-45824] [SC-147648][sql] Aplicar a classe de erro no
ParseException - [SPARK-45845] [SC-148163][ss][UI] Adicionar número de linhas de estado removidas à interface do usuário de streaming
-
[SPARK-46316] [SC-150181][core] Ativar
buf-lint-actionno módulocore -
[SPARK-45816] [SC-147656][sql] Retornar
NULLem caso de estouro durante a conversão de carimbo de data/hora para inteiros -
[SPARK-46333] [SC-150263][sql] Substitua
IllegalStateExceptionporSparkException.internalErrorno catalisador - [SPARK-45762] [SC-148486][core] Suporte para gestores de shuffle definidos nos pacotes de utilizador alterando a ordem de arranque
-
[SPARK-46239] [SC-149752][core] Ocultar informações
Jetty -
[SPARK-45886] [SC-148089][sql] Exibir rastreamento completo da pilha em
callSiteno contexto de DataFrame - [SPARK-46290] [SC-150059][python] Alterar saveMode para um sinalizador booleano para DataSourceWriter
- [SPARK-45899] [SC-148097][connect] Definir errorClass em errorInfoToThrowable
-
[SPARK-45841] [SC-147657][sql] Expor rastreamento de pilha através de
DataFrameQueryContext -
[SPARK-45843] [SC-147721][core] Suporte
killallna API de envio REST -
[SPARK-46234] [SC-149711][python] Introduza
PySparkKeyErrorpara a estrutura de erro do PySpark - [SPARK-45606] [SC-147655][sql] Levantar restrições no filtro de tempo de execução multicamadas
- [SPARK-45725] [SC-147006][sql] Remover o filtro de execução não padrão da subconsulta IN
-
[SPARK-45694] [SC-147314][spark-45695][SQL] Eliminar
View.forceeScalaNumberProxy.signumdo uso de APIs preteridas -
[SPARK-45805] [SC-147488][sql] Tornar
withOriginmais genérico - [SPARK-46292] [SC-150086][core][UI] Mostrar um resumo dos trabalhadores na MasterPage
-
[SPARK-45685] [SC-146881][core][SQL] Use
LazyListem vez deStream - [SPARK-45888] [SC-149945][ss] Aplicar estrutura de classe de erro à fonte de dados de estado (metadados)
-
[SPARK-46261] [SC-150111][connect]
DataFrame.withColumnsRenameddeve manter a ordem do dicionário/mapa -
[SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Limpar
SeqOps.vieweArrayOps.viewconversões -
[SPARK-46029] [SC-149255][sql] Fuja da cotação simples,
_e%para DS V2 pushdown - [FAÍSCA-46275] [SC-150189] Protobuf: Retorna nulo em modo permissivo quando a desserialização falha.
-
[SPARK-46320] [SC-150187][core] Suporte
spark.master.rest.host - [SPARK-46092] [SC-149658][sql] Não empurre para baixo os filtros de grupo de linhas do Parquet que transbordam
- [SPARK-46300] [SC-150097][python][CONNECT] Ajustar correspondência de comportamento menor em coluna com cobertura total de testes
- [SPARK-46298] [SC-150092][python][CONNECT] Aviso de descontinuação, caso de teste e erro relacionados com Catalog.createExternalTable
-
[SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Limpar o uso obsoleto da API relacionado a
StringContext/StringOps/RightProjection/LeftProjection/Eithere o uso de tipo deBufferedIterator/CanBuildFrom/Traversable - [SPARK-33393] [SC-148407][sql] Suportar SHOW TABLE EXTENDED na v2
-
[SPARK-45737] [SC-147011][sql] Remover
.toArray[InternalRow]desnecessário noSparkPlan#executeTake - [SPARK-46249] [SC-149797][ss] Exigir bloqueio de instância para adquirir métricas do RocksDB para evitar corridas com operações em segundo plano
-
[SPARK-46260] [SC-149940][python][SQL]
DataFrame.withColumnsRenameddeve respeitar a ordem do dicionário - [FAÍSCA-46274] [SC-150043] [SQL] Corrigir o operador Intervalo computeStats() para verificar a validade do tipo long antes de converter
- [SPARK-46040] [SC-149767][sql][Python] Atualize a API UDTF para 'analisar' colunas de particionamento/ordenação para suportar expressões gerais
-
[SPARK-46287] [SC-149949][python][CONNECT]
DataFrame.isEmptydeve funcionar com todos os tipos de dados - [SPARK-45678] [SC-146825][core] Capa BufferReleasingInputStream.available/reset em tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][core][SQL][connect] Limpe o uso preterido da API relacionado ao
IterableOnceExtensionMethods. -
[SPARK-43980] [SC-148992][sql] introduzindo a
select * exceptsintaxe - [SPARK-46269] [SC-149816][ps] Ativar mais testes de compatibilidade com funções NumPy
- [SPARK-45807] [SC-149851][sql] Adicionar createOrReplaceView(..) / replaceView(..) a ViewCatalog
-
[SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Introduza uma função implícita para o Scala Array ser encapsulado em
immutable.ArraySeq. -
[SPARK-46205] [SC-149655][core] Melhore o desempenho
PersistenceEnginecomKryoSerializer - [SPARK-45746] [SC-149359][python] Retorna mensagens de erro específicas se o método UDTF 'analyze' ou 'eval' aceitar ou retornar valores errados
- [SPARK-46186] [SC-149707][connect] Corrige a transição de estado ilegal quando o ExecuteThreadRunner foi interrompido antes de ser iniciado
-
[SPARK-46262] [SC-149803][ps] Habilite o teste para
np.left_shiftpara o objeto Pandas-on-Spark. - [SPARK-45093] [SC-149679][connect][PYTHON] Suporta corretamente a manipulação e conversão de erros para AddArtifactHandler
- [SPARK-46188] [SC-149571][doc][3.5] Corrija o CSS das tabelas geradas pelo Spark doc
- [SPARK-45940] [SC-149549][python] Adicionar InputPartition à interface DataSourceReader
- [SPARK-43393] [SC-148301][sql] Erro de estouro de expressão de sequência de endereço.
- [SPARK-46144] [SC-149466][sql] Falhar INSERT INTO ... Instrução SE a condição contiver uma subconsulta REPLACE
-
[SPARK-46118] [SC-149096][sql][SS][connect] Use
SparkSession.sessionState.confem vez deSQLContext.confe marqueSQLContext.confcomo preterido - [SPARK-45760] [SC-147550][sql] Adicionar com expressão para evitar duplicação de expressões
- [SPARK-43228] [SC-149670][sql] As chaves de junção também correspondem a PartitioningCollection em CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][ps] Teste SparkPandasNotImplementedError com limpeza de código não utilizado
-
[SPARK-46119] [SC-149205][sql] Redefinir o método
toStringparaUnresolvedAlias - [SPARK-46206] [SC-149674][ps] Usar uma exceção de escopo mais restrito para o processador SQL
-
[SPARK-46191] [SC-149565][core] Melhorar
FileSystemPersistenceEngine.persistmensagem de erro no caso do arquivo existente - [SPARK-46036] [SC-149356][sql] Remover a classe de erro da função raise_error
- [SPARK-46055] [SC-149254][sql] Reescrever a implementação das APIs do Catálogo de Base de Dados
- [SPARK-46152] [SC-149454][sql] XML: Adicionar suporte a DecimalType na inferência de esquema XML
- [SPARK-45943] [SC-149452][sql] Mover DetermineTableStats para regras de resolução
-
[SPARK-45887] [SC-148994][sql] Alinhar codegen e implementação não-codegen de
Encode - [SPARK-45022] [SC-147158][sql] Fornecer contexto para erros de API de conjunto de dados
-
[SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Substitua
toIteratorporiteratorparaIterableOnce - [SPARK-46141] [SC-149357][sql] Alterar o padrão de spark.sql.legacy.ctePrecedencePolicy para CORRIGIDO
-
[SPARK-45663] [SC-146617][core][MLLIB] Substitua
IterableOnceOps#aggregateporIterableOnceOps#foldLeft - [SPARK-45660] [SC-146493][sql] Reutilizar objetos literais na regra ComputeCurrentTime
-
[SPARK-45803] [SC-147489][core] Remova o
RpcAbortExceptionnão mais usado - [SPARK-46148] [SC-149350][ps] Corrigir teste pyspark.pandas.mlflow.load_model (Python 3.12)
- [SPARK-46110] [SC-149090][python] Utilize categorias de erro nos módulos catalog, conf, connect, observation, pandas
- [SPARK-45827] [SC-149203][sql] Correção de variantes com codegen e leitores vetorizados desativados
- [SPARK-46080] Reverter "[SC-149012][python] Atualizar Cloudpickle para 3.0.0"
-
[SPARK-45460] [SC-144852][sql] Substitua
scala.collection.convert.ImplicitConversionsporscala.jdk.CollectionConverters - [SPARK-46073] [SC-149019][sql] Remover a resolução especial de UnresolvedNamespace para determinados comandos
- [SPARK-45600] [SC-148976][python] Fazer com que o registo da fonte de dados Python seja ao nível da sessão
- [SPARK-46074] [SC-149063][connect][SCALA] Detalhes insuficientes na mensagem de erro sobre falha UDF
- [SPARK-46114] [SC-149076][python] Adicionar PySparkIndexError para a estrutura de erro
-
[SPARK-46120] [SC-149083][connect][PYTHON] Remover a função auxiliar
DataFrame.withPlan - [SPARK-45927] [SC-148660][python] Atualização do gerenciamento de caminhos para fonte de dados Python
- [SPARK-46062] [14.x][sc-148991][SQL] Sincronize o sinalizador isStreaming entre a definição de CTE e a referência
-
[SPARK-45698] [SC-146736][core][SQL][ss] Limpe o uso preterido da API relacionado ao
Buffer - [SPARK-46064] [SC-148984][sql][SS] Mover EliminateEventTimeWatermark para o analisador e alterar para se aplicar apenas ao filho resolvido
- [SPARK-45922] [SC-149038][connect][CLIENT] Refatoração de tentativas mínimas (acompanhamento de várias políticas)
- [SPARK-45851] [SC-148419][connect][SCALA] Suporte a várias políticas no cliente scala
- [SPARK-45974] [SC-149062][sql] Adicionar verificação para garantir que scan.filterAttributes não esteja vazio no RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][connect] Dataset.groupingSets no cliente Scala Spark Connect
- [SPARK-45136] [SC-146607][connect] Melhore o ClosureCleaner com suporte para amonite
- [SPARK-46084] [SC-149020][ps] Refatore a operação de conversão de tipos de dados para o tipo Categórico.
- [SPARK-46083] [SC-149018][python] Faça SparkNoSuchElementException como uma API de erro canônico
- [SPARK-46048] [SC-148982][python][CONNECT] Suporte para DataFrame.groupingSets no Python Spark Connect
- [SPARK-46080] [SC-149012][python] Atualize o Cloudpickle para 3.0.0
- [SPARK-46082] [SC-149015][python][CONNECT] Corrigir a representação de cadeia de caracteres protobuf para a API do Pandas Functions com o Spark Connect
-
[SPARK-46065] [SC-148985][ps] Refatorar
(DataFrame|Series).factorize()para usarcreate_map. - [SPARK-46070] [SC-148993][sql] Compilar padrão regex em SparkDateTimeUtils.getZoneId fora do hot loop
- [SPARK-46063] [SC-148981][python][CONNECT] Melhorar mensagens de erro relacionadas aos tipos de argumento em cute, rollup, groupby e pivot
- [SPARK-44442] [SC-144120][mesos] Remover o suporte do Mesos
- [SPARK-45555] [SC-147620][python] Inclui um objeto depurável para falha de asserção
- [SPARK-46048] [SC-148871][python][SQL] Suporta DataFrame.groupingSets no PySpark
- [SPARK-45768] [SC-147304][sql][PYTHON] Tornar o faulthandler uma configuração de tempo de execução para execução Python em SQL
- [SPARK-45996] [SC-148586][python][CONNECT] Mostrar mensagens de requisito de dependência adequadas para o Spark Connect
- [SPARK-45681] [SC-146893][ui] Clone uma versão js de UIUtils.errorMessageCell para renderização consistente de erros na UI
-
[SPARK-45767] [SC-147225][core] Excluir
TimeStampedHashMape sua UT - [SPARK-45696] [SC-148864][core] Corrigir método tryCompleteWith no traço Promise foi preterido
- [SPARK-45503] [SC-146338][ss] Adicionar Conf para definir a compressão RocksDB
-
[SPARK-45338] [SC-143934][core][SQL] Substitua
scala.collection.JavaConvertersparascala.jdk.CollectionConverters -
[SPARK-44973] [SC-148804][sql] Corrigir
ArrayIndexOutOfBoundsExceptionnoconv() - [SPARK-45912] [SC-144982][sc-148467][SQL] Aprimoramento da API XSDToSchema: Alterar para a API HDFS para acessibilidade de armazenamento em nuvem
-
[SPARK-45819] [SC-147570][core] Suporte a
clearna API de submissão REST -
[SPARK-45552] [14.x][sc-146874][PS] Introduza parâmetros flexíveis para
assertDataFrameEqual -
[SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Fornecer uma interface para que outras fontes de streaming possam adicionar
_metadatacolunas - [SPARK-45929] [SC-148692][sql] Suporte a operação groupingSets na api de dataframe
- [SPARK-46012] [SC-148693][core] O EventLogFileReader não deve ler logs contínuos se o arquivo de status do aplicativo estiver ausente
- [SPARK-45965] [SC-148575][sql] Mover expressões de particionamento DSv2 para functions.partitioning
-
[SPARK-45971] [SC-148541][core][SQL] Corrija o nome do pacote de
SparkCollectionUtilsparaorg.apache.spark.util -
[SPARK-45688] [SC-147356][spark-45693][CORE] Limpar o uso preterido da "API" relacionado à
MapOpse corrigirmethod += in trait Growable is deprecated -
[SPARK-45962] [SC-144645][sc-148497][SQL] Remova
treatEmptyValuesAsNullse use a opçãonullValueem substituição no XML -
[SPARK-45988] [SC-148580][spark-45989][PYTHON] Corrigir dicas de tipo para lidar com
listGenericAlias em Python 3.11+ -
[SPARK-45999] [SC-148595][ps] Usar
PandasProductdedicado emcumprod -
[SPARK-45986] [SC-148583][ml][PYTHON] Corrigir
pyspark.ml.torch.tests.test_distributorno Python 3.11 -
[SPARK-45994] [SC-148581][python] Alterar
description-fileparadescription_file - [SPARK-45575] [SC-146713][sql] Suporte a opções de viagem no tempo para a df read API
- [SPARK-45747] [SC-148404][ss] Usar informações de chave de prefixo em metadados de estado para manipular o estado de leitura para agregação de janela de sessão
- [SPARK-45898] [SC-148213][sql] Reescrever APIs de tabela de catálogo para utilizar um plano lógico não resolvido
- [SPARK-45828] [SC-147663][sql] Remover método preterido em dsl
-
[SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Atualize
protobufpara 4.25.1 para suportarPython 3.11 - [SPARK-45911] [SC-148226][core] Tornar TLS1.3 o padrão para RPC SSL
- [SPARK-45955] [SC-148429][ui] Fechar Suporte para Flamegraph e detalhes de despejo de thread
-
[SPARK-45936] [SC-148392][ps] Otimizar
Index.symmetric_difference - [SPARK-45389] [SC-144834][sql][3.5] Regra de correspondência MetaException correta ao obter metadados de partição
- [SPARK-45655] [SC-148085][sql][SS] Permitir expressões não determinísticas dentro de AggregateFunctions em CollectMetrics
- [SPARK-45946] [SC-148448][ss] Corrigir o uso dos métodos de gravação do FileUtils que foram preteridos para passar o charset padrão no RocksDBSuite
- [SPARK-45511] [SC-148285][ss] Fonte de Dados de Estado - Leitor
-
[SPARK-45918] [SC-148293][ps] Otimizar
MultiIndex.symmetric_difference - [SPARK-45813] [SC-148288][connect][PYTHON] Retornar as métricas observadas dos comandos
-
[SPARK-45867] [SC-147916][core] Suporte
spark.worker.idPattern -
[SPARK-45945] [SC-148418][connect] Adicionar uma função auxiliar para
parser - [SPARK-45930] [SC-148399][sql] Suporta UDFs não determinísticas em MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][python] Criar API UDTF Python para parar de consumir linhas da tabela de entrada
-
[SPARK-45731] [SC-147929][sql] Atualize também as estatísticas de partição com
ANALYZE TABLEcomando -
[SPARK-45868] [SC-148355][connect] Certifique-se
spark.tableusar o mesmo analisador com faísca de baunilha - [SPARK-45882] [SC-148161][sql] A propagação do particionamento em BroadcastHashJoinExec deve respeitar o CoalescedHashPartitioning
- [SPARK-45710] [SC-147428][sql] Atribuir nomes ao erro _LEGACY_ERROR_TEMP_21[59,60,61,62]
-
[SPARK-45915] [SC-148306][sql] Trate decimal(x, 0) da mesma forma que IntegralType em
PromoteStrings - [SPARK-45786] [SC-147552][sql] Corrigir resultados imprecisos de multiplicação e divisão decimal
-
[SPARK-45871] [SC-148084][connect] Otimizações na conversão de coleção relacionadas a
.toBuffernos módulosconnect - [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager pode tentar aceder um sparkcontext que foi parado
- [SPARK-45913] [SC-148289][python] Torne os atributos internos privados de erros do PySpark.
- [SPARK-45827] [SC-148201][sql] Adicionar tipo de dados Variant no Spark.
- [SPARK-44886] [SC-147876][sql] Introduza CLUSTER BY cláusula para CREATE/REPLACE TABLE
-
[SPARK-45756] [SC-147959][core] Suporte
spark.master.useAppNameAsAppId.enabled - [SPARK-45798] [SC-147956][connect] Afirmar ID de sessão do lado do servidor
-
[SPARK-45896] [SC-148091][sql] Construa
ValidateExternalTypecom o tipo esperado correto -
[SPARK-45902] [SC-148123][sql] Remover funções não utilizadas do
resolvePartitionColumnsdeDataSource -
[SPARK-45909] [SC-148137][sql] Remova
NumericTypecast se puder ser convertido com segurança noIsNotNull - [SPARK-42821] [SC-147715][sql] Remover parâmetros não utilizados em métodos splitFiles
-
[SPARK-45875] [SC-148088][core] Remover
MissingStageTableRowDatado módulocore - [SPARK-45783] [SC-148120][python][CONNECT] Melhorar as mensagens de erro quando o modo Spark Connect está ativado, mas o URL remoto não está definido
- [SPARK-45804] [SC-147529][ui] Adicionar configuração spark.ui.threadDump.flamegraphEnabled para ativar/desativar o gráfico de chama
- [SPARK-45664] [SC-146878][sql] Introduzir um mapeador para codecs de compressão orc
- [SPARK-45481] [SC-146715][sql] Introduzir um mapeador para codecs de compressão de parquet
- [SPARK-45752] [SC-148005][sql] Simplifique o código para verificar relações CTE não referenciadas
- [SPARK-44752] [SC-146262][sql] XML: Atualizar o Spark Docs
- [SPARK-45752] [SC-147869][sql] CTEs não referenciados devem ser todos verificados por meio de CheckAnalysis0
- [SPARK-45842] [SC-147853][sql] Refatorar APIs das Funções do Catálogo para usar analisador
- [SPARK-45639] [SC-147676][sql][PYTHON] Suporte ao carregamento de fontes de dados Python no DataFrameReader
- [SPARK-45592] [SC-146977][sql] Problema de precisão no AQE com InMemoryTableScanExec
- [SPARK-45794] [SC-147646][ss] Introduzir uma fonte de metadados de estado para consultar as informações de metadados do estado do streaming
- [SPARK-45739] [SC-147059][python] Catch IOException em vez de apenas EOFException para faulthandler
- [SPARK-45677] [SC-146700] Melhor log de erros para a API de Observação
- [SPARK-45544] [SC-146873][core] Integrar suporte SSL no TransportContext
- [SPARK-45654] [SC-147152][python] Adicionar API de escrita da origem de dados Python
-
[SPARK-45771] [SC-147270][core] Ativar
spark.eventLog.rolling.enabledpor padrão - [SPARK-45713] [SC-146986][python] Suporte ao registro de fontes de dados Python
- [SPARK-45656] [SC-146488][sql] Corrigir observação quando ocorrem observações nomeadas com o mesmo nome em conjuntos de dados diferentes
- [SPARK-45808] [SC-147571][connect][PYTHON] Melhor tratamento de erros para exceções SQL
-
[SPARK-45774] [SC-147353][core][UI] Suporte
spark.master.ui.historyServerUrlemApplicationPage -
[SPARK-45776] [SC-147327][core] Remova a verificação de nulidade defensiva para
MapOutputTrackerMaster#unregisterShuffleadicionada em SPARK-39553 - [SPARK-45780] [SC-147410][connect] Propagar todos os threadlocals do cliente Spark Connect em InheritableThread
-
[SPARK-45785] [SC-147419][core] Suporte
spark.deploy.appNumberModulopara alterar o número da aplicação - [SPARK-45793] [SC-147456][core] Melhorar os codecs de compressão incorporados
- [SPARK-45757] [SC-147282][ml] Evite o recálculo da NNZ no Binarizer
- [SPARK-45209] [SC-146490][core][UI] Suporte para gráfico de chamas na página de registo de threads do executor
-
[SPARK-45777] [SC-147319][core] Suporte
spark.test.appIdemLocalSchedulerBackend - [SPARK-45523] [SC-146331][python] Refatore a verificação de nulos para ter atalhos
- [SPARK-45711] [SC-146854][sql] Introduzir um mapeador para codecs de compressão avro
- [SPARK-45523] [SC-146077][python] Retornar uma mensagem de erro útil se a UDTF devolver None para qualquer coluna não anulável
- [SPARK-45614] [SC-146729][sql] Atribuir nomes ao erro _LEGACY_ERROR_TEMP_215[6,7,8]
-
[SPARK-45755] [SC-147164][sql] Melhore
Dataset.isEmpty()aplicando limite global1 - [SPARK-45569] [SC-145915][sql] Atribuir um nome ao erro _LEGACY_ERROR_TEMP_2153
-
[SPARK-45749] [SC-147153][core][WEBUI] Corrigir
Spark History Serverpara classificar corretamente a colunaDuration -
[SPARK-45754] [SC-147169][core] Suporte
spark.deploy.appIdPattern -
[SPARK-45707] [SC-146880][sql] Simplifique
DataFrameStatFunctions.countMinSketchcomCountMinSketchAgg -
[SPARK-45753] [SC-147167][core] Suporte
spark.deploy.driverIdPattern -
[SPARK-45763] [SC-147177][core][UI] Melhorar
MasterPagepara mostrar a colunaResourceapenas quando ela existir - [SPARK-45112] [SC-143259][sql] Usar a resolução baseada em UnresolvedFunction em funções de conjunto de dados SQL
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 14.3.
Ambiente do sistema
-
Sistema Operacional: Ubuntu 22.04.3 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java: Zulu 8.74.0.17-CA-linux64
- Escala: 2.12.15
- Píton: 3.10.12
- R: 4.3.1
- Lago Delta: 3.1.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Anyio | 3.5.0 | Argão2-CFFI | 21.3.0 | argon2-cffi-vinculações | 21.2.0 |
| AstTokens | 2.0.5 | Atributos | 22.1.0 | Chamada de retorno | 0.2.0 |
| BeautifulSoup4 | 4.11.1 | preto | 22.6.0 | lixívia | 4.1.0 |
| pisca | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.96 |
| certifi | 2022.12.7 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Normalizador de Charset | 2.0.4 | clicar | 8.0.4 | Comunicação | 0.1.2 |
| contorno | 1.0.5 | criptografia | 39.0.1 | ciclista | 0.11.0 |
| Cython | 0.29.32 | Databricks-SDK | 0.1.6 | dbus-python | 1.2.18 |
| depuração | 1.6.7 | decorador | 5.1.1 | DeUsedXML | 0.7.1 |
| Distlib | 0.3.7 | convertendo docstring em markdown | 0,11 | pontos de entrada | 0.4 |
| executar | 0.8.3 | facetas-visão geral | 1.1.1 | fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.19.1 |
| bloqueio de ficheiros | 3.13.1 | Fonttools | 4.25.0 | googleapis-comuns-protos | 1.62.0 |
| Grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| IDNA | 3.4 | importlib-metadados | 4.6.4 | Ipykernel | 6.25.0 |
| IPython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jeepney (veículo de transporte público típico das Filipinas) | 0.7.1 | Jinja2 | 3.1.2 |
| JmesPath | 0.10.0 | Joblib | 1.2.0 | jsonschema | 4.17.3 |
| Jupyter Client | 7.3.4 | jupyter-servidor | 1.23.4 | jupyter_core | 5.2.0 |
| JupyterLab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | porta-chaves | 23.5.0 |
| Kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | LXML | 4.9.1 | Marcação Segura | 2.1.1 |
| Matplotlib | 3.7.0 | matplotlib-em linha | 0.1.6 | Mccabe | 0.7.0 |
| Mistune | 0.8.4 | mais-itertools | 8.10.0 | mypy extensions | 0.4.3 |
| NBMédico | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
| nbformat | 5.7.0 | Ninho-Asyncio | 1.5.6 | nodeenv | 1.8.0 |
| bloco de notas | 6.5.2 | notebook_shim | 0.2.2 | dormência | 1.23.5 |
| OAuthlib | 3.2.0 | embalagem | 23.2 | pandas | 1.5.3 |
| PandocFilters | 1.5.0 | Parso | 0.8.3 | PathSpec | 0.10.3 |
| vítima | 0.5.3 | Espere | 4.8.0 | pickleshare | 0.7.5 |
| Almofada | 9.4.0 | pip (o gestor de pacotes do Python) | 22.3.1 | plataformadirs | 2.5.2 |
| enredo | 5.9.0 | Pluggy | 1.0.0 | Prometheus-Cliente | 0.14.1 |
| kit de ferramentas de prompt | 3.0.36 | Protobuf | 4.24.0 | PSUTIL | 5.9.0 |
| PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 8.0.0 | Correção rápida do PyArrow | 0,5 | Pycparser | 2.21 |
| Pidântico | 1.10.6 | Pyflakes | 3.1.0 | Pigmentos | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | Pyodbc | 4.0.32 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | pirsistent | 0.18.0 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-servidor | 1.8.0 |
| pytoolconfig | 1.2.5 | Pytz | 2022.7 | Pyzmq | 23.2.0 |
| pedidos | 2.28.1 | corda | 1.7.0 | s3transferência | 0.6.2 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.1.1 | SciPy | 1.10.0 | nascido no mar | 0.12.2 |
| Armazenamento Secreto | 3.3.1 | Enviar para o Lixo | 1.8.0 | Ferramentas de configuração | 65.6.3 |
| seis | 1.16.0 | sniffio | 1.2.0 | Coador de sopa | 2.3.2.post1 |
| ssh-import-id | 5.11 | dados do stack | 0.2.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.13.5 |
| tenacidade | 8.1.0 | terminado | 0.17.1 | Threadpoolctl | 2.2.0 |
| tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
| tornado | 6.1 | traços | 5.7.1 | typing_extensions (extensões de digitação) | 4.4.0 |
| Ujson | 5.4.0 | Atualizações não supervisionadas | 0.1 | urllib3 | 1.26.14 |
| virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| codificações da web | 0.5.1 | Websocket-cliente | 0.58.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 |
| wheel | 0.38.4 | widgetsnbextension | 3.6.1 | Yapf | 0.33.0 |
| zipp | | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do snapshot do CRAN do Posit Package Manager em 13/07/2023: https://packagemanager.posit.co/cran/2023-07-13/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 12.0.1 | AskPass | 1.1 | afirme que | 0.2.1 |
| Retroportagens | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| pouco | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
| inicialização | 1.3-28 | fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.5 | BSLIB | 0.5.0 | cachemira | 1.0.8 |
| Chamador | 3.7.3 | Caret | 6.0-94 | CellRanger | 1.1.0 |
| crono | 2.3-61 | classe | 7.3-22 | CLI | 3.6.1 |
| Clipr | 0.8.0 | relógio | 0.7.0 | cluster | 2.1.4 |
| CodeTools | 0.2-19 | espaço de cores | 2.1-0 | marca comum | 1.9.0 |
| compilador | 4.3.1 | Configurações | 0.3.1 | conflituoso | 1.2.0 |
| CPP11 | 0.4.4 | lápis de cor | 1.5.2 | credenciais | 1.3.2 |
| encaracolar | 5.0.1 | tabela de dados | 1.14.8 | conjuntos de dados | 4.3.1 |
| DBI | 1.1.3 | DBPlyr | 2.3.3 | descrição | 1.4.2 |
| DevTools | 2.4.5 | diagrama | 1.6.5 | diffobj | 0.3.5 |
| resumo | 0.6.33 | Iluminação reduzida | 0.4.3 | DPLYR | 1.1.2 |
| DTPlyr | 1.3.1 | E1071 | 1.7-13 | reticências | 0.3.2 |
| avaliar | 0.21 | Fansi | 1.0.4 | cores | 2.1.1 |
| mapa rápido | 1.1.1 | fontawesome | 0.5.1 | forçados | 1.0.0 |
| para cada | 1.5.2 | estrangeiro/a | 0.8-85 | forjar | 0.2.0 |
| FS | 1.6.2 | Futuro | 1.33.0 | futuro.apply | 1.11.0 |
| gargarejo | 1.5.1 | genérico | 0.1.3 | Gert | 1.9.2 |
| GGPLOT2 | 3.4.2 | GH | 1.4.0 | gitcreds | 0.1.2 |
| GLMNET | 4.1-7 | Globais | 0.16.2 | cola | 1.6.2 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.3.1 | grDispositivos | 4.3.1 | grelha | 4.3.1 |
| gridExtra | 2.3 | GSUBFN | 0,7 | tabela g | 0.3.3 |
| capacete de segurança | 1.3.0 | Refúgio | 2.5.3 | mais alto | 0.10 |
| HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.5 | htmlwidgets (componentes HTML interativos) | 1.6.2 |
| httpuv | 1.6.11 | HTTR | 1.4.6 | HTTR2 | 0.2.3 |
| identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| Banda isobárica | 0.2.7 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | Knitr | 1.43 |
| etiquetagem | 0.4.2 | mais tarde | 1.3.1 | treliça | 0.21-8 |
| lave | 1.7.2.1 | ciclo de vida | 1.0.3 | ouvir | 0.9.0 |
| lubridato | 1.9.2 | Magrittr | 2.0.3 | Marcação | 1.7 |
| MASSA | 7.3-60 | Matriz | 1.5-4.1 | memorização | 2.0.1 |
| métodos | 4.3.1 | MGCV | 1.8-42 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
| Munsell | 0.5.0 | NLME | 3.1-163 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.6 | paralelo | 4.3.1 |
| Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | Plyr | 1.8.8 | elogios | 1.0.0 |
| unidades elegantes | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
| Prodlim | 2023.03.31 | Profvis | 0.3.8 | Progresso | 1.2.2 |
| progressor | 0.13.0 | promessas | 1.2.0.1 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.5 | ronronar | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.5 |
| Floresta Aleatória | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| Readr | 2.1.4 | ReadXL | 1.4.3 | receitas | 1.0.6 |
| revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| Exemplo Reproduzível (Reprex) | 2.0.2 | remodelar2 | 1.4.4 | Rlang | 1.1.1 |
| rmarkdown | 2.23 | RODBC | 1.3-20 | oxigénio2 | 7.2.3 |
| rpart (função de partição recursiva em R) | 4.1.21 | rprojroot | 2.0.3 | Reserva | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversões | 2.1.2 |
| Rvest | 1.0.3 | Sass | 0.4.6 | balanças | 1.2.1 |
| seletor | 0.4-2 | Informação da sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4.1 | ferramentas de código-fonte | 0.1.7-1 | Brilho | 1.8.1 |
| Faísca | 3.5.0 | espacial | 7.3-15 | estrias | 4.3.1 |
| sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.3.1 |
| estatísticas4 | 4.3.1 | string | 1.7.12 | stringr | 1.5.0 |
| sobrevivência | 3.5-5 | Sistema | 3.4.2 | fontes do sistema | 1.0.4 |
| tcltk (uma linguagem de programação) | 4.3.1 | teste que | 3.1.10 | formatação de texto | 0.3.6 |
| Tibble | 3.2.1 | Tidyr | 1.3.0 | arrumadoselecionar | 1.2.0 |
| Tidyverse | 2.0.0 | mudança de hora | 0.2.0 | data e hora | 4022.108 |
| Tinytex | 0,45 | ferramentas | 4.3.1 | TZDB | 0.4.0 |
| verificador de URL | 1.0.1 | usethis | 2.2.2 | UTF8 | 1.2.3 |
| utilitários | 4.3.1 | Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.6.3 |
| viridisLite | 0.4.2 | vruum | 1.6.3 | Waldo | 0.5.1 |
| vibrissas | 0.4.1 | murchar | 2.5.0 | xfun | 0,39 |
| XML2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | ZIP | 2.3.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | AWS Java SDK para SES | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.390 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.13.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombra kriogénica | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_sujeitas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Configurações | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.25 |
| IO.Delta | delta-compartilhamento-cliente_2.12 | 1.1.4 |
| io.dropwizard.metrics | métricas e anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.netty | netty-tudo | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-meias | 4.1.96.Final |
| io.netty | Netty Comum | 4.1.96.Final |
| io.netty | Netty Handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-Windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | Netty-Transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.96.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| Jakarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | conserva | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ANT-JSCH | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de flecha | 12.0.1 |
| org.apache.arrow | núcleo de memória Arrow | 12.0.1 |
| org.apache.arrow | Arrow-Memory-Netty | 12.0.1 |
| org.apache.arrow | vetor de seta | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | AVRO-IPC | 1.11.2 |
| org.apache.avro | avro-mapreduce | 1.11.2 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador e cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-comum | 2.3.9 |
| org.apache.hive | Hive-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | Hive-shims-agendador | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.orc | núcleo de orc | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | guarda de zoológico | 3.6.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.3 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.píer | Molhe IO | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | Segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey comum | 2.40 |
| org.glassfish.jersey.core | servidor Jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mlflow | mlflow-spark_2,12 | 2.9.1 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | calços | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | SLF4J-Simples | 1.7.25 |
| org.threeten | trêsdez-extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |