Partilhar via


Databricks Runtime 17.3 LTS

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 17.3 LTS, alimentado pelo Apache Spark 4.0.0.

O Azure Databricks lançou esta versão LTS em outubro de 2025.

Novos recursos e melhorias

EXECUTE IMMEDIATE Usando expressões constantes

Agora pode passar expressões constantes como cadeia de caracteres na SQL e como argumentos para marcadores de parâmetro em instruções SQL EXECUTE IMMEDIATE.

LIMIT ALL suporte para CTEs recursivas

Agora você pode usar LIMIT ALL para remover a restrição de tamanho total em CTEs (expressões de tabela comuns) recursivas.

JDK 21 para computação clássica (visualização pública)

O Java Development Kit (JDK) 21 está em pré-visualização pública para computação clássica. Para habilitá-lo, consulte Criar um cluster com uma versão específica do JDK.

Anexar a arquivos em volumes do Catálogo Unity retorna erro correto

Qualquer código que tente acrescentar conteúdo a um arquivo de volume do Unity Catalog agora falha com uma mensagem de erro "Busca ilegal". Anteriormente, falhou com o erro inválido de "operação não suportada".

TABLE suporte a argumentos para UDTFs Python do Unity Catalog

Os UDTFs Python do Unity Catalog agora suportam TABLE argumentos, permitindo que as funções aceitem tabelas inteiras como parâmetros de entrada, permitindo transformações e agregações de dados mais complexas em conjuntos de dados estruturados. Consulte Funções de tabela definidas pelo usuário (UDTFs) do Python no Unity Catalog. O suporte a argumentos de tabela foi retroportado para o Databricks Runtime 17.2.

st_dump suporte para funções

Agora você pode usar a st_dump função para obter uma matriz contendo as geometrias únicas da geometria de entrada. Consulte a função st_dump.

As funções do anel interior do polígono são agora suportadas

Agora você pode usar as seguintes funções para trabalhar com anéis interiores de polígonos:

  • st_numinteriorrings: Obter o número de limites internos (anéis) de um polígono. Consulte a função st_numinteriorrings.
  • st_interiorringn: Extraia o n-ésimo limite interno de um polígono e devolva-o como uma cadeia de linha. Consulte a função st_interiorringn.

remote_query função com valor de tabela (pré-visualização pública)

Agora você pode usar a função com valor de remote_query tabela para executar consultas em mecanismos de banco de dados remotos e retornar resultados tabulares. Esta função busca dados de sistemas remotos usando credenciais de conexões do Unity Catalog e suporta várias opções de conector para bancos de dados SQL e NoSQL. Consulte remote_query função de valor de tabela.

Mudanças comportamentais

input_file_name função não é mais suportada e está sujeita a remoção futura

A input_file_name função foi preterida desde Databricks Runtime 13.3 LTS porque não é confiável. A função não é mais suportada no Databricks Runtime 17.3 LTS e superior porque não é confiável. Em vez disso, use _metadata.file_name .

Pré-definição de listagem incremental do carregador automático alterada

O padrão para a opção preterida cloudFiles.useIncrementalListing foi alterado de auto para false. O Azure Databricks agora executa listagens completas de diretórios em vez de listagens incrementais para evitar que arquivos sejam ignorados devido à ordem não lexicográfica. Por exemplo, 10-01-2025.csv vem antes 8-01-2025.csv lexicograficamente.

O Databricks recomenda a migração para eventos de arquivo para uma descoberta de arquivos mais rápida e confiável.

Para preservar o comportamento anterior, defina cloudFiles.useIncrementalListing explicitamente como auto.

Suporte a informações de atualização de MV/ST em DESCRIBE EXTENDED AS JSON

O Azure Databricks agora gera uma secção para informações de atualização de vistas materializadas e tabelas de streaming DESCRIBE EXTENDED AS JSON na saída, incluindo a hora da última atualização, tipo de atualização, status e agenda.

Adicionar coluna de metadados a DESCRIBE QUERY e DESCRIBE TABLE

O Azure Databricks agora inclui uma coluna de metadados na saída de DESCRIBE QUERY e DESCRIBE TABLE para metadados semânticos.

Para DESCRIBE QUERY, ao descrever uma consulta com exibições métricas, os metadados semânticos propagam-se pela consulta se as dimensões forem referenciadas diretamente e as medidas utilizarem a função MEASURE().

Para DESCRIBE TABLE, a coluna de metadados aparece apenas para exibições métricas, não para outros tipos de tabela.

Corrigir a conversão de valores temporais em estruturas literais ao usar o modo de Conexão.

No modo Spark Connect, os literais de struct em TypedLit agora gerem corretamente os valores temporais ao invés de lançar exceções. Anteriormente, tentar usar valores temporais (como datas ou carimbos de data/hora) em literais de estrutura resultava numa exceção.

Alterar a precisão decimal e a escala para SYSTEM_DEFAULT no modo de ligação

Ao usar o modo Spark Connect no Scala, a precisão decimal e a escala em literais de matriz e mapa agora são alteradas para SYSTEM_DEFAULT (38, 18). Esta alteração afeta apenas o plano lógico (por exemplo, a saída do explain() comando) e não afeta os resultados da consulta.

Suporte para tipos complexos em observações no cliente Spark Connect Scala

O cliente Spark Connect Scala agora suporta tipos de matriz, mapa e estrutura em observações, alinhando o comportamento com clusters dedicados. Anteriormente, tentar usar estes tipos complexos em observações resultava numa exceção.

Preservar valores nulos em literais de matriz, mapa e estrutura

No modo Spark Connect, os valores nulos dentro dos literais array, map e struct agora são preservados em vez de serem substituídos por valores padrão protobuf. Anteriormente, os valores nulos eram incorretamente substituídos por valores padrão, como 0 para inteiros, cadeias vazias para tipos de cadeia e false para tipos booleanos.

Preservar a anulabilidade para literais digitados

O cliente Spark Connect Scala agora preserva corretamente a anulabilidade dos tipos de matriz e mapa para literais digitados. Anteriormente, os elementos do array e os valores do mapa eram sempre tratados como nulláveis, independentemente da definição real do tipo.

Corrigir conversão de classe de caso em literais de matriz e mapa

No modo Spark Connect, os literais de array e mapa agora TypedLit processam corretamente valores de case class, evitando lançar exceções. Anteriormente, tentar usar valores de classe de caso em literais de array ou mapa resultava numa exceção.

Tratamento correto de estruturas de valor nulo ao remover colunas NullType.

Ao gravar em tabelas Delta, o Azure Databricks agora preserva corretamente os valores struct nulos ao remover NullType colunas do esquema. Anteriormente, structs null foram substituídos incorretamente por valores struct não-nulos onde todos os campos foram definidos como null. Por exemplo, inserir um valor de estrutura nulo seria posteriormente lido como uma estrutura com campos nulos em vez de uma estrutura nula.

Melhor tratamento de estruturas nulas no Parquet

O Azure Databricks agora deteta corretamente estruturas nulas quando todos os campos struct solicitados estão ausentes de um arquivo Parquet, o que torna o comportamento consistente entre leitores Photon e não-Photon. Anteriormente, leitores não-Photon retornavam NULL para a estrutura inteira em vez de uma estrutura com campos nulos ao ler arquivos Parquet onde todos os campos solicitados estavam em falta, embora outros campos estivessem presentes.

Atualizar a biblioteca aws-msk-iam-auth para Kafka

A aws-msk-iam-auth biblioteca foi atualizada para a versão 2.0.1 para suportar a configuração de um ponto de extremidade regional do STS (Serviço de Token de Segurança) para autenticação do IAM do Managed Streaming for Apache Kafka (MSK). A nova awsStsRegion opção só está disponível quando a configuração correspondente do Spark está ativada. Esta atualização não introduz quaisquer alterações comportamentais para cargas de trabalho existentes.

Atualizações da biblioteca

Bibliotecas Python atualizadas:

Nenhuma biblioteca Python foi atualizada nesta versão.

Bibliotecas R atualizadas:

Nenhuma biblioteca R foi atualizada nesta versão.

Bibliotecas Java atualizadas:

Nenhuma biblioteca Java foi atualizada nesta versão.

Apache Spark

O Databricks Runtime 17.3 LTS inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão 17.2, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • SPARK-44856 Reverter "[SC-195808][python] Melhorar o desempenho do serializador Arrow UDTF do Python"
  • SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Corrigir manipulação de valores nulos em LiteralValueProtoConverter
  • SPARK-53507 Adicionar informações sobre alterações que provocam quebra a erros
  • SPARK-53574 Corrigir o AnalysisContext a ser apagado durante a resolução de planos aninhados
  • SPARK-53444 Reestruturar execução imediata
  • SPARK-53560 Ciclo de falhas ao repetir lote não confirmado na fonte do Kafka e no gatilho AvailableNow
  • SPARK-53127 Habilitar LIMIT ALL para substituir o limite de linhas de recursão
  • SPARK-53574 Reverter "[SC-206548] Corrigir AnalysisContext sendo eliminado...
  • SPARK-53674 Tratar LCAs de analisador de uma única passagem ao atribuir aliases
  • SPARK-53492 Rejeitar o segundo ExecutePlan com um ID de operação já concluída
  • SPARK-53677 Melhorar a facilidade de depuração da fonte de dados JDBC quando a consulta contiver erro de sintaxe
  • SPARK-53490 Corrigir conversão de Protobuf em métricas observadas
  • Excluir argumentos de comprimento zero da inferência do tipo eval
  • SPARK-53592 Revisão "Tornar o @udf suporte a UDFs vetorizado"
  • SPARK-53654 Revisão "Suporte para seed na função UUID"
  • SPARK-53429 Suporte para particionamento por passagem direta na API de dataframe do PySpark
  • SPARK-53372 Pacote de Tempo de Execução de Teste Partilhado para LDP
  • SPARK-53574 Corrigir o AnalysisContext a ser apagado durante a resolução de planos aninhados
  • SPARK-53654 Reverter "[SC-207022][sql][PYTHON] Suporte seed na função uuid"
  • SPARK-53574 Reverter "[SC-206548] Corrigir AnalysisContext a ser apagado durante a resolução do plano aninhado"
  • SPARK-53559 Corrigir atualizações de HLL sketch para usar bytes de chave de colação brutos
  • SPARK-53654 Suporte para seed na função uuid
  • FAÍSCA-52449 Tornar os tipos de dados para Expression.Literal.Map/Array opcionais
  • SPARK-53574 Corrigir o AnalysisContext a ser apagado durante a resolução de planos aninhados
  • SPARK-53625 Propagar colunas de metadados através de projeções para resolver a incompatibilidade com ApplyCharTypePadding
  • SPARK-53558 Reverter "[SC-206544][sql] Mostrar nome de tabela completo, incluindo o nome do catálogo na mensagem de exceção quando a tabela não for encontrada"
  • SPARK-53558 Mostrar o nome completo da tabela, incluindo o nome do catálogo, na mensagem de exceção quando a tabela não for encontrada
  • SPARK-53357 Atualizar pandas para 2.3.2
  • SPARK-52659Mensagem de erro de módulo enganosa no modo ANSI
  • SPARK-53592 Reverter "[SC-206971][python] Adicionar suporte para UDF vetorizado"
  • SPARK-53592 Implementar @udf suporte para UDF vetorizado
  • SPARK-52601 Suporte a tipos primitivos em TransformingEncoder
  • SPARK-53355 corrigir a representação numpy 1.x em testes de tipo
  • SPARK-53387 Adicionar suporte para UDTFs de Arrow com PARTITION BY
  • SPARK-52991 Implementar MERGE INTO com SCHEMA evolução para fonte de dados V2
  • SPARK-53568 Correção de vários pequenos bugs na lógica de tratamento de erros do cliente Python do Spark Connect
  • SPARK-43579 optim: Armazenar em cache o conversor entre Arrow e pandas para reuso
  • SPARK-53524 Corrigir a conversão de valores temporais no LiteralValueProtoConverter
  • SPARK-53600 Rever a mensagem do registo da hora do último acesso
  • SPARK-53529 Corrigir cliente de ligação para suportar IPv6
  • SPARK-53537 Adicionar suporte para interpretação de CONTINUE HANDLER
  • SPARK-53623 melhora o desempenho das propriedades de leitura de tabelas grandes
  • SPARK-53523 Respeitar parâmetros nomeados spark.sql.caseSensitive
  • SPARK-53449 Opções simples para classes relacionadas com o Datasource Scan integrado
  • Spark-53620 SparkSubmit deve imprimir traço da pilha quando exitFn é chamado
  • SPARK-53518 Sem truncamento para catalogString do tipo definido pelo usuário
  • Spark-53568 Reverter "[SC-206538][connect][PYTHON] Corrigir vários pequenos bugs na lógica de tratamento de erros do cliente Python do Spark Connect"
  • SPARK-53602 Melhoria da exportação de perfil e correção do profiler doc
  • SPARK-53402 Suporte à API de Dataset com Passagem Direta no Particionamento no Spark Connect no Scala
  • SPARK-53491 Corrigir a formatação exponencial de inputRowsPerSecond e processedRowsPerSecond nas métricas JSON em andamento
  • Faísca-53413 Limpeza aleatória para comandos
  • SPARK-53518 Reverter "[SC-205989][sql] Sem truncamento para catalogString do User-Defined Type"
  • SPARK-53568 Correção de vários pequenos bugs na lógica de tratamento de erros do cliente Python do Spark Connect
  • SPARK-53552 Otimizar na função substr SQL
  • SPARK-53527 Melhorar o mecanismo de fallback de analyzeExistenceDefaultValue
  • SPARK-53584 Melhorar a validação de process_column_param e a docstring do parâmetro de coluna
  • SPARK-53498 Referência correta ao binário pyspark/pipelines/cli.py de spark-pipelines
  • SPARK-53518 Sem truncamento para catalogString do tipo definido pelo usuário
  • SPARK-53233 Certifique-se de que o código relacionado a streaming utilize o nome correto do pacote
  • SPARK-53598 Verifique a existência de numParts antes de ler a propriedade de uma tabela grande
  • SPARK-53372 SDP Conjunto de testes fim a fim
  • SPARK-53563 Otimizar: sql_processor evitando a concatenação ineficiente de strings
  • SPARK-53323 Habilitar testes do Spark Connect para df.asTable() no Arrow UDTF
  • SPARK-53157 Desacoplar os intervalos de sondagem entre o driver e os executors
  • SPARK-53555 Correção: SparkML-connect não consegue carregar o modelo guardado do SparkML (modo legado)
  • SPARK-53361 Otimizando a comunicação JVM–Python no TWS agrupando várias chaves num lote Arrow
  • SPARK-53233 Revert "[SC-203716][sql][SS][mllib][CONNECT] Faça com que o código relacionado a streaming use o nome correto do pacote"
  • SPARK-53233 Certifique-se de que o código relacionado a streaming utilize o nome correto do pacote
  • SPARK-53525 Fragmentação de Resultados do ArrowBatch do Spark Connect
  • SPARK-53444 Reverter "[SC-206536][sql] Reestruturar execução imediata"
  • SPARK-53594 Fazer a Arrow UDF respeitar o tipo de avaliação especificado pelo usuário
  • SPARK-53444 Reestruturar execução imediata
  • SPARK-53582 Estenda isExtractable para que possa ser aplicado em UnresolvedExtractValue
  • SPARK-53572 Evite lançar do ExtractValue.isExtractable
  • SPARK-52346 Corrigir a inicialização e a lógica de incremento do contador para tentativas de nova execução do fluxo
  • SPARK-53561 Capturar InterruptionException em TransformWithStateInPySparkStateServer durante a execução de outputStream.flush para evitar a falha do processo
  • SPARK-53512 Melhor unificação do DSv2 PushDownUtils
  • SPARK-53459 Utilize o ReadOnlySparkConf em mais locais
  • SPARK-53549 Feche sempre o alocador do Arrow quando o processo de solicitação do estado da lista for concluído
  • SPARK-53332 Ativar StateDataSource com checkpoint de estado v2 (apenas a opção snapshotStartBatchId)
  • SPARK-53550 O particionamento de saída da União deve comparar atributos canonicalizados
  • SPARK-53506 Proibir entre Decimal e float em ANSI
  • SPARK-52238 Renomear o campo de especificação de pipeline "definições" para "bibliotecas"
  • SPARK-53538ExpandExec deve inicializar as projeções inseguras
  • SPARK-53521 Refatorar a expressão com asterisco
  • SPARK-53358 Melhorar a mensagem de erro de incompatibilidade do tipo de saída em Python UDTF Arrow
  • SPARK-53531 Melhoria da mensagem de erro para HadoopRDD.getInputFormat
  • SPARK-53434 O método get de ColumnarRow também deve verificar isNullAt
  • SPARK-53008 Adicionar validação de rotina de acesso a dados de UDF SQL OSS
  • SPARK-44856 Melhorar o desempenho do serializador Arrow UDTF Python
  • SPARK-53488 Atualizar o CollationTypeCoercion para ser compatível com a lógica de analisador de passagem única
  • SPARK-53029 Suporte à coerção de tipo de retorno para UDTFs Python do Arrow
  • SPARK-53479 Alinhar == o comportamento com pandas ao comparar com escalar de acordo com ANSI
  • SPARK-53497 Não permitir /|//|* entre decimal e float sob o padrão ANSI
  • SPARK-53441 Bools |/&/^ Nenhum deve falhar sob ANSI
  • SPARK-53474 Adicionar conf DATA_SOURCE_V2_EXPR_FOLDING
  • Faísca-53333 Habilite StateDataSource com o ponto de verificação de estado v2 (somente readChangeFeed)
  • SPARK-53502 Melhorar a nomenclatura de métodos em LiteralValueProtoConverter
  • Faísca-52694 Adicionar o.a.s.sql.Encoders#udtAPI
  • SPARK-53499 from_arrow_type deve respeitar containsNull em ArrayType
  • SPARK-53515 Remover elemento não utilizado private lazy val de SchemaOfCsv/Xml
  • SPARK-53480 Refatorar o código do Python Runner Arrow
  • SPARK-53481 Criar classe de fila híbrida
  • SPARK-53401 Habilitar particionamento de passagem direta na DataFrame API
  • SPARK-52930 Use DataType.Array/Map para literais de Array/Map
  • SPARK-52346 Propagar colunas de partição do destino para BatchTableWrite
  • SPARK-53342 Corrigir o conversor Arrow para lidar com vários batches de registo num único fluxo IPC
  • SPARK-53421 Propagar ID de Plano Lógico na Análise SDP
  • SPARK-53408 Remover funções não utilizadas de QueryCompilationErrors
  • SPARK-53044 Alterar a convenção de alias de importação de pipelines declarativos de "sdp" para "dp"
  • SPARK-53450 Nulos são preenchidos inesperadamente após a conversão da consulta da tabela do Hive em relação lógica
  • SPARK-53290 Corrigir interrupção da compatibilidade retroativa de metadados
  • SPARK-52982 Não permitir junção lateral com UDTFs Python Arrow
  • SPARK-52851 Remover APIs públicas para fluxos de adição única
  • SPARK-52511 Suporte ao modo de teste no comando spark-pipelines
  • SPARK-53290 Reverter "[SC-204277][sql][CONNECT] Corrigir quebra de compatibilidade retroativa de metadados"
  • SPARK-53290 Corrigir interrupção da compatibilidade retroativa de metadados
  • SPARK-52577 Adicionar testes para Declarative Pipelines DatasetManager com catálogo do Hive
  • SPARK-53012 Suporte para Arrow Python UDTF no Spark Connect
  • SPARK-53251 Ativar testes da API DataFrame com asTable() para UDTFs Python do Arrow
  • SPARK-52432 Âmbito DataflowGraphRegistry para Sessão
  • SPARK-52853 Evitar métodos PySpark imperativos em pipelines declarativos
  • SPARK-52745 Certifique-se de que um dos elementos schema e columns da interface Tabela está implementado e que columns é preferível
  • SPARK-52991 Reverter "[SC-204944][sql] Implementar com EVOLUTION para Fonte de Dados V2"
  • SPARK-52981 Adicionar suporte a argumentos de tabela para UDTFs Python de Arrow
  • SPARK-53487 Melhorar comentários em NormalizePlan.scala
  • SPARK-52991 Implementar MERGE INTO com SCHEMA evolução para fonte de dados V2
  • SPARK-52281 Alterar ALTER TABLE ALTER COLUMN TYPE STRING para não aplicar ordenação padrão se o tipo de dados original era instância de StringType
  • FAÍSCA-52759 Lançar exceção se o pipeline não tiver tabelas ou exibições persistentes
  • SPARK-51575 Combine o pushdown da fonte de dados Python e planeamento dos trabalhadores de leitura
  • SPARK-53359 Corrigir Apache Arrow UDTF para tratar os resultados como iterador
  • SPARK-52757 Renomeie o campo "plan" no DefineFlow para "relation"
  • SPARK-52431 Retoques finais no executor de Declarative Pipelines
  • FAÍSCA-52591 Validar a característica de streaming dos DFs retornados pela tabela SDP e pelas definições de fluxo autónomas.
  • SPARK-53030 Suporte para o componente Arrow writer em fontes de dados Python em streaming
  • SPARK-52980 Suporte Arrow Python UDTFs
  • SPARK-42841Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2005
  • SPARK-52423 Adicionar o nome ausente do pacote Golang a pipelines.proto
  • SPARK-52409 Use apenas PipelineRunEventBuffer em testes
  • SPARK-52533 Suporte para habilitar apenas o driver profiler
  • SPARK-52716 Remover comentários do trait Flow e referências
  • SPARK-52348 Adicionar suporte para gestores do Spark Connect para comandos de pipeline
  • SPARK-52281 Reverter "[SC-198058][sql] Alterar ALTER TABLE ALTER COLUMN TYPE STRING para não aplicar agrupamento padrão se o tipo de dados original foi instância de StringType"
  • SPARK-49386 Adicionar limites baseados em memória para o despejo de shuffle
  • SPARK-52281 Alterar ALTER TABLE ALTER COLUMN TYPE STRING para não aplicar ordenação padrão se o tipo de dados original era instância de StringType
  • SPARK-53329 Melhorar o tratamento de exceções na adição de artefatos
  • SPARK-52772 Reversão "[SC-202707][engrm-327][SQL] Tratamento inconsistente de atributos de tabela durante atualizações"
  • SPARK-52772 Tratamento inconsistente de atributos de tabela durante as atualizações
  • SPARK-51739 Validar esquema Arrow de mapInArrow & mapInPandas & DataSource
  • SPARK-53355 testar o comportamento do tipo UDF em Python
  • SPARK-53443 Atualizar python para SPDX-license
  • SPARK-49968 A função de divisão produz resultados incorretos com uma expressão regular vazia e um limite
  • SPARK-52582 Otimizar a utilização de memória do analisador XML
  • SPARK-53452from_arrow_type deve respeitar valueContainsNull
  • SPARK-53103 Revert "[SC-204946][ss] Lançar um erro se o diretório de estado não estiver vazio quando a consulta for iniciada"
  • SPARK-53103 Lançar um erro se o diretório de estado não estiver vazio quando a consulta iniciar
  • SPARK-51575 Reverter "[SC-192406][Python] Combine Python Data Source pushdown & plan read workers"
  • SPARK-51575 Combine o pushdown da fonte de dados Python e planeamento dos trabalhadores de leitura
  • SPARK-53095 Suporte HMS v4.1
  • SPARK-53126 Refatorar SparkErrorUtils#stackTraceToString para lidar com null input e utilizá-lo para substituir ExceptionUtils#getStackTrace
  • SPARK-49489 Cliente HMS respeita hive.thrift.client.maxmessage.size
  • SPARK-53108 Implementar a função time_diff em Scala
  • SPARK-45265 Suporte para o metastore do Hive 4.0
  • SPARK-53255 Proibição org.apache.parquet.Preconditions
  • SPARK-52142 Exibir restrições de tabela em SHOW CREATE TABLE COMMAND
  • SPARK-52875 Simplifique a tradução de expressões V2 se a entrada for passível de simplificar independentemente do contexto
  • SPARK-53240 Proibição com.google.common.collect.(ArrayList)?Multimap
  • SPARK-52875 Reverter "[SC-201880][sql] Simplificar a tradução de expressões V2 se a entrada for dobrável independente de contexto"
  • SPARK-52141 Limitações de apresentação nos comandos DESC
  • SPARK-53386 Suporte a parâmetro de consulta que termina em ponto-e-vírgula em conectores JDBC
  • SPARK-52875 Simplifique a tradução de expressões V2 se a entrada for passível de simplificar independentemente do contexto
  • SPARK-53437 InterpretedUnsafeProjection deve setNull4Bytes para o campo YearMonthIntervalType
  • SPARK-53341 Expandir a cobertura de teste padrão em DECLARE multivariável
  • SPARK-53156 Rastrear métricas de memória do driver quando a aplicação termina
  • SPARK-52689 Enviar métricas DML para V2Write
  • SPARK-52641 As colunas de chave primária não devem ser anuláveis
  • FAÍSCA-48547 Adicione o sinalizador de aceitação para que o SparkSubmit chame automaticamente System.exit depois que o método principal do código do usuário for encerrado
  • SPARK-52575 Introduzir o atributo contextIndependentFoldable para Expressions
  • SPARK-52860 Suporte à evolução do esquema de escrita V2 na Tabela Em Memória
  • SPARK-53435 Corrigir condição de corrida no CachedRDDBuilder
  • SPARK-51987 Expressões DSv2 em valores padrão das colunas ao escrever
  • SPARK-52235 Adicionar casting implícito a expressões DefaultValue V2 passadas para DSV2
  • SPARK-52236 Padronizar analisar exceções para o valor padrão
  • SPARK-53294 Habilite StateDataSource com o checkpoint de estado v2 (apenas a opção batchId)
  • SPARK-52095 Alterar tabela e alterar coluna para passar V2Expression para DSV2
  • SPARK-53415 Opções simples para formatos de ficheiros integrados
  • SPARK-53318 Suporte para o tipo de tempo através de make_timestamp_ltz()
  • SPARK-53143 Corrigir auto-junção na API DataFrame - A junção não é a única saída esperada do analisador
  • SPARK-53423 Mova todas as tags relacionadas ao resolvedor de passagem única para ResolverTag
  • Faísca-52116 Melhorar a exceção para valores padrão não determinísticos
  • SPARK-51906 Expressões Dsv2 em alterar tabela adicionar colunas
  • SPARK-53403 Melhorar os testes de adição/subtração conforme o ANSI
  • SPARK-53418 Apoio TimeType em ColumnAccessor
  • SPARK-52777 Habilitar a configuração do modo de limpeza de shuffle no Spark SQL
  • SPARK-52485 Limpeza de código de pipelines declarativos
  • Spark-53236 Usar construtores Java ArrayList em vez de Lists.newArrayList no código Java
  • SPARK-53392 Mover a manipulação de SpecializedArray para connect-common
  • SPARK-53176 O lançador do Spark deve respeitar --load-spark-defaults
  • SPARK-53237 Use Java Base64 em vez de org.apache.commons.codec.binary.Base64 instância
  • SPARK-53390 Levantar erro quando bools com None astype forem convertidos para inteiros em conformidade com ANSI
  • SPARK-53109 Suporte para TIME nas funções make_timestamp_ntz e try_make_timestamp_ntz em Scala
  • SPARK-53393 Desativar o perfilador de memória para UDFs de iterador escalar Arrow
  • SPARK-53367 adicionar int à coerção decimal para UDFs de seta
  • SPARK-53365 Unifique o código para persistir configurações em visualizações e funções UDF
  • SPARK-53228 Use construtores Java Map em vez de Maps.new*HashMap()
  • SPARK-53197 Utilizar java.util.Objects#requireNonNull em vez de com.google.common.base.Preconditions#checkNotNull
  • SPARK-53216 Mover is*(Blank|Empty) de object SparkStringUtils para trait SparkStringUtils
  • FAÍSCA-53385 Avaliação do Identificador de Refatoração
  • Refatorar a resolução das variáveis retirando-as
  • SPARK-53195 Use Java InputStream.readNBytes em vez de ByteStreams.read
  • SPARK-53205 Apoio createParentDirs em SparkFileUtils
  • SPARK-53196 Use Java OutputStream.nullOutputStream em vez de ByteStreams.nullOutputStream
  • SPARK-53381 Evite criar coleções temporárias em toCatalystStruct
  • SPARK-53275 Gerir expressões com estado ao ordenar no modo interpretado
  • SPARK-51585 O dialeto Oracle suporta funções datetime pushdown
  • Spark-53200 Use Java Files.newInputStream em vez de Files.asByteSource().openStream()
  • SPARK-53190 Use Java InputStream.transferTo em vez de ByteStreams.copy
  • SPARK-53188 Apoio readFully em SparkStreamUtils e JavaUtils
  • SPARK-53354 Simplificar LiteralValueProtoConverter.toCatalystStruct
  • SPARK-52873 Restringir ainda mais quando SHJ semi/anti join pode ignorar chaves duplicadas no lado de construção
  • SPARK-53180 Use Java InputStream.skipNBytes em vez de ByteStreams.skipFully
  • SPARK-53369 Corrigir mensagem de erro para UDFs com CHAR/VARCHAR tipo de retorno
  • SPARK-53330 Corrigir UDF do Arrow com DayTimeIntervalType (delimitadores != início/fim)
  • SPARK-53366 Aplicar regras de formatação a sql/connect/shims
  • FAÍSCA-53348 Sempre persista o valor ANSI ao criar uma exibição ou assuma-o ao consultar se não estiver armazenado
  • SPARK-53119 Apoio touch em SparkFileUtils
  • Faísca-52592 Suporte a criação de um ps. Série de um ps. Série
  • SPARK-53360 A estratégia com a idempotência de ConstantFolding não deve ser interrompida
  • SPARK-53135 Apoio copyURLToFile em SparkFileUtils e JavaUtils
  • SPARK-53150 Melhorar list(File|Path)s para lidar com entrada inexistente, que não seja diretório e link simbólico
  • SPARK-53135 Reverter "[SC-203164][core][SQL] o suporte copyURLToFile em SparkFileUtils e JavaUtils"
  • SPARK-53137 Suporte forceDeleteOnExit em SparkFileUtils e JavaUtils
  • SPARK-53352 Aperfeiçoar a mensagem de erro para tipo de retorno não suportado
  • Faísca-53353 Falha na seta do iterador escalar UDF com 0-arg
  • SPARK-53135 Apoio copyURLToFile em SparkFileUtils e JavaUtils
  • SPARK-53101 Suporte (left|right)Pad em SparkStringUtils
  • SPARK-53117 Suporte moveDirectory em SparkFileUtils e JavaUtils
  • SPARK-53121 Utilizar deleteRecursively em vez de FileUtils.forceDelete
  • SPARK-53100 Use Java String.substring em vez de StringUtils.substring
  • <0>SPARK-53092 Ban <1 />
  • SPARK-53328 Melhorar a capacidade de depuração do SparkML-connect
  • SPARK-52065 Produzir outra árvore de plano com colunas de saída (nome, tipo de dados, possibilidade de ser nulo) no log de alterações de plano
  • Faísca-51182 DataFrameWriter deve lançar dataPathNotSpecifiedError quando o caminho não é especificado
  • SPARK-52410 Descontinuar PipelineConf e usar SqlConf diretamente
  • SPARK-52852 Remover spark_conf não utilizado no create_streaming_table
  • SPARK-52714 Remover argumento de comentário não utilizado no decorador append_flow
  • SPARK-52663 Introduzir o campo de nome para as especificações do pipeline
  • SPARK-53091 Banir org.apache.commons.lang3.Strings
  • SPARK-52393 Registo de Elementos do Pipeline SQL Graph
  • SPARK-52912 Melhorar SparkStringUtils para suportar is(Not)?(Blank|Empty)
  • SPARK-53307 Remover o erro RetriesExceeded dos clientes Python e Scala do Spark Connect
  • SPARK-52346 Execução de pipeline DataflowGraph declarativo e registo de eventos
  • SPARK-52877 Melhorar o desempenho do serializador Arrow UDF Python
  • SPARK-51920 Corrigir tipo composto/aninhado no estado do valor em Python TWS
  • SPARK-52741 O modo RemoveFiles ShuffleCleanup não funciona com execução não adaptativa
  • SPARK-52238 Cliente Python para pipelines declarativos
  • SPARK-51926 Adicionar classe de erro INVALID_CONF_VALUE.subXXX a erros de configuração
  • SPARK-53155 A agregação global de nível inferior não deve ser substituída por um projeto
  • SPARK-52911 Remover a StringUtils.(split|chop) uso
  • SPARK-51926 Reverta "[SC-195096][core][SQL] Adicionar classe de erro INVALID_CONF_VALUE.subXXX a erros de configuração"
  • SPARK-53346 Evite criar coleções temporárias em toCatalystArray/toCatalystMap
  • SPARK-51926 Adicionar classe de erro INVALID_CONF_VALUE.subXXX a erros de configuração
  • SPARK-53136 tryWithResource & tryInitializeResource deve fechar o recurso silenciosamente
  • SPARK-53132 Suporte list(File|Path)s em SparkFileUtils e JavaUtils
  • SPARK-51896 Adicionar suporte para Java Enum em TypedConfigBuilder
  • SPARK-53311 Permitir que PullOutNonDeterministic use expressões canónicas
  • SPARK-51527 Torne o nível de log do codegen configurável via SQLConf
  • SPARK-52223 Adicionar Protocolos do SDP Spark Connect
  • SPARK-52283 Criação e resolução de pipelines declarativos DataflowGraph
  • SPARK-52880 Melhorar toString através de JEP-280 em vez de ToStringBuilder
  • SPARK-53284 Ajustar as importações das configurações do Spark em testes
  • SPARK-53050 Habilitar MultiIndex.to_series() para retornar um struct para cada entrada
  • FAÍSCA-52988 Corrigir condições de corrida em CREATE TABLE e FUNÇÃO quando SE NÃO EXISTIR é usado
  • SPARK-52874 Suporte a o.a.s.util.Pair Java Record
  • SPARK-52710DESCRIBE SCHEMA deve imprimir ordenação
  • SPARK-49984 Corrigir supplementJava(Module|IPv6)Options para atualizar apenas extraJavaOptions

Suporte ao driver ODBC/JDBC do Azure Databricks

O Azure Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 24.04.3 LTS
  • Java: Zulu17.58+21-CA
  • Escala: 2.13.16
  • Píton: 3.12.3
  • R: 4.4.2
  • Lago Delta: 4.0.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
tipos com anotações 0.7.0 anyio 4.6.2 Argão2-CFFI 21.3.0
argon2-cffi-vinculações 21.2.0 seta 1.3.0 AstTokens 2.0.5
"Astunparse" 1.6.3 Async-LRU 2.0.4 Atributos 24.3.0
Comando automático 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity (serviços de identidade do Azure) 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
Azure Storage Blob 12.23.0 Armazenamento de Ficheiros Azure Data Lake 12.17.0 Babel 2.16.0
backports.tarfile 1.2.0 BeautifulSoup4 4.12.3 preto 24.10.0
lixívia 6.2.0 pisca 1.7.0 boto3 1.36.2
Botocore 1.36.3 Ferramentas de cache 5.5.1 certifi 2025.1.31
cffi 1.17.1 Chardet 4.0.0 Normalizador de Charset 3.3.2
clicar 8.1.7 Cloudpickle 3.0.0 Comunicação 0.2.1
contorno 1.3.1 criptografia 43.0.3 ciclista 0.11.0
Cython 3.0.12 Databricks-SDK 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 decorador 5.1.1 defusedxml 0.7.1
Deprecated 1.2.13 Distlib 0.3.9 convertendo docstring em markdown 0.11
executar 0.8.3 facetas-visão geral 1.1.1 fastapi 0.115.12
fastjsonschema (biblioteca para validação rápida de esquemas JSON) 2.21.1 bloqueio de arquivo 3.18.0 Fonttools 4.55.3
FQDN (Nome de Domínio Completo) 1.5.1 fsspec 2023.5.0 GitDB 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 Google-Auth (Autenticação) 2.40.0
Google Cloud Core 2.4.3 google-armazenamento-em-nuvem 3.1.0 Google-CRC32C 1.7.1
google-media-reutilizável 2.7.2 googleapis-common-protos 1.65.0 Grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 IDNA 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 flexionar 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 Ipykernel 6.29.5
IPython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduração 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 Joblib 1.4.2
JSON5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-especificações 2023.7.1 Jupyter-Eventos 0.10.0 Jupyter-LSP 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_servidor 2.14.1
jupyter_server_terminals 0.4.4 Jupyterlab 4.3.4 JupyterLab-Pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 Matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
Mistune 2.0.4 mlflow-skinny 3.0.1 MMH3 5.1.0
more-itertools 10.3.0 MSAL 1.32.3 MSAL-extensões 1.3.1
mypy extensions 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
bloco de notas 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
OAuthlib 3.2.2 OpenTelemetry API 1.32.1 OpenTelemetry SDK 1.32.1
Convenções Semânticas de OpenTelemetry 0,53b1 sobrescrições 7.4.0 embalagem 24,2
pandas 2.2.3 PandocFilters 1.5.0 Parso 0.8.4
PathSpec 0.10.3 vítima 1.0.1 pexpect 4.8.0
almofada 11.1.0 pip (o gestor de pacotes do Python) 25.0.1 platformdirs 3.10.0
enredo 5.24.1 Pluggy 1.5.0 prometheus_client 0.21.0
kit de ferramentas de prompt 3.0.43 Proto-Plus 1.26.1 Protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
puro-eval 0.2.2 Pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-módulos 0.2.8 pyccolo 0.0.71 Pycparser 2.21
Pidântico 2.10.6 pydantic_core 2.27.2 Pyflakes 3.2.0
Pigmentos 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
Pyright 1.1.394 Pytest 8.3.5 python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-servidor 1.12.0
pytoolconfig 1.2.6 Pytz 2024.1 PyYAML 6.0.2
Pyzmq 26.2.0 referenciação 0.30.2 pedidos 2.32.3
rfc3339-verificador 0.1.4 rfc3986-validador 0.1.1 rico 13.9.4
corda 1.12.0 rpds-py 0.22.3 RSA 4.9.1
s3transfer 0.11.3 scikit-learn (biblioteca de aprendizado de máquina em Python) 1.6.1 SciPy 1.15.1
nascido no mar 0.13.2 Send2Trash 1.8.2 Ferramentas de configuração 74.0.0
seis 1.16.0 smmap 5.0.0 sniffio 1.3.0
contentores classificados 2.4.0 Coador de sopa 2.5 SQLPARSE 0.5.3
ssh-import-id 5.11 stack-data 0.2.0 Starlette 0.46.2
statsmodels (uma biblioteca de Python para modelos estatísticos) 0.14.4 strictyaml 1.7.3 tenacidade 9.0.0
terminado 0.17.1 Threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 Tomli 2.0.1 tornado 6.4.2
traitlets 5.14.3 Protetor de Tipografia 4.3.0 tipos-python-dateutil 2.9.0.20241206
typing_extensions (extensões de digitação) 4.12.2 tzdata 2024.1 Ujson 5.10.0
Atualizações não supervisionadas 0.1 uri-modelo 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 Webcolors 24.11.1 codificações da web 0.5.1
Websocket-cliente 1.8.0 whatthepatch (ferramenta para comparação de patches) 1.0.2 wheel 0.45.1
widgetsnbextension 3.6.6 embrulhado 1.17.0 Yapf 0.40.2
zipp 3.21.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir da versão instantânea do CRAN do Posit Package Manager em 2025-03-20.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 19.0.1 AskPass 1.2.1 asserir que 0.2.1
Retroportagens 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 pouco 4.6.0 bit-64 4.6.0-1
Bitops 1.0-9 blob 1.2.4 inicialização 1.3-30
fabricação de cerveja 1.0-10 vigor 1.1.5 vassoura 1.0.7
bslib 0.9.0 cachemira 1.1.0 Chamador 3.7.6
caret 7.0-1 CellRanger 1.1.0 crono 2.3-62
classe 7.3-22 CLI 3.6.5 Clipr 0.8.0
relógio 0.7.2 cluster 2.1.6 CodeTools 0.2-20
espaço de cores 2.1-1 marca comum 1.9.5 compilador 4.4.2
Configurações 0.3.2 conflituoso 1.2.0 cpp11 0.5.2
lápis de cor 1.5.3 credenciais 2.0.2 encaracolar 6.4.0
tabela de dados 1.17.0 conjuntos de dados 4.4.2 DBI 1.2.3
DBPlyr 2.5.0 descrição 1.4.3 DevTools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 resumo 0.6.37
Iluminação reduzida 0.4.4 DPLYR 1.1.4 DTPlyr 1.3.1
e1071 1.7-16 reticências 0.3.2 avaliar 1.0.3
Fansi 1.0.6 cores 2.1.2 mapa rápido 1.2.0
fontawesome 0.5.3 forçados 1.0.0 foreach 1.5.2
estrangeiro/a 0.8 a 86 forjar 0.2.0 fs 1.6.5
Futuro 1.34.0 futuro.apply 1.11.3 gargarejo 1.5.2
genérico 0.1.4 Gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 Git2R 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 Globais 0.18.0 cola 1.8.0
GoogleDrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.2
gráficos 4.4.2 grDispositivos 4.4.2 grelha 4.4.2
gridExtra 2.3 gsubfn 0.7 gt 0.11.1
tabela g 0.3.6 capacete de segurança 1.4.1 Refúgio 2.5.4
mais alto 0.11 HMS (Navio de Sua Majestade) 1.1.3 htmltools 0.5.8.1
htmlwidgets (componentes HTML interativos) 1.6.4 httpuv 1.6.15 HTTR 1.4.7
httr2 1.1.1 identificadores 1.0.1 ini 0.3.1
ipred 0.9 a 15 Banda isobárica 0.2.7 iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 JuicyJuice 0.1.0
KernSmooth 2.23-22 Knitr 1,50 etiquetagem 0.4.3
mais tarde 1.4.1 treliça 0.22-5 lave 1.8.1
ciclo de vida 1.0.4 ouvir 0.9.1 lubridato 1.9.4
Magrittr 2.0.3 Marcação 1.13 MASSA 7.3-60.0.1
Matriz 1.6-5 memorização 2.0.1 Metodologia 4.4.2
mgcv 1.9-1 mime 0,13 miniUI 0.1.1.1
Mlflow 2.20.4 ModelMetrics 1.2.2.2 modelr 0.1.11
Munsell 0.5.1 nlme 3.1-164 NNET 7.3-19
numDeriv 2016.8 a 1.1 openssl (conjunto de ferramentas para criptografia) 2.3.3 paralelo 4.4.2
Paralelamente 1.42.0 pilar 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 Plyr 1.8.9 elogios 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
Prodlim 2024.06.25 profvis 0.4.0 Progressos 1.2.3
progressr 0.15.1 promessas 1.3.2 prototipo 1.0.0
proxy 0.4-27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 capaz de reagir 0.4.4
reactR 0.6.1 Readr 2.1.5 readxl 1.4.5
receitas 1.2.0 revanche 2.0.0 revanche2 2.1.2
Controles remotos 2.5.0 Exemplo Reproduzível (Reprex) 2.1.1 remodelar2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart (função de partição recursiva em R) 4.1.23 rprojroot 2.0.4
Rserve 1,8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 Rvest 1.0.4 Sass 0.4.9
balanças 1.3.0 seletor 0.4-2 Informação da sessão 1.2.3
forma 1.4.6.1 brilhante 1.10.0 ferramentas de código-fonte 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
espacial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 estatísticas 4.4.2 estatísticas4 4.4.2
string 1.8.7 stringr 1.5.1 Sobrevivência 3.5-8
Charme 5.17.14.1 Sistema 3.4.3 fontes do sistema 1.2.1
tcltk (uma linguagem de programação) 4.4.2 testthat 3.2.3 formatação de texto 1.0.0
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 mudança de hora 0.3.0 data e hora 4041.110
Tinytex 0.56 Ferramentas 4.4.2 tzdb 0.5.0
verificador de URL 1.0.1 usethis 3.1.0 UTF8 1.2.6
utilitários 4.4.2 Identificador Único Universal (UUID) 1.2-1 V8 6.0.2
VCTRS 0.6.5 viridisLite 0.4.2 vruum 1.6.5
Waldo 0.6.1 vibrissas 0.4.1 murchar 3.0.2
xfun 0.51 XML2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 Zeallot 0.1.0
ZIP 2.3.2

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)

ID do grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.12.638
com.amazonaws AWS-Java-SDK-CloudFormation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws AWS Java SDK para CloudSearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-aprendizado de máquina 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws AWS Java SDK para SES 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.12.638
com.amazonaws AWS-Java-SDK-STS 1.12.638
com.amazonaws aws-java-sdk-suporte 1.12.638
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics fluxo 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware sombra kriogénica 4.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.5.1
com.fasterxml.jackson.core Jackson-Annotations 2.18.2
com.fasterxml.jackson.core Jackson-Core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor (formato de dados em CBOR) 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Nativos
com.github.fommil.netlib sistema_nativo-Java 1.1
com.github.fommil.netlib sistema_nativo-Java 1.1-Nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-Nativos
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald Curvesapi 1,08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-comum-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone anotações_propensas_a_erros 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava Falha no acesso 1.0.2
com.google.guava Goiaba 33.4.0-JRE
com.google.guava ListenableFuture 9999.0-vazio-para-evitar-conflito-com-Guava
com.google.j2objc j2objc-anotações 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger gerador de perfis 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK para Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver MSSQL-JDBC 11.2.2.jre8
com.microsoft.sqlserver MSSQL-JDBC 11.2.3.JRE8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind JAXB-CORE 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning Json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe Configurações 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity analisadores de univocidade 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
Commons Collections Commons Collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload (upload de ficheiros comuns) commons-fileupload (upload de ficheiros comuns) 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib LAPACK 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 2.0.2
IO.Delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics métricas e anotação 4.2.30
io.dropwizard.metrics métricas-base 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics métricas e verificações de saúde 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics metrics-jmx 4.2.30
io.dropwizard.metrics métricas em formato JSON 4.2.30
io.dropwizard.metrics métricas do JVM 4.2.30
io.dropwizard.metrics Métricas-Servlets 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty Netty Comum 4.1.118.Final
io.netty Netty Handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver (resolução do Netty) 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty Netty-Transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-nativo-unix-comum 4.1.118.Final
io.prometeu simpleclient 0.16.1-databricks
io.prometeu simpleclient_comum 0.16.1-databricks
io.prometeu simpleclient_dropwizard 0.16.1-databricks
io.prometeu simpleclient_pushgateway 0.16.1-databricks
io.prometeu simpleclient_servlet 0.16.1-databricks
io.prometeu simpleclient_servlet_common 0.16.1-databricks
io.prometeu simpleclient_tracer_common 0.16.1-databricks
io.prometeu simpleclient_tracer_otel 0.16.1-databricks
io.prometeu simpleclient_tracer_otel_agente 0.16.1-databricks
io.prometheus.jmx recoletor 0.18.0
jacarta.anotação Jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
Jakarta.validação jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.ativação ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind JAXB-API 2.2.11
Javolution Javolution 5.5.1
Jline Jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine conserva 1.5
net.sf.jpam JPAM 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve Snowflake Ingest SDK 0.9.6
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.5.2
org.antlr antlr4-tempo de execução 4.13.1
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ANT-JSCH 1.10.11
org.apache.ant lançador de formigas 1.10.11
org.apache.arrow formato de flecha 18.2.0
org.apache.arrow núcleo de memória Arrow 18.2.0
org.apache.arrow Arrow-Memory-Netty 18.2.0
org.apache.arrow "patch-do-buffer-da-memória-arrow-netty" 18.2.0
org.apache.arrow vetor de seta 18.2.0
org.apache.avro Avro 1.12.0
org.apache.avro AVRO-IPC 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.13.0
org.apache.curador curador e cliente 5.7.1
org.apache.curador Framework de Curadoria 5.7.1
org.apache.curador curador de receitas 5.7.1
org.apache.datasketches Datasketches-Java 6.1.1
org.apache.datasketches datasketches-memória 3.0.2
org.apache.derby Dérbi 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.4.1
org.apache.hive colmeia-abelha 2.3.10
org.apache.hive Hive-CLI 2.3.10
org.apache.hive Hive-JDBC 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive Hive-Serde 2.3.10
org.apache.hive colmeias-calços 2.3.10
org.apache.hive API de armazenamento Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims colmeia-calços-comum 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-esquema-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-protobuf sombreado
org.apache.orc formato ORC 1.1.0-protobuf sombreado
org.apache.orc orc-mapreduce 2.1.1-protobuf sombreado
org.apache.orc Orc-cunhas 2.1.1
org.apache.poi POI 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-completo 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-sombreado 4.26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus anotações do público 0.13.0
org.apache.zookeeper cuidador de zoológico 3.9.3
org.apache.zookeeper guarda de zoológico-juta 3.9.3
org.checkerframework verificador de qualidade 3.43.0
org.codehaus.janino compilador comum 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus DataNucleus Core 4.1.17
org.datanucleus Datanucleus-RDBMS 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Cliente 9.4.53.v20231009
org.eclipse.jetty jetty-continuation (componente de software do Jetty) 9.4.53.v20231009
org.eclipse.jetty Jetty-HTTP 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty Jetty-JNDI 9.4.53.v20231009
org.eclipse.jetty Jetty Plus 9.4.53.v20231009
org.eclipse.jetty Jetty-Proxy 9.4.53.v20231009
org.eclipse.jetty Segurança do Jetty 9.4.53.v20231009
org.eclipse.jetty servidor jetty 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty Jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Aplicação web Jetty 9.4.53.v20231009
org.eclipse.jetty Jetty-XML 9.4.53.v20231009
org.eclipse.jetty.websocket API WebSocket 9.4.53.v20231009
org.eclipse.jetty.websocket Websocket-cliente 9.4.53.v20231009
org.eclipse.jetty.websocket Websocket-Comum 9.4.53.v20231009
org.eclipse.jetty.websocket servidor websocket 9.4.53.v20231009
org.eclipse.jetty.websocket Websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 HK2-Localizador 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizador de recursos OSGi 1.0.3
org.glassfish.hk2.external aopalliance-reembalado 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core Jersey comum 2.41
org.glassfish.jersey.core servidor Jersey 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator (ferramenta de validação de dados de Java) 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.jline Jline 3.27.1-JDK8
org.joda joda-converter 1.7
org.jodd JODD-CORE 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s JSON4S-core_2.13 4.0.7
org.json4s json4s-jackson-core_2,13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s JSON4S-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2,13 2.9.1
org.objenesis objenesis 3.3
org.postgresql PostgreSQL 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2,13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatível com scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest escalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-compatível-com-slf4j 2.0.16
org.slf4j jul-para-slf4j 2.0.16
org.slf4j SLF4J-API 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten ThreeTen-Extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl WildFly-OpenSSL 1.1.3.Final
org.xerial SQLITE-JDBC 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml Snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Sugestão

Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do Databricks Runtime que atingiram o fim do suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.