Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 17.3 LTS, alimentado pelo Apache Spark 4.0.0.
O Azure Databricks lançou esta versão LTS em outubro de 2025.
Novos recursos e melhorias
-
EXECUTE IMMEDIATEUsando expressões constantes -
LIMIT ALLsuporte para CTEs recursivas - JDK 21 para computação clássica (visualização pública)
- Anexar a arquivos em volumes do Catálogo Unity retorna erro correto
- TABLE suporte de argumentos para Python UDTFs do Unity Catalog
-
st_dumpsuporte a funções - As funções do anel interior do polígono são agora suportadas
-
remote_queryfunção com valor de tabela (visualização pública)
EXECUTE IMMEDIATE Usando expressões constantes
Agora pode passar expressões constantes como cadeia de caracteres na SQL e como argumentos para marcadores de parâmetro em instruções SQL EXECUTE IMMEDIATE.
LIMIT ALL suporte para CTEs recursivas
Agora você pode usar LIMIT ALL para remover a restrição de tamanho total em CTEs (expressões de tabela comuns) recursivas.
JDK 21 para computação clássica (visualização pública)
O Java Development Kit (JDK) 21 está em pré-visualização pública para computação clássica. Para habilitá-lo, consulte Criar um cluster com uma versão específica do JDK.
Anexar a arquivos em volumes do Catálogo Unity retorna erro correto
Qualquer código que tente acrescentar conteúdo a um arquivo de volume do Unity Catalog agora falha com uma mensagem de erro "Busca ilegal". Anteriormente, falhou com o erro inválido de "operação não suportada".
TABLE suporte a argumentos para UDTFs Python do Unity Catalog
Os UDTFs Python do Unity Catalog agora suportam TABLE argumentos, permitindo que as funções aceitem tabelas inteiras como parâmetros de entrada, permitindo transformações e agregações de dados mais complexas em conjuntos de dados estruturados. Consulte Funções de tabela definidas pelo usuário (UDTFs) do Python no Unity Catalog. O suporte a argumentos de tabela foi retroportado para o Databricks Runtime 17.2.
st_dump suporte para funções
Agora você pode usar a st_dump função para obter uma matriz contendo as geometrias únicas da geometria de entrada. Consulte a função st_dump.
As funções do anel interior do polígono são agora suportadas
Agora você pode usar as seguintes funções para trabalhar com anéis interiores de polígonos:
-
st_numinteriorrings: Obter o número de limites internos (anéis) de um polígono. Consulte a funçãost_numinteriorrings. -
st_interiorringn: Extraia o n-ésimo limite interno de um polígono e devolva-o como uma cadeia de linha. Consulte a funçãost_interiorringn.
remote_query função com valor de tabela (pré-visualização pública)
Agora você pode usar a função com valor de remote_query tabela para executar consultas em mecanismos de banco de dados remotos e retornar resultados tabulares. Esta função busca dados de sistemas remotos usando credenciais de conexões do Unity Catalog e suporta várias opções de conector para bancos de dados SQL e NoSQL. Consulte remote_query função de valor de tabela.
Mudanças comportamentais
-
input_file_namefunção não é mais suportada e está sujeita a remoção futura - Padrão de listagem incremental do carregador automático alterado
-
Inclui informações de atualização de MV/ST em
DESCRIBE EXTENDED AS JSON -
Adicionar coluna de metadados a
DESCRIBE QUERYeDESCRIBE TABLE - Corrigir a conversão de valor temporal em literais de estrutura ao usar o modo de conexão
-
Alterar a precisão decimal e dimensionar para
SYSTEM_DEFAULTno modo Connect - Suporte para tipos complexos em observações no cliente Spark Connect Scala
- Preservar valores nulos em literais de matriz, mapa e estrutura
- Preservar a anulabilidade para literais digitados
- Corrigir conversão de classe de caso em literais de matriz e mapa
-
Tratamento correto de estruturas nulas ao remover
NullTypecolunas - Melhor manuseio de estruturas nulas em Parquet
-
Atualizar biblioteca
aws-msk-iam-authpara Kafka
input_file_name função não é mais suportada e está sujeita a remoção futura
A input_file_name função foi preterida desde Databricks Runtime 13.3 LTS porque não é confiável.
A função não é mais suportada no Databricks Runtime 17.3 LTS e superior porque não é confiável.
Em vez disso, use _metadata.file_name .
Pré-definição de listagem incremental do carregador automático alterada
O padrão para a opção preterida cloudFiles.useIncrementalListing foi alterado de auto para false. O Azure Databricks agora executa listagens completas de diretórios em vez de listagens incrementais para evitar que arquivos sejam ignorados devido à ordem não lexicográfica. Por exemplo, 10-01-2025.csv vem antes 8-01-2025.csv lexicograficamente.
O Databricks recomenda a migração para eventos de arquivo para uma descoberta de arquivos mais rápida e confiável.
Para preservar o comportamento anterior, defina cloudFiles.useIncrementalListing explicitamente como auto.
Suporte a informações de atualização de MV/ST em DESCRIBE EXTENDED AS JSON
O Azure Databricks agora gera uma secção para informações de atualização de vistas materializadas e tabelas de streaming DESCRIBE EXTENDED AS JSON na saída, incluindo a hora da última atualização, tipo de atualização, status e agenda.
Adicionar coluna de metadados a DESCRIBE QUERY e DESCRIBE TABLE
O Azure Databricks agora inclui uma coluna de metadados na saída de DESCRIBE QUERY e DESCRIBE TABLE para metadados semânticos.
Para DESCRIBE QUERY, ao descrever uma consulta com exibições métricas, os metadados semânticos propagam-se pela consulta se as dimensões forem referenciadas diretamente e as medidas utilizarem a função MEASURE().
Para DESCRIBE TABLE, a coluna de metadados aparece apenas para exibições métricas, não para outros tipos de tabela.
Corrigir a conversão de valores temporais em estruturas literais ao usar o modo de Conexão.
No modo Spark Connect, os literais de struct em TypedLit agora gerem corretamente os valores temporais ao invés de lançar exceções. Anteriormente, tentar usar valores temporais (como datas ou carimbos de data/hora) em literais de estrutura resultava numa exceção.
Alterar a precisão decimal e a escala para SYSTEM_DEFAULT no modo de ligação
Ao usar o modo Spark Connect no Scala, a precisão decimal e a escala em literais de matriz e mapa agora são alteradas para SYSTEM_DEFAULT (38, 18). Esta alteração afeta apenas o plano lógico (por exemplo, a saída do explain() comando) e não afeta os resultados da consulta.
Suporte para tipos complexos em observações no cliente Spark Connect Scala
O cliente Spark Connect Scala agora suporta tipos de matriz, mapa e estrutura em observações, alinhando o comportamento com clusters dedicados. Anteriormente, tentar usar estes tipos complexos em observações resultava numa exceção.
Preservar valores nulos em literais de matriz, mapa e estrutura
No modo Spark Connect, os valores nulos dentro dos literais array, map e struct agora são preservados em vez de serem substituídos por valores padrão protobuf. Anteriormente, os valores nulos eram incorretamente substituídos por valores padrão, como 0 para inteiros, cadeias vazias para tipos de cadeia e false para tipos booleanos.
Preservar a anulabilidade para literais digitados
O cliente Spark Connect Scala agora preserva corretamente a anulabilidade dos tipos de matriz e mapa para literais digitados. Anteriormente, os elementos do array e os valores do mapa eram sempre tratados como nulláveis, independentemente da definição real do tipo.
Corrigir conversão de classe de caso em literais de matriz e mapa
No modo Spark Connect, os literais de array e mapa agora TypedLit processam corretamente valores de case class, evitando lançar exceções. Anteriormente, tentar usar valores de classe de caso em literais de array ou mapa resultava numa exceção.
Tratamento correto de estruturas de valor nulo ao remover colunas NullType.
Ao gravar em tabelas Delta, o Azure Databricks agora preserva corretamente os valores struct nulos ao remover NullType colunas do esquema. Anteriormente, structs null foram substituídos incorretamente por valores struct não-nulos onde todos os campos foram definidos como null. Por exemplo, inserir um valor de estrutura nulo seria posteriormente lido como uma estrutura com campos nulos em vez de uma estrutura nula.
Melhor tratamento de estruturas nulas no Parquet
O Azure Databricks agora deteta corretamente estruturas nulas quando todos os campos struct solicitados estão ausentes de um arquivo Parquet, o que torna o comportamento consistente entre leitores Photon e não-Photon. Anteriormente, leitores não-Photon retornavam NULL para a estrutura inteira em vez de uma estrutura com campos nulos ao ler arquivos Parquet onde todos os campos solicitados estavam em falta, embora outros campos estivessem presentes.
Atualizar a biblioteca aws-msk-iam-auth para Kafka
A aws-msk-iam-auth biblioteca foi atualizada para a versão 2.0.1 para suportar a configuração de um ponto de extremidade regional do STS (Serviço de Token de Segurança) para autenticação do IAM do Managed Streaming for Apache Kafka (MSK). A nova awsStsRegion opção só está disponível quando a configuração correspondente do Spark está ativada. Esta atualização não introduz quaisquer alterações comportamentais para cargas de trabalho existentes.
Atualizações da biblioteca
Bibliotecas Python atualizadas:
Nenhuma biblioteca Python foi atualizada nesta versão.
Bibliotecas R atualizadas:
Nenhuma biblioteca R foi atualizada nesta versão.
Bibliotecas Java atualizadas:
Nenhuma biblioteca Java foi atualizada nesta versão.
Apache Spark
O Databricks Runtime 17.3 LTS inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão 17.2, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- SPARK-44856 Reverter "[SC-195808][python] Melhorar o desempenho do serializador Arrow UDTF do Python"
- SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Corrigir manipulação de valores nulos em LiteralValueProtoConverter
- SPARK-53507 Adicionar informações sobre alterações que provocam quebra a erros
- SPARK-53574 Corrigir o AnalysisContext a ser apagado durante a resolução de planos aninhados
- SPARK-53444 Reestruturar execução imediata
- SPARK-53560 Ciclo de falhas ao repetir lote não confirmado na fonte do Kafka e no gatilho AvailableNow
- SPARK-53127 Habilitar LIMIT ALL para substituir o limite de linhas de recursão
- SPARK-53574 Reverter "[SC-206548] Corrigir AnalysisContext sendo eliminado...
- SPARK-53674 Tratar LCAs de analisador de uma única passagem ao atribuir aliases
- SPARK-53492 Rejeitar o segundo ExecutePlan com um ID de operação já concluída
- SPARK-53677 Melhorar a facilidade de depuração da fonte de dados JDBC quando a consulta contiver erro de sintaxe
- SPARK-53490 Corrigir conversão de Protobuf em métricas observadas
Excluir argumentos de comprimento zero da inferência do tipo eval - SPARK-53592 Revisão "Tornar o @udf suporte a UDFs vetorizado"
- SPARK-53654 Revisão "Suporte para seed na função UUID"
- SPARK-53429 Suporte para particionamento por passagem direta na API de dataframe do PySpark
- SPARK-53372 Pacote de Tempo de Execução de Teste Partilhado para LDP
- SPARK-53574 Corrigir o AnalysisContext a ser apagado durante a resolução de planos aninhados
-
SPARK-53654 Reverter "[SC-207022][sql][PYTHON] Suporte
seedna funçãouuid" - SPARK-53574 Reverter "[SC-206548] Corrigir AnalysisContext a ser apagado durante a resolução do plano aninhado"
- SPARK-53559 Corrigir atualizações de HLL sketch para usar bytes de chave de colação brutos
-
SPARK-53654 Suporte para
seedna funçãouuid - FAÍSCA-52449 Tornar os tipos de dados para Expression.Literal.Map/Array opcionais
- SPARK-53574 Corrigir o AnalysisContext a ser apagado durante a resolução de planos aninhados
- SPARK-53625 Propagar colunas de metadados através de projeções para resolver a incompatibilidade com ApplyCharTypePadding
- SPARK-53558 Reverter "[SC-206544][sql] Mostrar nome de tabela completo, incluindo o nome do catálogo na mensagem de exceção quando a tabela não for encontrada"
- SPARK-53558 Mostrar o nome completo da tabela, incluindo o nome do catálogo, na mensagem de exceção quando a tabela não for encontrada
-
SPARK-53357 Atualizar
pandaspara 2.3.2 - SPARK-52659Mensagem de erro de módulo enganosa no modo ANSI
- SPARK-53592 Reverter "[SC-206971][python] Adicionar suporte para UDF vetorizado"
-
SPARK-53592 Implementar
@udfsuporte para UDF vetorizado - SPARK-52601 Suporte a tipos primitivos em TransformingEncoder
- SPARK-53355 corrigir a representação numpy 1.x em testes de tipo
- SPARK-53387 Adicionar suporte para UDTFs de Arrow com PARTITION BY
- SPARK-52991 Implementar MERGE INTO com SCHEMA evolução para fonte de dados V2
- SPARK-53568 Correção de vários pequenos bugs na lógica de tratamento de erros do cliente Python do Spark Connect
- SPARK-43579 optim: Armazenar em cache o conversor entre Arrow e pandas para reuso
- SPARK-53524 Corrigir a conversão de valores temporais no LiteralValueProtoConverter
- SPARK-53600 Rever a mensagem do registo da hora do último acesso
- SPARK-53529 Corrigir cliente de ligação para suportar IPv6
- SPARK-53537 Adicionar suporte para interpretação de CONTINUE HANDLER
- SPARK-53623 melhora o desempenho das propriedades de leitura de tabelas grandes
-
SPARK-53523 Respeitar parâmetros nomeados
spark.sql.caseSensitive - SPARK-53449 Opções simples para classes relacionadas com o Datasource Scan integrado
- Spark-53620 SparkSubmit deve imprimir traço da pilha quando exitFn é chamado
- SPARK-53518 Sem truncamento para catalogString do tipo definido pelo usuário
- Spark-53568 Reverter "[SC-206538][connect][PYTHON] Corrigir vários pequenos bugs na lógica de tratamento de erros do cliente Python do Spark Connect"
- SPARK-53602 Melhoria da exportação de perfil e correção do profiler doc
- SPARK-53402 Suporte à API de Dataset com Passagem Direta no Particionamento no Spark Connect no Scala
- SPARK-53491 Corrigir a formatação exponencial de inputRowsPerSecond e processedRowsPerSecond nas métricas JSON em andamento
- Faísca-53413 Limpeza aleatória para comandos
- SPARK-53518 Reverter "[SC-205989][sql] Sem truncamento para catalogString do User-Defined Type"
- SPARK-53568 Correção de vários pequenos bugs na lógica de tratamento de erros do cliente Python do Spark Connect
- SPARK-53552 Otimizar na função substr SQL
- SPARK-53527 Melhorar o mecanismo de fallback de analyzeExistenceDefaultValue
- SPARK-53584 Melhorar a validação de process_column_param e a docstring do parâmetro de coluna
-
SPARK-53498 Referência correta ao binário
pyspark/pipelines/cli.pydespark-pipelines - SPARK-53518 Sem truncamento para catalogString do tipo definido pelo usuário
-
SPARK-53233 Certifique-se de que o código relacionado a
streamingutilize o nome correto do pacote - SPARK-53598 Verifique a existência de numParts antes de ler a propriedade de uma tabela grande
- SPARK-53372 SDP Conjunto de testes fim a fim
- SPARK-53563 Otimizar: sql_processor evitando a concatenação ineficiente de strings
- SPARK-53323 Habilitar testes do Spark Connect para df.asTable() no Arrow UDTF
- SPARK-53157 Desacoplar os intervalos de sondagem entre o driver e os executors
- SPARK-53555 Correção: SparkML-connect não consegue carregar o modelo guardado do SparkML (modo legado)
- SPARK-53361 Otimizando a comunicação JVM–Python no TWS agrupando várias chaves num lote Arrow
-
SPARK-53233 Revert "[SC-203716][sql][SS][mllib][CONNECT] Faça com que o código relacionado a
streaminguse o nome correto do pacote" -
SPARK-53233 Certifique-se de que o código relacionado a
streamingutilize o nome correto do pacote - SPARK-53525 Fragmentação de Resultados do ArrowBatch do Spark Connect
- SPARK-53444 Reverter "[SC-206536][sql] Reestruturar execução imediata"
- SPARK-53594 Fazer a Arrow UDF respeitar o tipo de avaliação especificado pelo usuário
- SPARK-53444 Reestruturar execução imediata
-
SPARK-53582 Estenda
isExtractablepara que possa ser aplicado emUnresolvedExtractValue - SPARK-53572 Evite lançar do ExtractValue.isExtractable
- SPARK-52346 Corrigir a inicialização e a lógica de incremento do contador para tentativas de nova execução do fluxo
- SPARK-53561 Capturar InterruptionException em TransformWithStateInPySparkStateServer durante a execução de outputStream.flush para evitar a falha do processo
- SPARK-53512 Melhor unificação do DSv2 PushDownUtils
- SPARK-53459 Utilize o ReadOnlySparkConf em mais locais
- SPARK-53549 Feche sempre o alocador do Arrow quando o processo de solicitação do estado da lista for concluído
- SPARK-53332 Ativar StateDataSource com checkpoint de estado v2 (apenas a opção snapshotStartBatchId)
- SPARK-53550 O particionamento de saída da União deve comparar atributos canonicalizados
- SPARK-53506 Proibir entre Decimal e float em ANSI
- SPARK-52238 Renomear o campo de especificação de pipeline "definições" para "bibliotecas"
-
SPARK-53538
ExpandExecdeve inicializar as projeções inseguras - SPARK-53521 Refatorar a expressão com asterisco
- SPARK-53358 Melhorar a mensagem de erro de incompatibilidade do tipo de saída em Python UDTF Arrow
- SPARK-53531 Melhoria da mensagem de erro para HadoopRDD.getInputFormat
- SPARK-53434 O método get de ColumnarRow também deve verificar isNullAt
- SPARK-53008 Adicionar validação de rotina de acesso a dados de UDF SQL OSS
- SPARK-44856 Melhorar o desempenho do serializador Arrow UDTF Python
- SPARK-53488 Atualizar o CollationTypeCoercion para ser compatível com a lógica de analisador de passagem única
- SPARK-53029 Suporte à coerção de tipo de retorno para UDTFs Python do Arrow
-
SPARK-53479 Alinhar
==o comportamento com pandas ao comparar com escalar de acordo com ANSI -
SPARK-53497 Não permitir
/|//|*entre decimal e float sob o padrão ANSI -
SPARK-53441 Bools
|/&/^Nenhum deve falhar sob ANSI - SPARK-53474 Adicionar conf DATA_SOURCE_V2_EXPR_FOLDING
- Faísca-53333 Habilite StateDataSource com o ponto de verificação de estado v2 (somente readChangeFeed)
- SPARK-53502 Melhorar a nomenclatura de métodos em LiteralValueProtoConverter
-
Faísca-52694 Adicionar
o.a.s.sql.Encoders#udtAPI - SPARK-53499 from_arrow_type deve respeitar containsNull em ArrayType
-
SPARK-53515 Remover elemento não utilizado
private lazy valdeSchemaOfCsv/Xml - SPARK-53480 Refatorar o código do Python Runner Arrow
- SPARK-53481 Criar classe de fila híbrida
- SPARK-53401 Habilitar particionamento de passagem direta na DataFrame API
- SPARK-52930 Use DataType.Array/Map para literais de Array/Map
- SPARK-52346 Propagar colunas de partição do destino para BatchTableWrite
- SPARK-53342 Corrigir o conversor Arrow para lidar com vários batches de registo num único fluxo IPC
- SPARK-53421 Propagar ID de Plano Lógico na Análise SDP
-
SPARK-53408 Remover funções não utilizadas de
QueryCompilationErrors - SPARK-53044 Alterar a convenção de alias de importação de pipelines declarativos de "sdp" para "dp"
- SPARK-53450 Nulos são preenchidos inesperadamente após a conversão da consulta da tabela do Hive em relação lógica
- SPARK-53290 Corrigir interrupção da compatibilidade retroativa de metadados
- SPARK-52982 Não permitir junção lateral com UDTFs Python Arrow
- SPARK-52851 Remover APIs públicas para fluxos de adição única
- SPARK-52511 Suporte ao modo de teste no comando spark-pipelines
- SPARK-53290 Reverter "[SC-204277][sql][CONNECT] Corrigir quebra de compatibilidade retroativa de metadados"
- SPARK-53290 Corrigir interrupção da compatibilidade retroativa de metadados
- SPARK-52577 Adicionar testes para Declarative Pipelines DatasetManager com catálogo do Hive
- SPARK-53012 Suporte para Arrow Python UDTF no Spark Connect
- SPARK-53251 Ativar testes da API DataFrame com asTable() para UDTFs Python do Arrow
- SPARK-52432 Âmbito DataflowGraphRegistry para Sessão
- SPARK-52853 Evitar métodos PySpark imperativos em pipelines declarativos
-
SPARK-52745 Certifique-se de que um dos elementos
schemaecolumnsda interface Tabela está implementado e quecolumnsé preferível - SPARK-52991 Reverter "[SC-204944][sql] Implementar com EVOLUTION para Fonte de Dados V2"
- SPARK-52981 Adicionar suporte a argumentos de tabela para UDTFs Python de Arrow
-
SPARK-53487 Melhorar comentários em
NormalizePlan.scala - SPARK-52991 Implementar MERGE INTO com SCHEMA evolução para fonte de dados V2
-
SPARK-52281 Alterar
ALTER TABLE ALTER COLUMN TYPE STRINGpara não aplicar ordenação padrão se o tipo de dados original era instância deStringType - FAÍSCA-52759 Lançar exceção se o pipeline não tiver tabelas ou exibições persistentes
- SPARK-51575 Combine o pushdown da fonte de dados Python e planeamento dos trabalhadores de leitura
- SPARK-53359 Corrigir Apache Arrow UDTF para tratar os resultados como iterador
- SPARK-52757 Renomeie o campo "plan" no DefineFlow para "relation"
- SPARK-52431 Retoques finais no executor de Declarative Pipelines
- FAÍSCA-52591 Validar a característica de streaming dos DFs retornados pela tabela SDP e pelas definições de fluxo autónomas.
- SPARK-53030 Suporte para o componente Arrow writer em fontes de dados Python em streaming
- SPARK-52980 Suporte Arrow Python UDTFs
- SPARK-42841Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2005
- SPARK-52423 Adicionar o nome ausente do pacote Golang a pipelines.proto
- SPARK-52409 Use apenas PipelineRunEventBuffer em testes
- SPARK-52533 Suporte para habilitar apenas o driver profiler
- SPARK-52716 Remover comentários do trait Flow e referências
- SPARK-52348 Adicionar suporte para gestores do Spark Connect para comandos de pipeline
-
SPARK-52281 Reverter "[SC-198058][sql] Alterar
ALTER TABLE ALTER COLUMN TYPE STRINGpara não aplicar agrupamento padrão se o tipo de dados original foi instância deStringType" - SPARK-49386 Adicionar limites baseados em memória para o despejo de shuffle
-
SPARK-52281 Alterar
ALTER TABLE ALTER COLUMN TYPE STRINGpara não aplicar ordenação padrão se o tipo de dados original era instância deStringType - SPARK-53329 Melhorar o tratamento de exceções na adição de artefatos
- SPARK-52772 Reversão "[SC-202707][engrm-327][SQL] Tratamento inconsistente de atributos de tabela durante atualizações"
- SPARK-52772 Tratamento inconsistente de atributos de tabela durante as atualizações
- SPARK-51739 Validar esquema Arrow de mapInArrow & mapInPandas & DataSource
- SPARK-53355 testar o comportamento do tipo UDF em Python
-
SPARK-53443 Atualizar python para
SPDX-license - SPARK-49968 A função de divisão produz resultados incorretos com uma expressão regular vazia e um limite
- SPARK-52582 Otimizar a utilização de memória do analisador XML
-
SPARK-53452
from_arrow_typedeve respeitarvalueContainsNull - SPARK-53103 Revert "[SC-204946][ss] Lançar um erro se o diretório de estado não estiver vazio quando a consulta for iniciada"
- SPARK-53103 Lançar um erro se o diretório de estado não estiver vazio quando a consulta iniciar
- SPARK-51575 Reverter "[SC-192406][Python] Combine Python Data Source pushdown & plan read workers"
- SPARK-51575 Combine o pushdown da fonte de dados Python e planeamento dos trabalhadores de leitura
- SPARK-53095 Suporte HMS v4.1
-
SPARK-53126 Refatorar
SparkErrorUtils#stackTraceToStringpara lidar comnullinput e utilizá-lo para substituirExceptionUtils#getStackTrace -
SPARK-49489 Cliente HMS respeita
hive.thrift.client.maxmessage.size - SPARK-53108 Implementar a função time_diff em Scala
- SPARK-45265 Suporte para o metastore do Hive 4.0
-
SPARK-53255 Proibição
org.apache.parquet.Preconditions - SPARK-52142 Exibir restrições de tabela em SHOW CREATE TABLE COMMAND
- SPARK-52875 Simplifique a tradução de expressões V2 se a entrada for passível de simplificar independentemente do contexto
-
SPARK-53240 Proibição
com.google.common.collect.(ArrayList)?Multimap - SPARK-52875 Reverter "[SC-201880][sql] Simplificar a tradução de expressões V2 se a entrada for dobrável independente de contexto"
- SPARK-52141 Limitações de apresentação nos comandos DESC
- SPARK-53386 Suporte a parâmetro de consulta que termina em ponto-e-vírgula em conectores JDBC
- SPARK-52875 Simplifique a tradução de expressões V2 se a entrada for passível de simplificar independentemente do contexto
- SPARK-53437 InterpretedUnsafeProjection deve setNull4Bytes para o campo YearMonthIntervalType
- SPARK-53341 Expandir a cobertura de teste padrão em DECLARE multivariável
- SPARK-53156 Rastrear métricas de memória do driver quando a aplicação termina
- SPARK-52689 Enviar métricas DML para V2Write
- SPARK-52641 As colunas de chave primária não devem ser anuláveis
- FAÍSCA-48547 Adicione o sinalizador de aceitação para que o SparkSubmit chame automaticamente System.exit depois que o método principal do código do usuário for encerrado
- SPARK-52575 Introduzir o atributo contextIndependentFoldable para Expressions
- SPARK-52860 Suporte à evolução do esquema de escrita V2 na Tabela Em Memória
- SPARK-53435 Corrigir condição de corrida no CachedRDDBuilder
- SPARK-51987 Expressões DSv2 em valores padrão das colunas ao escrever
- SPARK-52235 Adicionar casting implícito a expressões DefaultValue V2 passadas para DSV2
- SPARK-52236 Padronizar analisar exceções para o valor padrão
- SPARK-53294 Habilite StateDataSource com o checkpoint de estado v2 (apenas a opção batchId)
- SPARK-52095 Alterar tabela e alterar coluna para passar V2Expression para DSV2
- SPARK-53415 Opções simples para formatos de ficheiros integrados
- SPARK-53318 Suporte para o tipo de tempo através de make_timestamp_ltz()
- SPARK-53143 Corrigir auto-junção na API DataFrame - A junção não é a única saída esperada do analisador
-
SPARK-53423 Mova todas as tags relacionadas ao resolvedor de passagem única para
ResolverTag - Faísca-52116 Melhorar a exceção para valores padrão não determinísticos
- SPARK-51906 Expressões Dsv2 em alterar tabela adicionar colunas
- SPARK-53403 Melhorar os testes de adição/subtração conforme o ANSI
-
SPARK-53418 Apoio
TimeTypeemColumnAccessor - SPARK-52777 Habilitar a configuração do modo de limpeza de shuffle no Spark SQL
- SPARK-52485 Limpeza de código de pipelines declarativos
-
Spark-53236 Usar construtores Java
ArrayListem vez deLists.newArrayListno código Java - SPARK-53392 Mover a manipulação de SpecializedArray para connect-common
-
SPARK-53176 O lançador do Spark deve respeitar
--load-spark-defaults -
SPARK-53237 Use Java
Base64em vez deorg.apache.commons.codec.binary.Base64instância -
SPARK-53390 Levantar erro quando bools com None
astypeforem convertidos para inteiros em conformidade com ANSI - SPARK-53109 Suporte para TIME nas funções make_timestamp_ntz e try_make_timestamp_ntz em Scala
- SPARK-53393 Desativar o perfilador de memória para UDFs de iterador escalar Arrow
- SPARK-53367 adicionar int à coerção decimal para UDFs de seta
- SPARK-53365 Unifique o código para persistir configurações em visualizações e funções UDF
-
SPARK-53228 Use construtores Java
Mapem vez deMaps.new*HashMap() -
SPARK-53197 Utilizar
java.util.Objects#requireNonNullem vez decom.google.common.base.Preconditions#checkNotNull -
SPARK-53216 Mover
is*(Blank|Empty)deobject SparkStringUtilsparatrait SparkStringUtils - FAÍSCA-53385 Avaliação do Identificador de Refatoração
- Refatorar a resolução das variáveis retirando-as
-
SPARK-53195 Use Java
InputStream.readNBytesem vez deByteStreams.read -
SPARK-53205 Apoio
createParentDirsemSparkFileUtils -
SPARK-53196 Use Java
OutputStream.nullOutputStreamem vez deByteStreams.nullOutputStream -
SPARK-53381 Evite criar coleções temporárias em
toCatalystStruct - SPARK-53275 Gerir expressões com estado ao ordenar no modo interpretado
- SPARK-51585 O dialeto Oracle suporta funções datetime pushdown
-
Spark-53200 Use Java
Files.newInputStreamem vez deFiles.asByteSource().openStream() -
SPARK-53190 Use Java
InputStream.transferToem vez deByteStreams.copy -
SPARK-53188 Apoio
readFullyemSparkStreamUtilseJavaUtils - SPARK-53354 Simplificar LiteralValueProtoConverter.toCatalystStruct
- SPARK-52873 Restringir ainda mais quando SHJ semi/anti join pode ignorar chaves duplicadas no lado de construção
-
SPARK-53180 Use Java
InputStream.skipNBytesem vez deByteStreams.skipFully -
SPARK-53369 Corrigir mensagem de erro para UDFs com
CHAR/VARCHARtipo de retorno - SPARK-53330 Corrigir UDF do Arrow com DayTimeIntervalType (delimitadores != início/fim)
- SPARK-53366 Aplicar regras de formatação a sql/connect/shims
- FAÍSCA-53348 Sempre persista o valor ANSI ao criar uma exibição ou assuma-o ao consultar se não estiver armazenado
-
SPARK-53119 Apoio
touchemSparkFileUtils - Faísca-52592 Suporte a criação de um ps. Série de um ps. Série
- SPARK-53360 A estratégia com a idempotência de ConstantFolding não deve ser interrompida
-
SPARK-53135 Apoio
copyURLToFileemSparkFileUtilseJavaUtils -
SPARK-53150 Melhorar
list(File|Path)spara lidar com entrada inexistente, que não seja diretório e link simbólico -
SPARK-53135 Reverter "[SC-203164][core][SQL] o suporte
copyURLToFileemSparkFileUtilseJavaUtils" -
SPARK-53137 Suporte
forceDeleteOnExitemSparkFileUtilseJavaUtils - SPARK-53352 Aperfeiçoar a mensagem de erro para tipo de retorno não suportado
- Faísca-53353 Falha na seta do iterador escalar UDF com 0-arg
-
SPARK-53135 Apoio
copyURLToFileemSparkFileUtilseJavaUtils -
SPARK-53101 Suporte
(left|right)PademSparkStringUtils -
SPARK-53117 Suporte
moveDirectoryemSparkFileUtilseJavaUtils -
SPARK-53121 Utilizar
deleteRecursivelyem vez deFileUtils.forceDelete -
SPARK-53100 Use Java
String.substringem vez deStringUtils.substring - <0>SPARK-53092 Ban <1 />
- SPARK-53328 Melhorar a capacidade de depuração do SparkML-connect
- SPARK-52065 Produzir outra árvore de plano com colunas de saída (nome, tipo de dados, possibilidade de ser nulo) no log de alterações de plano
- Faísca-51182 DataFrameWriter deve lançar dataPathNotSpecifiedError quando o caminho não é especificado
-
SPARK-52410 Descontinuar
PipelineConfe usarSqlConfdiretamente - SPARK-52852 Remover spark_conf não utilizado no create_streaming_table
- SPARK-52714 Remover argumento de comentário não utilizado no decorador append_flow
- SPARK-52663 Introduzir o campo de nome para as especificações do pipeline
-
SPARK-53091 Banir
org.apache.commons.lang3.Strings - SPARK-52393 Registo de Elementos do Pipeline SQL Graph
-
SPARK-52912 Melhorar
SparkStringUtilspara suportaris(Not)?(Blank|Empty) - SPARK-53307 Remover o erro RetriesExceeded dos clientes Python e Scala do Spark Connect
-
SPARK-52346 Execução de pipeline
DataflowGraphdeclarativo e registo de eventos - SPARK-52877 Melhorar o desempenho do serializador Arrow UDF Python
- SPARK-51920 Corrigir tipo composto/aninhado no estado do valor em Python TWS
- SPARK-52741 O modo RemoveFiles ShuffleCleanup não funciona com execução não adaptativa
- SPARK-52238 Cliente Python para pipelines declarativos
- SPARK-51926 Adicionar classe de erro INVALID_CONF_VALUE.subXXX a erros de configuração
- SPARK-53155 A agregação global de nível inferior não deve ser substituída por um projeto
-
SPARK-52911 Remover a
StringUtils.(split|chop)uso - SPARK-51926 Reverta "[SC-195096][core][SQL] Adicionar classe de erro INVALID_CONF_VALUE.subXXX a erros de configuração"
- SPARK-53346 Evite criar coleções temporárias em toCatalystArray/toCatalystMap
- SPARK-51926 Adicionar classe de erro INVALID_CONF_VALUE.subXXX a erros de configuração
- SPARK-53136 tryWithResource & tryInitializeResource deve fechar o recurso silenciosamente
-
SPARK-53132 Suporte
list(File|Path)semSparkFileUtilseJavaUtils - SPARK-51896 Adicionar suporte para Java Enum em TypedConfigBuilder
- SPARK-53311 Permitir que PullOutNonDeterministic use expressões canónicas
- SPARK-51527 Torne o nível de log do codegen configurável via SQLConf
- SPARK-52223 Adicionar Protocolos do SDP Spark Connect
-
SPARK-52283 Criação e resolução de pipelines declarativos
DataflowGraph -
SPARK-52880 Melhorar
toStringatravés deJEP-280em vez deToStringBuilder - SPARK-53284 Ajustar as importações das configurações do Spark em testes
- SPARK-53050 Habilitar MultiIndex.to_series() para retornar um struct para cada entrada
- FAÍSCA-52988 Corrigir condições de corrida em CREATE TABLE e FUNÇÃO quando SE NÃO EXISTIR é usado
-
SPARK-52874 Suporte a
o.a.s.util.PairJava Record -
SPARK-52710
DESCRIBE SCHEMAdeve imprimir ordenação -
SPARK-49984 Corrigir
supplementJava(Module|IPv6)Optionspara atualizar apenasextraJavaOptions
Suporte ao driver ODBC/JDBC do Azure Databricks
O Azure Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime.
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Escala: 2.13.16
- Píton: 3.12.3
- R: 4.4.2
- Lago Delta: 4.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos com anotações | 0.7.0 | anyio | 4.6.2 | Argão2-CFFI | 21.3.0 |
| argon2-cffi-vinculações | 21.2.0 | seta | 1.3.0 | AstTokens | 2.0.5 |
| "Astunparse" | 1.6.3 | Async-LRU | 2.0.4 | Atributos | 24.3.0 |
| Comando automático | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity (serviços de identidade do Azure) | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| Azure Storage Blob | 12.23.0 | Armazenamento de Ficheiros Azure Data Lake | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | BeautifulSoup4 | 4.12.3 | preto | 24.10.0 |
| lixívia | 6.2.0 | pisca | 1.7.0 | boto3 | 1.36.2 |
| Botocore | 1.36.3 | Ferramentas de cache | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | Normalizador de Charset | 3.3.2 |
| clicar | 8.1.7 | Cloudpickle | 3.0.0 | Comunicação | 0.2.1 |
| contorno | 1.3.1 | criptografia | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | Databricks-SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | Distlib | 0.3.9 | convertendo docstring em markdown | 0.11 |
| executar | 0.8.3 | facetas-visão geral | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.21.1 | bloqueio de arquivo | 3.18.0 | Fonttools | 4.55.3 |
| FQDN (Nome de Domínio Completo) | 1.5.1 | fsspec | 2023.5.0 | GitDB | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-Auth (Autenticação) | 2.40.0 |
| Google Cloud Core | 2.4.3 | google-armazenamento-em-nuvem | 3.1.0 | Google-CRC32C | 1.7.1 |
| google-media-reutilizável | 2.7.2 | googleapis-common-protos | 1.65.0 | Grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | flexionar | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | Ipykernel | 6.29.5 |
| IPython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduração | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | Joblib | 1.4.2 |
| JSON5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-especificações | 2023.7.1 | Jupyter-Eventos | 0.10.0 | Jupyter-LSP | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_servidor | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | Jupyterlab | 4.3.4 | JupyterLab-Pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | Matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 2.0.4 | mlflow-skinny | 3.0.1 | MMH3 | 5.1.0 |
| more-itertools | 10.3.0 | MSAL | 1.32.3 | MSAL-extensões | 1.3.1 |
| mypy extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| bloco de notas | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| OAuthlib | 3.2.2 | OpenTelemetry API | 1.32.1 | OpenTelemetry SDK | 1.32.1 |
| Convenções Semânticas de OpenTelemetry | 0,53b1 | sobrescrições | 7.4.0 | embalagem | 24,2 |
| pandas | 2.2.3 | PandocFilters | 1.5.0 | Parso | 0.8.4 |
| PathSpec | 0.10.3 | vítima | 1.0.1 | pexpect | 4.8.0 |
| almofada | 11.1.0 | pip (o gestor de pacotes do Python) | 25.0.1 | platformdirs | 3.10.0 |
| enredo | 5.24.1 | Pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| kit de ferramentas de prompt | 3.0.43 | Proto-Plus | 1.26.1 | Protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| puro-eval | 0.2.2 | Pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-módulos | 0.2.8 | pyccolo | 0.0.71 | Pycparser | 2.21 |
| Pidântico | 2.10.6 | pydantic_core | 2.27.2 | Pyflakes | 3.2.0 |
| Pigmentos | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| Pyright | 1.1.394 | Pytest | 8.3.5 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.12.0 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| Pyzmq | 26.2.0 | referenciação | 0.30.2 | pedidos | 2.32.3 |
| rfc3339-verificador | 0.1.4 | rfc3986-validador | 0.1.1 | rico | 13.9.4 |
| corda | 1.12.0 | rpds-py | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.6.1 | SciPy | 1.15.1 |
| nascido no mar | 0.13.2 | Send2Trash | 1.8.2 | Ferramentas de configuração | 74.0.0 |
| seis | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| contentores classificados | 2.4.0 | Coador de sopa | 2.5 | SQLPARSE | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | Starlette | 0.46.2 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.4 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| terminado | 0.17.1 | Threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | Tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 | tipos-python-dateutil | 2.9.0.20241206 |
| typing_extensions (extensões de digitação) | 4.12.2 | tzdata | 2024.1 | Ujson | 5.10.0 |
| Atualizações não supervisionadas | 0.1 | uri-modelo | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | Webcolors | 24.11.1 | codificações da web | 0.5.1 |
| Websocket-cliente | 1.8.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | embrulhado | 1.17.0 | Yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir da versão instantânea do CRAN do Posit Package Manager em 2025-03-20.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 19.0.1 | AskPass | 1.2.1 | asserir que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | pouco | 4.6.0 | bit-64 | 4.6.0-1 |
| Bitops | 1.0-9 | blob | 1.2.4 | inicialização | 1.3-30 |
| fabricação de cerveja | 1.0-10 | vigor | 1.1.5 | vassoura | 1.0.7 |
| bslib | 0.9.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| caret | 7.0-1 | CellRanger | 1.1.0 | crono | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| relógio | 0.7.2 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.5 | compilador | 4.4.2 |
| Configurações | 0.3.2 | conflituoso | 1.2.0 | cpp11 | 0.5.2 |
| lápis de cor | 1.5.3 | credenciais | 2.0.2 | encaracolar | 6.4.0 |
| tabela de dados | 1.17.0 | conjuntos de dados | 4.4.2 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.37 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| e1071 | 1.7-16 | reticências | 0.3.2 | avaliar | 1.0.3 |
| Fansi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.3 | forçados | 1.0.0 | foreach | 1.5.2 |
| estrangeiro/a | 0.8 a 86 | forjar | 0.2.0 | fs | 1.6.5 |
| Futuro | 1.34.0 | futuro.apply | 1.11.3 | gargarejo | 1.5.2 |
| genérico | 0.1.4 | Gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | Git2R | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | Globais | 0.18.0 | cola | 1.8.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| gráficos | 4.4.2 | grDispositivos | 4.4.2 | grelha | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| tabela g | 0.3.6 | capacete de segurança | 1.4.1 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| httr2 | 1.1.1 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9 a 15 | Banda isobárica | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1,50 | etiquetagem | 0.4.3 |
| mais tarde | 1.4.1 | treliça | 0.22-5 | lave | 1.8.1 |
| ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.4 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI | 0.1.1.1 |
| Mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| Munsell | 0.5.1 | nlme | 3.1-164 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.3.3 | paralelo | 4.4.2 |
| Paralelamente | 1.42.0 | pilar | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| Prodlim | 2024.06.25 | profvis | 0.4.0 | Progressos | 1.2.3 |
| progressr | 0.15.1 | promessas | 1.3.2 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 |
| reactR | 0.6.1 | Readr | 2.1.5 | readxl | 1.4.5 |
| receitas | 1.2.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | Informação da sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.10.0 | ferramentas de código-fonte | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| espacial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.4.2 | estatísticas4 | 4.4.2 |
| string | 1.8.7 | stringr | 1.5.1 | Sobrevivência | 3.5-8 |
| Charme | 5.17.14.1 | Sistema | 3.4.3 | fontes do sistema | 1.2.1 |
| tcltk (uma linguagem de programação) | 4.4.2 | testthat | 3.2.3 | formatação de texto | 1.0.0 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | mudança de hora | 0.3.0 | data e hora | 4041.110 |
| Tinytex | 0.56 | Ferramentas | 4.4.2 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.1.0 | UTF8 | 1.2.6 |
| utilitários | 4.4.2 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 6.0.2 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vruum | 1.6.5 |
| Waldo | 0.6.1 | vibrissas | 0.4.1 | murchar | 3.0.2 |
| xfun | 0.51 | XML2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | Zeallot | 0.1.0 |
| ZIP | 2.3.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | AWS Java SDK para SES | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | sombra kriogénica | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (formato de dados em CBOR) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | Curvesapi | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-comum-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | Falha no acesso | 1.0.2 |
| com.google.guava | Goiaba | 33.4.0-JRE |
| com.google.guava | ListenableFuture | 9999.0-vazio-para-evitar-conflito-com-Guava |
| com.google.j2objc | j2objc-anotações | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.JRE8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| IO.Delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | métricas e anotação | 4.2.30 |
| io.dropwizard.metrics | métricas-base | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | métricas em formato JSON | 4.2.30 |
| io.dropwizard.metrics | métricas do JVM | 4.2.30 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | Netty Comum | 4.1.118.Final |
| io.netty | Netty Handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | Netty-Transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.118.Final |
| io.prometeu | simpleclient | 0.16.1-databricks |
| io.prometeu | simpleclient_comum | 0.16.1-databricks |
| io.prometeu | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometeu | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet | 0.16.1-databricks |
| io.prometeu | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometeu | simpleclient_tracer_otel_agente | 0.16.1-databricks |
| io.prometheus.jmx | recoletor | 0.18.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| Jakarta.validação | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserva | 1.5 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 18.2.0 |
| org.apache.arrow | núcleo de memória Arrow | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | "patch-do-buffer-da-memória-arrow-netty" | 18.2.0 |
| org.apache.arrow | vetor de seta | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | AVRO-IPC | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.13.0 |
| org.apache.curador | curador e cliente | 5.7.1 |
| org.apache.curador | Framework de Curadoria | 5.7.1 |
| org.apache.curador | curador de receitas | 5.7.1 |
| org.apache.datasketches | Datasketches-Java | 6.1.1 |
| org.apache.datasketches | datasketches-memória | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.1 |
| org.apache.hive | colmeia-abelha | 2.3.10 |
| org.apache.hive | Hive-CLI | 2.3.10 |
| org.apache.hive | Hive-JDBC | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | Hive-Serde | 2.3.10 |
| org.apache.hive | colmeias-calços | 2.3.10 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-protobuf sombreado |
| org.apache.orc | formato ORC | 1.1.0-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 2.1.1-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 2.1.1 |
| org.apache.poi | POI | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-completo | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-sombreado | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.3 |
| org.checkerframework | verificador de qualidade | 3.43.0 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-JNDI | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | servidor jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-XML | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | Jersey comum | 2.41 |
| org.glassfish.jersey.core | servidor Jersey | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.jline | Jline | 3.27.1-JDK8 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | JSON4S-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2,13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | escalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.16 |
| org.slf4j | jul-para-slf4j | 2.0.16 |
| org.slf4j | SLF4J-API | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen-Extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Sugestão
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do Databricks Runtime que atingiram o fim do suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.