Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 14.2, desenvolvido pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em novembro de 2023.
Novos recursos e melhorias
-
CACHE SELECTagora é ignorado - Comportamento de cache aprimorado
- Tratamento de ficheiros corrompidos corrigido em comandos DML
- Suporte ao Registro de Esquema para funções relacionadas a protobuf e Avro em clusters compartilhados
-
foreachBatcheStreamingListenerapoio - A simultaneidade no nível da linha está geralmente disponível e ativada por padrão
- Compartilhamento Delta: os destinatários podem executar consultas em lote, CDF e streaming em tabelas compartilhadas com vetores de exclusão (Visualização pública)
- Clone raso para tabelas externas do Unity Catalog (Pré-visualização pública)
- Novo algoritmo de atribuição de cache de disco
-
from_avroO Schema Registry Connector adiciona suporte à evolução de esquemas - Recolha de estatísticas multi-threaded mais rápida
- Filtros de redução no DeltaSource em arquivos Delta
- Suporte para funções escalares definidas pelo usuário Scala em clusters compartilhados (Visualização pública)
CACHE SELECT agora é ignorado
O comando CACHE SELECT SQL agora é ignorado em favor de um algoritmo de cache aprimorado. Consulte Otimizar o desempenho com cache no Azure Databricks.
Comportamento de cache aprimorado
O posicionamento do DiskCache pelo agendador do Spark agora tem atribuição de partição mais rápida, melhor balanceamento durante o dimensionamento automático do cluster e execução de consulta mais consistente.
Corrigido tratamento de arquivos corrompidos em comandos DML
Os comandos DELETEDML , UPDATEe MERGE INTO não respeitam mais as opções ignoreCorruptFiles de leitura e ignoreMissingFiles. Ao encontrar um arquivo ilegível em uma tabela, esses comandos agora falham, mesmo que essas opções sejam especificadas.
Suporte ao Registro de Esquema para funções relacionadas a protobuf e Avro em clusters compartilhados
Agora pode usar as funções Python from_avro, to_avro, from_protobuf e to_protobuf com o Registro de Esquemas em clusters partilhados.
foreachBatch e StreamingListener apoio
Agora pode usar as APIs foreachBatch() e StreamingListener com Streaming Estruturado em clusters partilhados. Consulte Usar foreachBatch para escrever em destinos de dados arbitrários e Monitorização das consultas de Structured Streaming no Azure Databricks.
A simultaneidade no nível da linha está geralmente disponível e ativada por padrão
A simultaneidade em nível de linha reduz os conflitos entre operações de gravação simultâneas detetando alterações no nível da linha. A concorrência ao nível de linha só é suportada em tabelas sem particionamento, o que inclui tabelas com agrupamento líquido. A simultaneidade em nível de linha é habilitada por padrão em tabelas Delta com vetores de exclusão habilitados. Consulte Conflitos de gravação com concorrência ao nível de linha.
Compartilhamento Delta: os destinatários podem executar consultas em lote, CDF e streaming em tabelas compartilhadas com vetores de exclusão (Visualização pública)
Os destinatários do Delta Sharing agora podem executar consultas em lote, CDF e streaming em tabelas compartilhadas que usam vetores de exclusão. No Databricks Runtime 14.1, eles só podem executar consultas em lote. Consulte Adicionar tabelas com vetores de exclusão ou mapeamento de coluna a um compartilhamento, Ler tabelas com vetores de exclusão ou mapeamento de coluna habilitado e Ler tabelas com vetores de exclusão ou mapeamento de coluna habilitado.
Clone raso para tabelas externas do Unity Catalog (Pré-visualização pública)
Agora podes usar clones superficiais com tabelas externas do Unity Catalog. Consulte Clone superficial para tabelas do Catálogo Unity.
Novo algoritmo de atribuição de cache de disco
O agendador do Spark agora usa um novo algoritmo de cache de disco. O algoritmo melhora o uso do disco e a atribuição de partições entre nós, com atribuição mais rápida tanto inicialmente quanto após eventos de dimensionamento de cluster. A atribuição de cache mais estável melhora a consistência entre as execuções e reduz os dados movidos durante as operações de reequilíbrio.
from_avro Com o Schema Registry Connector adiciona suporte para a evolução do esquema
Agora você pode habilitar seus pipelines para reiniciar quando registros evoluídos forem detetados. Anteriormente, se a evolução do esquema acontecesse com o from_avro conector, as novas colunas retornariam null. Veja Ler e gravar dados Avro em streaming.
Recolha de estatísticas multi-threaded mais rápida
A coleta de estatísticas é até 10 vezes mais rápida em pequenos clusters ao executar CONVERT TO DELTA ou clonar a partir de tabelas Apache Iceberg e Parquet. Veja Converter para Delta Lake e Clonar tabelas Parquet e Iceberg.
Filtros pushdown no DeltaSource em arquivos Delta
Para uma melhor utilização, os filtros de partição em consultas de streaming de tabelas Delta agora são empurrados para Delta antes do limite de taxa.
Suporte para funções escalares definidas pelo usuário Scala em clusters compartilhados (Visualização pública)
Agora você pode usar funções escalares definidas pelo usuário Scala em clusters habilitados para Unity Catalog configurados com o modo de acesso compartilhado. Consulte Funções escalares definidas pelo usuário - Scala.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- fastjsonschema de 2.18.0 a 2.19.0
- filelock de 3.12.3 a 3.12.4
- googleapis-common-protos de 1.60.0 a 1.61.0
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
Apache Spark
O Databricks Runtime 14.2 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 14.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-45592] [DBRRM-624] Reverter "[SC-146977][sql] Problema de correção no AQE com InMemoryTableScanExec"
- [SPARK-45524] [DBRRM-625] Reverter "[SC-146319][python][SQL] Suporte inicial para...
- [SPARK-45433] [DBRRM-621] Reverter "[SC-145163][sql] Corrigir inferência de esquema CSV/JSON..."
- [SPARK-45592] [SC-146977][sql] Problema de precisão no AQE com InMemoryTableScanExec
- [SPARK-45354] Reverter "[SC-143991][sql] Resolver funções de baixo para cima"
- [SPARK-45680] [TEST-ONLY][sasp-2347][CONNECT] Ajustar testes
- [SPARK-45680] [CONNECT] Libertar sessão
- [SPARK-43380] [SC-146726][es-897115][SQL] Corrigir lentidão na leitura Avro
-
[SPARK-45649] [SC-146742][sql] Uniformize a estrutura de preparação para
OffsetWindowFunctionFrame - [SPARK-40820] [SC-146727][python][SQL] Criando StructType a partir de Json
- [SPARK-45620] [SC-146225][python] Corrija APIs voltadas para o usuário relacionadas ao Python UDTF para usar camelCase
- [SPARK-45727] [SC-146978][ss] Remover mapa não utilizado na simulação de propagação de marca d'água
- [SPARK-45723] [SC-146890][python][CONNECT] Os métodos de catálogo evitam a conversão de pandas
- [SPARK-45574] [SC-146106][sql] Adicionar :: sintaxe como abreviatura para transmissão
-
[SPARK-45670] [SC-146725][core][3.5] O SparkSubmit não suporta
--total-executor-coresa implementação no K8s - [SPARK-45661] [SC-146594][sql][PYTHON] Adicionar toNullable em StructType, MapType e ArrayType
- [SPARK-45524] [SC-146319][python][SQL] Suporte inicial para API de leitura de fonte de dados Python
-
[SPARK-45542] [SC-145892][core] Substitua
setSafeMode(HdfsConstants.SafeModeAction, boolean)porsetSafeMode(SafeModeAction, boolean) - [SPARK-45652] [SC-146641][sql] SPJ: Manipular partições de entrada vazias após filtragem dinâmica
- [SPARK-45454] [SC-144846][sql] Defina o proprietário padrão da tabela como current_user
-
[SPARK-45554] [SC-146875][python] Introduza o parâmetro flexível para
assertSchemaEqual - [SPARK-45242] [SC-143410][sql] Use DataFrame ID para validar semanticamente CollectMetrics
- [SPARK-45674] [SC-146862][connect][PYTHON] Melhore a mensagem de erro para atributos dependentes da JVM no Spark Connect.
- [SPARK-45646] [SC-146276][sql] Remova variáveis de tempo de codificação anteriores ao Hive 2.0
- [SPARK-43380] [SC-146726][es-897115][SQL] Corrigir lentidão na leitura Avro
- [SPARK-45545] [SC-146484][core] Passe SSLOptions onde quer que criemos um SparkTransportConf
- [SPARK-45641] [SC-146260][ui] Exibir a hora de início do aplicativo em AllJobsPage
- [SPARK-40154] [SC-146491][python][Docs] Nível de armazenamento correto em Dataframe.cache docstring
- [SPARK-45626] [SC-146259][sql] Converter _LEGACY_ERROR_TEMP_1055 para REQUIRES_SINGLE_PART_NAMESPACE
- [SPARK-45507] [SC-145900][sql] Correção para subconsultas escalares aninhadas correlacionadas com agregados COUNT
- [SPARK-45619] [SC-146226][connect][PYTHON] Aplique as métricas observadas ao objeto de observação
- [SPARK-45588] [SC-145909][protobuf][CONNECT][minor] Melhoria do Scaladoc para StreamingForeachBatchHelper
- [SPARK-45616] [SC-146120][core] Evite ParVector, que não propaga ThreadLocals ou SparkSession
- [SPARK-45604] [SC-146105][sql] Adicionar verificação LogicalType em INT64 -> conversão DateTime no Parquet Vectorized Reader
- [SPARK-44649] [SC-145891][sql] O Filtro de Tempo de Execução suporta a passagem de expressões de lado de criação equivalentes
- [SPARK-41674] [SC-128408][sql] O filtro de tempo de execução deve suportar o lado da junção de shuffle de vários níveis como o lado da criação do filtro
- [SPARK-45547] [SC-146228][ml] Validar vetores com função integrada
- [SPARK-45558] [SC-145890][ss] Introduza um ficheiro de metadados para o operador com estado em streaming
- [SPARK-45618] [SC-146252][core] Remover BaseErrorHandler
- [SPARK-45638] [SC-146251][sql][Avro] Melhorar a cobertura de teste da conversão decimal
- [SPARK-44837] [SC-146020][sql] Alterar ALTER TABLE mensagem de erro da coluna ALTER PARTITION
- [SPARK-45561] [SC-146264][sql] Adicione conversões adequadas para TINYINT no MySQLDialect
- [SPARK-45632] [SC-146255][sql] O cache de tabela deve evitar ColumnarToRow desnecessário ao habilitar o AQE
- [SPARK-45569] [SC-145932][sql] Atribuir um nome ao erro _LEGACY_ERROR_TEMP_2152
- [SPARK-44784] [SC-141015][connect] Torne herméticos os testes do SBT.
-
[SPARK-45452] [SC-144836][sql] Melhorar
InMemoryFileIndexpara utilizarFileSystem.listFilesa API - [SPARK-44735] [SC-146186][sql] Adicionar mensagem de aviso ao inserir colunas com o mesmo nome por linha quando não coincidem
-
[SPARK-45351] [SC-144791][core] Altere
spark.shuffle.service.db.backendo valor padrão para ROCKSDB -
[SPARK-45553] [SC-145906][ps] Depreciar
assertPandasOnSparkEqual - [SPARK-45613] [SC-146022][core] Expor DeterministicLevel como uma Api de Desenvolvedor
-
[SPARK-45549] [SC-145895][core] Remover não utilizado
numExistingExecutorsemCoarseGrainedSchedulerBackend - [SPARK-45609] [SC-146030][connect] Incluir SqlState na mensagem proto do SparkThrowable
- [FAÍSCA-45595] [SC-146037] revelar sqlstate na mensagem de erro
-
[SPARK-45628] [SC-146123][ml] Melhorar
vector_to_arraypara.mllib.linalg.SparseVector - [SPARK-45009] [SC-145884][sql][FOLLOW UP] Desativar a descorrelação nas condições de junção para o teste AQE InSubquery
- [SPARK-45576] [SC-145883][core] Remoção de logs de depuração desnecessários no ReloadingX509TrustManagerSuite
- [SPARK-45485] [SC-145719][connect] Melhorias no agente do usuário: use a variável de ambiente SPARK_CONNECT_USER_AGENT e inclua atributos específicos do ambiente
- [SPARK-45508] [SC-145513][core] Adicione "–add-opens=java.base/jdk.internal.ref=ALL-UNNAMED" para que a plataforma possa acessar o Cleaner no Java 9+
- [SPARK-45595] Reverter "[SC-146037] Expor SQLSTATE na mensagem de erro"
- [SPARK-45595] [SC-146037] Expor SQLSTATE na mensagem de erro
- [SPARK-45112] Reverter "[SC-143259][sql] Use UnresolvedFunction ba...
-
[SPARK-45257] [SC-143411][core] Ativar
spark.eventLog.compresspor padrão - [SPARK-45586] [SC-145899][sql] Reduza a latência do compilador para planos com grandes árvores de expressão
- [SPARK-45517] [SC-145691][connect][14.x] Expanda mais construtores de exceção para suportar parâmetros de estrutura de erro
- [SPARK-45581] [SC-145896] Torne o SQLSTATE obrigatório.
- [SPARK-45427] [SC-145590][core] Adicionar configurações de SSL RPC a SSLOptions e SparkTransportConf
-
[SPARK-45261] [SC-143357][core] Correção
EventLogFileWriterspara manipularnonecomo um codec - [SPARK-45582] [SC-145897][ss] Certifique-se de que a instância de armazenamento não seja usada depois de chamar a confirmação na agregação de streaming no modo de saída
- [SPARK-45562] [SC-145720][sc-144650][SQL] XML: Tornar 'rowTag' uma opção necessária
-
[SPARK-45392] [SC-144362][core][SQL][ss] Substituir
Class.newInstance()porClass.getDeclaredConstructor().newInstance() - [SPARK-45433] [SC-145163][sql] Corrija a inferência do esquema CSV/JSON quando os carimbos de data/hora não correspondem ao timestampFormat especificado
- [SPARK-45458] [SC-145011][sql] Converter IllegalArgumentException em SparkIllegalArgumentException em bitwiseExpressions
- [SPARK-45564] [SC-145735][sql] Simplifique 'DataFrameStatFunctions.bloomFilter' com a expressão 'BloomFilterAggregate'
- [SPARK-45566] [SC-145777][ps] Suporta utilitários de teste semelhantes a Pandas para a API do Pandas no Spark
- [SPARK-45498] [SC-145509][core] Acompanhamento: Ignorar a conclusão de tarefas do estágio antigo...
- [SPARK-45483] [SC-145152][connect] Corrija os grupos de funções em connect.functions
- [SPARK-45577] [SC-145781][python] Corrija UserDefinedPythonTableFunctionAnalyzeRunner para passar valores dobrados de argumentos nomeados
- [SPARK-45009] [SC-138223][follow-up] Desativar a descorrelação nas condições de junção para AetherSQLQuerySuite
- [FAÍSCA-45415] [SC-145344] Permitir a desativação seletiva de "fallocate" no armazenamento de estado RocksDB
- [SPARK-45500] [SC-145134][core][WEBUI] Mostrar o número de drivers terminados anormalmente na MasterPage
- [SPARK-44120] [SC-144349][python] Suporte Python 3.12
- [SPARK-45439] [SC-145589][sql][UI] Reduzir o uso de memória de LiveStageMetrics.accumIdsToMetricType
- [SPARK-45565] [SC-145717][ui] Loop desnecessário de JSON.stringify e JSON.parse para a lista de tarefas no detalhe do estágio
- [SPARK-45567] [SC-145718][connect] Remover o if redundante em org.apache.spark.sql.connect.execution.ExecuteGrpcResponseSender#run
- [SPARK-45112] [SC-143259][sql] Usar a resolução baseada em UnresolvedFunction em funções de conjunto de dados SQL
- [SPARK-45486] [SASP-2457][sc-145612][CONNECT] Torne a solicitação add_artifact idempotente
- [SPARK-44913] [SC-144326][sql] DS V2 suporta o push down de UDF V2 que possui um método especial
- [SPARK-45538] [SC-145635][python][CONNECT] Problema com a função 'overwrite_partitions' no pyspark connect
- [SPARK-45491] [SC-145622] Adicionar ausentes SQLSTATES 2/2
- [SPARK-45009] [SC-145620][sc-138223][SQL] Descorrelacionar subconsultas de predicados na cláusula de junção
- [SPARK-45377] [SC-144377][core] Manipular InputStream no NettyLogger
- [SPARK-45248] [SC-143759][core]Defina o tempo limite para o servidor spark ui
- [SPARK-44594] [SC-145611][ss] Remover parâmetro de método redundante no conector Kafka
- [SPARK-45539] [SC-145621][ss] Adicionar declaração e log para indicar que a definição de marca d'água é necessária para consultas de agregação de streaming no modo de acréscimo
-
[SPARK-44262] [SC-145639][sql] Adicionar
dropTableegetInsertStatementao JdbcDialect - [SPARK-45516] [SC-145480][connect] Incluir QueryContext na mensagem proto do SparkThrowable
- [SPARK-45310] [SC-145127][core] O estado do bloco de shuffle do relatório deve respeitar o serviço de shuffle durante a migração de descomissionamento
-
[SPARK-45521] [SC-145487][ml] Evite o recálculo de nnz em
VectorAssembler - [SPARK-45418] [SC-145485][sql][PYTHON][connect] Altere o alias da coluna current_database() para current_schema()
-
[SPARK-45116] [SC-145142][sql] Adicionar comentários para o parâmetro de JdbcDialect
createTable - [SPARK-45495] [SC-145529][core] Suporte para perfil de recursos de tarefas em nível de estágio para cluster k8s quando a alocação dinâmica está desativada
- [SPARK-45487] [SC-145559] Corrigir SQLSTATEs e erros temporários
- [SPARK-45505] [SC-145550][python] Refatorar analyzeInPython para torná-la reutilizável
- [SPARK-45132] [SC-145425][sql] Correção de erro IDENTIFIER para a invocação de uma função
- [SPARK-45213] [SC-145020][sql] Atribuir nome ao erro _LEGACY_ERROR_TEMP_2151
- [SPARK-45416] [SC-145126][connect] Verificação da consistência dos resultados do Arrow
- [SPARK-45163] [SC-143386][sql] Mesclar UNSUPPORTED_VIEW_OPERATION & UNSUPPORTED_TABLE_OPERATION & corrigir algum problema
- [SPARK-45421] [SC-144814][sql] Capturar AnalysisException em InlineCTE
-
[SPARK-43664] [SC-145404][connect][PS] Levante exceção para
ps.sqlcom o objeto Pandas-on-Spark no Spark Connect. - [SPARK-45402] [SC-145371][sql][PYTHON] Adicionar a API UDTF para os métodos 'eval' e 'terminate' de modo a consumir o resultado anterior da 'análise'
- [SPARK-36112] [SC-67885] [SQL] Suportar subconsultas EXISTS e IN correlacionadas usando a estrutura DecorrelateInnerQuery
- [SPARK-45383] [SC-144929][sql] Corrigir mensagem de erro para viagem no tempo com tabela não existente
- [SPARK-43254] [SC-143318][sql] Atribua um nome ao erro _LEGACY_ERROR_TEMP_2018
- [SPARK-45204] [SC-145167][connect] Adicionar ExecuteHolder opcional ao SparkConnectPlanner
- [SPARK-45451] [SC-145144][sql] Torne o nível de armazenamento padrão do cache do conjunto de dados configurável
- [SPARK-45192] [SC-143194][ui] Corrigir parâmetro lineInterpolate atrasado para borda graphviz
-
[SPARK-45467] [SC-145146][core] Substitua
Proxy.getProxyClass()porProxy.newProxyInstance().getClass - [SPARK-45397] [SC-145139][ml][CONNECT] Adicionar transformador de características do montador de arrays
- [SPARK-44855] [SC-145226][connect] Pequenos ajustes para anexar ExecuteGrpcResponseSender a ExecuteResponseObserver
-
[SPARK-45398] [SC-144796][sql] Acrescentar
ESCAPEemsql()da expressãoLike - [SPARK-45494] [SC-145129][core][PYTHON] Introduza funções utilitárias para leitura/escrita de uma matriz de bytes para o PythonWorkerUtils
- [SPARK-45464] [SC-145125][core] Corrigir a compilação de distribuição network-yarn
- [SPARK-45461] [SC-144851][core][SQL][mllib] Introduza um mapeador para StorageLevel
- [SPARK-45450] [SC-145009][python] Corrigir importações de acordo com PEP8: pyspark.pandas e pyspark (core)
- [SPARK-45475] [SC-145018][sql] Usa DataFrame.foreachPartition em vez de RDD.foreachPartition em JdbcUtils
- [SPARK-45271] [SC-143778][sql] Mesclar _LEGACY_ERROR_TEMP_1113 em TABLE_OPERATION & excluir algum método não utilizado em QueryCompilationErrors
- [SPARK-45449] [SC-145013][sql] Problema de invalidação de cache com a tabela JDBC
- [SPARK-45473] [SC-145017][sql] Corrigir mensagem de erro incorreta para RoundBase
- [SPARK-43299] [SC-145022][ss][CONNECT] Converter StreamingQueryException no cliente Scala
- [SPARK-45474] [SC-145014][core][WEBUI] Suporta filtragem de nível superior na API JSON MasterPage
- [SPARK-45205] [SC-145012][sql] CommandResultExec para substituir métodos de iteração para evitar o disparo de múltiplas tarefas.
- [SPARK-45472] [SC-145004][ss] RocksDB State Store não precisa verificar novamente a existência do caminho do ponto de verificação
- [SPARK-45470] [SC-145010][sql] Evite colar o valor da cadeia de caracteres do tipo de compressão orc hive
- [SPARK-45448] [SC-144829][python] Corrija as importações de acordo com o PEP8: pyspark.testing, pyspark.mllib, pyspark.resource e pyspark.streaming
- [SPARK-45446] [SC-144828][python] Corrigir importações de acordo com PEP8: pyspark.errors e pyspark.ml
- [SPARK-45239] [SC-144832][connect] Reduzir o valor padrão spark.connect.jvmStacktrace.maxSize
- [SPARK-45436] [SC-144831][python][CONNECT] Os métodos DataFrame verificam a mesma sessão
- [SPARK-45413] [SC-144847][core] Adicionar aviso para preparar a remoção do suporte ao LevelDB
-
[SPARK-45462] [SC-144848][core][WEBUI] Mostrar
DurationemApplicationPage - [SPARK-44527] [SC-144855][sql] Substituir ScalarSubquery por null se o seu maxRows for 0
-
[SPARK-45401] [SC-144854][python] Adicione um novo método
cleanupna interface UDTF -
[SPARK-43704] [SC-144849][connect][PS] Suporte
MultiIndexparato_series() - [SPARK-45424] [SC-144888][sql] Fix TimestampFormatter retorna resultados de análise opcionais quando apenas o prefixo corresponde
- [SPARK-45441] [SC-144833][python] Introduza mais funções util para PythonWorkerUtils
-
[SPARK-45412] [SC-144803][python][CONNECT] Valide o plano e a sessão em
DataFrame.__init__ - [SPARK-45408] [SC-144810][core] Adicionar configurações de SSL RPC ao TransportConf
-
[SPARK-45432] [SC-144818][core] Remover construtor Hadoop-2
LocatedFileStatusobsoleto - [SPARK-45434] [SC-144819][ml][CONNECT] LogisticRegression verifica os rótulos de treinamento
- [SPARK-45420] [SC-144808][sql][PYTHON][connect] Adicionar DataType.fromDDL ao PySpark
-
[SPARK-45406] [SC-144793][python][CONNECT] Eliminar
schemado construtor da DataFrame -
[SPARK-45404] [SC-144799][core] Suporte
AWS_ENDPOINT_URLenv variável - [SPARK-43620] [SC-144792][connect][PS] Fix Pandas APIs depende de recursos não suportados
- [SPARK-45354] [SC-143991][sql] Resolver funções de baixo para cima
- [SPARK-45394] [SASP-1480][sc-144712][PYTHON][connect] Adicionar repetições para a API de artefato. Melhorar o tratamento de erros (acompanhamento de [SPARK-45093]).
- [SPARK-45120] [SC-142780][spark-45150][UI] Atualize o d3 de v3 para v7(v7.8.5) e aplique alterações de api na interface do usuário
- [SPARK-44838] [SC-143983][sql] melhoria na função raise_error
- [SPARK-45312] [SC-143754][sql][UI] Suportar a alternância entre exibir e ocultar o plano em SVG na página de execução
- [SPARK-45378] [SC-144448][core] Adicionar convertToNettyForSsl ao ManagedBuffer
- [SPARK-44762] [SC-144338][connect][CORE] Documentação para SparkConnect.addJobTag e Connect SparkSession.addTag
- [FAÍSCA-45383] Lidar com RelationTimeTravel não resolvido de forma adequada
- [SPARK-45347] [SC-144512][sql][CONNECT] Incluir SparkThrowable em FetchErrorDetailsResponse
- [SPARK-45012] [SC-141512][sql] CheckAnalysis deve lançar plano embutido em AnalysisException
-
[SPARK-45359] [SC-144336][python][CONNECT]
DataFrame.{columns, colRegex, explain}deve gerar exceções quando o plano é inválido - [SPARK-45227] [SC-144233][core] Corrija um problema sutil de segurança de threads com CoarseGrainedExecutorBackend
- [SPARK-45266] [SC-144171][python] Regra do analisador Refactor ResolveFunctions para atrasar a junção lateral quando os argumentos da tabela são usados
- [SPARK-45266] Reverter "[SC-144171][python] Refactor a regra do analisador ResolveFunctions para adiar a realização de junções laterais quando são usados argumentos de tabela"
- [SPARK-45371] [SC-144389][connect] Corrigir problemas de sombreamento no cliente Spark Connect Scala
- [SPARK-45057] [SC-144214][core] Evite adquirir bloqueio de leitura quando "keepReadLock" é falso
-
[SPARK-45385] [SC-144357][sql] Descontinuar
spark.sql.parser.escapedStringLiterals -
[SPARK-45340] [SC-143917][sql] Remova a configuração do SQL
spark.sql.hive.verifyPartitionPath - [SPARK-45266] [SC-144171][python] Regra do analisador Refactor ResolveFunctions para atrasar a junção lateral quando os argumentos da tabela são usados
- [SPARK-45362] [SC-144198][python] Projete expressões PARTITION BY antes que o método Python UDTF 'eval' as consuma
- [SPARK-45346] [SC-143925][sql] A inferência do esquema Parquet deve respeitar o indicador sensível a maiúsculas e minúsculas ao unir os esquemas
- [SPARK-45341] [SC-143933][core] Corrigir o nível do título nos comentários de KVStore.java para garantir a execução bem-sucedida no Java 17
- [SPARK-45334] [SC-143914][sql] Remover comentário enganoso no parquetSchemaConverter
-
[SPARK-45337] [SC-143932][core] Refatorar
AbstractCommandBuilder#getScalaVersionpara remover a verificação do Scala 2.12 - [SPARK-45329] [SC-143918][python][CONNECT] Os métodos DataFrame ignoram a conversão de pandas
- [SPARK-43662] [SC-143923][ps][CONNECT] Suporte de merge_asof no Spark Connect
- [SPARK-44126] [SC-143751][core] A contagem de falhas de migração aleatória não deve aumentar quando o executor de destino for desativado
-
[SPARK-44550] [SC-119768][sql] Ativar correções de precisão para
null IN (empty list)de acordo com ANSI -
[SPARK-45316] [SC-143783][core][SQL] Adicione novos parâmetros
ignoreCorruptFiles/ignoreMissingFilesa eHadoopRDDNewHadoopRDD - [SPARK-45093] [SC-143414][connect][PYTHON] Relatório de erros para consulta addArtifacts
- [SPARK-44756] [SC-143787][core] O executor trava quando RetryingBlockTransferor falha ao iniciar a nova tentativa
- [SPARK-45333] [SC-143768][core] Corrigir um erro de unidade relacionado a spark.eventLog.buffer.kb
- [SPARK-45317] [SC-143750][sql][CONNECT] Manipular nome de ficheiro nulo em rastreamentos de pilha de exceções
- [SPARK-45191] [SC-143407][sql] InMemoryTableScanExec simpleStringWithNodeId adiciona informações colunares
-
[SPARK-45235] [SC-143314][connect][PYTHON] Suporta parâmetros de mapa e matriz por
sql() - [SPARK-45138] [SC-143309][ss] Defina uma nova classe de erro e aplique-a quando o estado de verificação do DFS falhar
- [SPARK-45297] [SC-143644][sql] Remover solução alternativa para o formatador de datas que foi adicionado no SPARK-31827
- [SPARK-44345] [SC-143593][core] Reduzir nível de log para avisar se a migração de shuffle estiver ativada
- [SPARK-44463] [SC-143251][ss][CONNECT] Melhorar o tratamento de erros para o processo Python de transmissão do Connect
- [SPARK-45207] [SC-143603][sql][CONNECT] Implementar enriquecimento de erro para cliente de Scala
- [SPARK-45240] [SC-143602][sql][CONNECT] Implementar enriquecimento de erro para cliente Python
- [SPARK-45216] [SC-143288][sql] Corrigir APIs de Dataset com sementes não determinísticas
- [SPARK-45251] [SC-143419][connect] Adicionar campo client_type para FetchErrorDetails
-
[SPARK-45137] [SC-143001][connect] Suporta parâmetros de mapa/matriz parametrizados
sql() -
[SPARK-45224] [SC-143257][python] Adicione exemplos com mapa e matriz como parâmetros de
sql() - [SPARK-44622] [SC-143205][sql][CONNECT] Implementar FetchErrorDetails RPC
- [SPARK-45178] [SC-136089] Reversão para executar um único lote para Trigger.AvailableNow com fontes sem suporte em vez de utilizar wrapper
- [SPARK-44823] [14.x][sc-142979][PYTHON] Atualizar black para 23.9.1 e corrigir verificação errónea.
-
[SPARK-45078] [SC-142954][sql] Corrigir
array_insertImplicitCastInputTypes não funciona - [SPARK-44579] [SC-138428][sql] Interrupção de suporte ao cancelar no SQLExecution
-
[SPARK-45252] [SC-143371][core] Fuja dos símbolos maiores/menores que nos comentários para executar
sbt doccom êxito - [SPARK-45189] [SC-142973][sql] A criação de UnresolvedRelation a partir de TableIdentifier deve incluir o campo de catálogo
- [SPARK-45229] [SC-143254][core][UI] Mostrar o número de drivers aguardando no status ENVIADO na MasterPage
-
[SPARK-43453] Reverter "[SC-143135][ps] Ignorar o
namesdeMultiIndexquandoaxis=1paraconcat"
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Consulte Atualizações de manutenção do Databricks Runtime 14.2.
Ambiente do sistema
- Sistema Operacional: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Escala: 2.12.15
- Píton: 3.10.12
- R: 4.3.1
- Lago Delta: 3.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Anyio | 3.5.0 | Argão2-CFFI | 21.3.0 | argon2-cffi-ligações | 21.2.0 |
| AstTokens | 2.0.5 | ATRs | 22.1.0 | Backcall | 0.2.0 |
| BeautifulSoup4 | 4.11.1 | preto | 22.6.0 | lixívia | 4.1.0 |
| piscas | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.96 |
| certifi | 2022.12.7 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Normalizador de Charset | 2.0.4 | clicar | 8.0.4 | comunicação | 0.1.2 |
| contorno | 1.0.5 | criptografia | 39.0.1 | ciclista | 0.11.0 |
| Cython | 0.29.32 | Databricks-SDK | 0.1.6 | dbus-python | 1.2.18 |
| depuração | 1.6.7 | decorador | 5.1.1 | DeUsedXML | 0.7.1 |
| Distlib | 0.3.7 | docstring-para-markdown | 0,11 | pontos de entrada | 0.4 |
| executar | 0.8.3 | facetas-visão geral | 1.1.1 | fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.19.0 |
| bloqueio de ficheiro | 3.12.4 | Fonttools | 4.25.0 | googleapis-comuns-protos | 1.61.0 |
| Grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| IDNA | 3.4 | importlib-metadados | 4.6.4 | Ipykernel | 6.25.0 |
| IPython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 3.1.2 |
| JmesPath | 0.10.0 | Joblib | 1.2.0 | jsonschema | 4.17.3 |
| Jupyter Client | 7.3.4 | jupyter-servidor | 1.23.4 | jupyter_core | 5.2.0 |
| JupyterLab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | porta-chaves | 23.5.0 |
| Kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | LXML | 4.9.1 | Marcação Segura | 2.1.1 |
| Matplotlib | 3.7.0 | matplotlib-em linha | 0.1.6 | Mccabe | 0.7.0 |
| Mistune | 0.8.4 | mais-itertools | 8.10.0 | mypy extensions | 0.4.3 |
| NBMédico | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
| nbformat | 5.7.0 | Ninho-Asyncio | 1.5.6 | nodeenv | 1.8.0 |
| bloco de notas | 6.5.2 | notebook_shim | 0.2.2 | dormência | 1.23.5 |
| OAuthlib | 3.2.0 | embalagem | 22.0 | pandas | 1.5.3 |
| PandocFilters | 1.5.0 | Parso | 0.8.3 | PathSpec | 0.10.3 |
| bode expiatório | 0.5.3 | Espere | 4.8.0 | pickleshare | 0.7.5 |
| Almofada de cama | 9.4.0 | pip (o gestor de pacotes do Python) | 22.3.1 | plataformadirs | 2.5.2 |
| enredo | 5.9.0 | Pluggy | 1.0.0 | Prometheus-Cliente | 0.14.1 |
| kit de ferramentas de prompt | 3.0.36 | Protobuf | 4.24.0 | PSUTIL | 5.9.0 |
| PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 8.0.0 | Correção rápida do PyArrow | 0.4 | Pycparser | 2.21 |
| Pidântico | 1.10.6 | Pyflakes | 3.1.0 | Pigmentos | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | Pyodbc | 4.0.32 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | pirsistent | 0.18.0 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-servidor | 1.8.0 |
| pytoolconfig | 1.2.5 | Pytz | 2022.7 | Pyzmq | 23.2.0 |
| pedidos | 2.28.1 | corda | 1.7.0 | s3transferência | 0.6.2 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.1.1 | SciPy | 1.10.0 | nascido no mar | 0.12.2 |
| Armazenamento Secreto | 3.3.1 | Enviar para o Lixo | 1.8.0 | Ferramentas de configuração | 65.6.3 |
| seis | 1.16.0 | sniffio | 1.2.0 | Soupsieve | 2.3.2.post1 |
| ssh-import-id | 5.11 | dados da pilha | 0.2.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.13.5 |
| tenacidade | 8.1.0 | terminado | 0.17.1 | ThreadPoolCtl | 2.2.0 |
| tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
| tornado | 6.1 | traços | 5.7.1 | typing_extensions (extensões de digitação) | 4.4.0 |
| Ujson | 5.4.0 | Atualizações não assistidas | 0.1 | urllib3 | 1.26.14 |
| virtualenv | 20.16.7 | wadllib | 1.3.6 | largura de wc | 0.2.5 |
| WebEncodings | 0.5.1 | Websocket-cliente | 0.58.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 |
| wheel | 0.38.4 | widgetsnbextension | 3.6.1 | Yapf | 0.33.0 |
| zipp | | 1.0.0 |
Bibliotecas R instaladas
Foram instaladas as bibliotecas R a partir do CRAN snapshot do Posit Package Manager em 2023-02-10.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 12.0.1 | AskPass | 1.1 | asserçãoat | 0.2.1 |
| retroportagens | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| bocado | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
| arranque | 1.3-28 | infusão | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.5 | BSLIB | 0.5.0 | cachemira | 1.0.8 |
| Chamador | 3.7.3 | acento cúspide | 6.0-94 | Cellranger | 1.1.0 |
| crono | 2.3-61 | classe | 7.3-22 | CLI | 3.6.1 |
| Clipr | 0.8.0 | relógio | 0.7.0 | cluster | 2.1.4 |
| CodeTools | 0.2-19 | espaço em cores | 2.1-0 | marca comum | 1.9.0 |
| compilador | 4.3.1 | configuração | 0.3.1 | conflituoso | 1.2.0 |
| C++11 | 0.4.4 | lápis de cor | 1.5.2 | credenciais | 1.3.2 |
| encaracolar | 5.0.1 | tabela de dados | 1.14.8 | conjuntos de dados | 4.3.1 |
| DBI | 1.1.3 | DBPlyr | 2.3.3 | descrição | 1.4.2 |
| DevTools | 2.4.5 | diagrama | 1.6.5 | diffobj | 0.3.5 |
| resumo | 0.6.33 | Iluminação reduzida | 0.4.3 | DPLYR | 1.1.2 |
| DTPlyr | 1.3.1 | E1071 | 1.7-13 | reticências | 0.3.2 |
| avaliar | 0.21 | Fansi | 1.0.4 | Farver | 2.1.1 |
| mapa rápido | 1.1.1 | fontawesome | 0.5.1 | FORCATS | 1.0.0 |
| para cada | 1.5.2 | externa | 0.8-82 | forjar | 0.2.0 |
| FS | 1.6.2 | Futuro | 1.33.0 | futuro.apply | 1.11.0 |
| gargarejo | 1.5.1 | genérico | 0.1.3 | Gert | 1.9.2 |
| GGPLOT2 | 3.4.2 | GH | 1.4.0 | gitcreds | 0.1.2 |
| GLMNET | 4.1-7 | Globais | 0.16.2 | colar | 1.6.2 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.3.1 | grDispositivos | 4.3.1 | grelha | 4.3.1 |
| gridExtra | 2.3 | GSUBFN | 0,7 | tabela g | 0.3.3 |
| capacete | 1.3.0 | Refúgio | 2.5.3 | mais alto | 0.10 |
| HMS | 1.1.3 | htmltools | 0.5.5 | htmlwidgets (componentes HTML interativos) | 1.6.2 |
| httpuv | 1.6.11 | HTTR | 1.4.6 | HTTR2 | 0.2.3 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| Isoband | 0.2.7 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | Knitr | 1.43 |
| etiquetagem | 0.4.2 | mais tarde | 1.3.1 | treliça | 0.21-8 |
| lave | 1.7.2.1 | ciclo de vida | 1.0.3 | ouvir | 0.9.0 |
| lubridato | 1.9.2 | Magrittr | 2.0.3 | Marcação | 1.7 |
| MASSA | 7.3-60 | Matriz | 1.5-4.1 | memorização | 2.0.1 |
| métodos | 4.3.1 | MGCV | 1.8-42 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelr | 0.1.11 |
| Munsell | 0.5.0 | NLME | 3.1-162 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.6 | paralelo | 4.3.1 |
| Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | Plyr | 1.8.8 | elogio | 1.0.0 |
| unidades elegantes | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
| Prodlim | 2023.03.31 | Profvis | 0.3.8 | Progresso | 1.2.2 |
| progressor | 0.13.0 | promessas | 1.2.0.1 | prototipo | 1.0.0 |
| proxy | 0.4-27 | PS | 1.7.5 | ronronar | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.5 |
| Floresta Aleatória | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| Leitor | 2.1.4 | ReadXL | 1.4.3 | receitas | 1.0.6 |
| revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| Reprex | 2.0.2 | remodelar2 | 1.4.4 | Rlang | 1.1.1 |
| rmarkdown | 2.23 | RODBC | 1.3-20 | oxigénio2 | 7.2.3 |
| rpart (função de partição recursiva em R) | 4.1.19 | rprojroot | 2.0.3 | Reserva | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversões | 2.1.2 |
| Rvest | 1.0.3 | Sass | 0.4.6 | escalas | 1.2.1 |
| seletor | 0.4-2 | informações da sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4.1 | ferramentas de origem | 0.1.7-1 | Brilho | 1.8.1 |
| espacial | 7.3-15 | estrias | 4.3.1 | sqldf | 0.4-11 |
| QUADRADO | 2021.1 | estatísticas | 4.3.1 | estatísticas4 | 4.3.1 |
| string | 1.7.12 | stringr | 1.5.0 | sobrevivência | 3.5-5 |
| Sistema | 3.4.2 | fontes do sistema | 1.0.4 | tcltk (uma linguagem de programação) | 4.3.1 |
| teste que | 3.1.10 | formatação de texto | 0.3.6 | Tibble | 3.2.1 |
| Tidyr | 1.3.0 | arrumadoselecionar | 1.2.0 | Tidyverse | 2.0.0 |
| mudança de hora | 0.2.0 | data e hora | 4022.108 | Tinytex | 0,45 |
| ferramentas | 4.3.1 | TZDB | 0.4.0 | verificador de URLs | 1.0.1 |
| usethis | 2.2.2 | UTF8 | 1.2.3 | utilitários | 4.3.1 |
| Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.6.3 | viridisLite | 0.4.2 |
| vrum | 1.6.3 | Waldo | 0.5.1 | vibrissas | 0.4.1 |
| murchar | 2.5.0 | xfun | 0,39 | XML2 | 1.3.5 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
| ZIP | 2.3.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | AWS Java SDK para SES | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.390 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_suscetíveis_a_erro | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | Lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.25 |
| IO.Delta | delta-compartilhamento-client_2.12 | 1.0.2 |
| io.dropwizard.metrics | métricas-anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.netty | netty-tudo | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-meias | 4.1.96.Final |
| io.netty | netty-comum | 4.1.96.Final |
| io.netty | Netty Handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-Windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | transporte Netty | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.96.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | conserva | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | modelo de string | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ANT-JSCH | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de seta | 12.0.1 |
| org.apache.arrow | seta-memória-núcleo | 12.0.1 |
| org.apache.arrow | Arrow-Memory-Netty | 12.0.1 |
| org.apache.arrow | vetor de seta | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | AVRO-IPC | 1.11.2 |
| org.apache.avro | avro-mapeado | 1.11.2 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | curador-receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | clássico | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | Hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | Mesos | 1.11.0-protobuf sombreado |
| org.apache.orc | orc-núcleo | 1.9.1-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.1-protobuf sombreado |
| org.apache.orc | Orc-calços | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | guarda de jardim zoológico | 3.6.3 |
| org.apache.zookeeper | zookeeper-juta | 3.6.3 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.píer | Molhe IO | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | Segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey comum | 2.40 |
| org.glassfish.jersey.core | servidor Jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-log de eventos | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.7.9 |
| org.mlflow | mlflow-Spark | 2.2.0 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | calços | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.threeten | trêsdez-extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |