Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 12.2 LTS, alimentado pelo Apache Spark 3.3.2.
A Databricks lançou esta versão em março de 2023.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Gorjeta
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
[Mudança de rutura] Nova versão do Python requer atualização de clientes Python Databricks Connect V1
Nota
Uma atualização subsequente move a versão Python no Databricks Runtime 12.2 LTS para 3.9.21. A versão 3.9.21 não introduz alterações comportamentais.
Para aplicar os patches de segurança necessários, a versão Python no Databricks Runtime 12.2 LTS é atualizada de 3.9.5 para 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 for Python com Databricks Runtime 12.2 LTS devem ser atualizados para Python 3.9.7 ou posterior.
Novos recursos e melhorias
- Python atualizado de 3.9.19 para 3.9.21
- A evolução do esquema Delta Lake suporta a especificação de colunas de origem em instruções de mesclagem
- As cargas de trabalho de Streaming estruturado são suportadas em clusters com modo de acesso compartilhado
- Novos recursos para E/S preditiva
- Suporte implícito de aliasing de coluna lateral
- Novo recurso forEachBatch
- Opções de conexão padronizadas para federação de consultas
- Biblioteca de funções SQL estendida para gerenciamento de matrizes
- Nova função de máscara para anonimizar cadeias de caracteres
- Condições de erro comuns agora retornam SQLSTATEs
- Invoque funções geradoras na cláusula FROM
- O suporte para buffers de protocolo está geralmente disponível
- Ir para a definição de variáveis e funções do bloco de notas
- Correção rápida do bloco de anotações para bibliotecas de importação automática
- Correções de erros
Python atualizado de 3.9.19 para 3.9.21
A versão Python no Databricks Runtime 12.2 LTS é atualizada de 3.9.19 para 3.9.21.
A evolução do esquema Delta Lake suporta a especificação de colunas de origem em instruções de mesclagem
Agora você pode especificar colunas presentes somente na tabela de origem em ações de inserção ou atualização para instruções de mesclagem quando a evolução do esquema estiver habilitada. No Databricks Runtime 12.1 e inferior, apenas INSERT * ações ou UPDATE SET * podem ser usadas para evolução do esquema com mesclagem. Consulte Evolução automática do esquema para mesclagem Delta Lake.
As cargas de trabalho de Streaming estruturado são suportadas em clusters com modo de acesso compartilhado
Agora pode usar o Streaming Estruturado para interagir com o Unity Catalog em ambientes de computação com modo de acesso padrão. Aplicam-se algumas limitações. Consulte Qual funcionalidade de streaming estruturado é compatível com o Unity Catalog?.
Novos recursos para E/S preditiva
O suporte de fótons para a pia Foreachbatch já está disponível. Cargas de trabalho que fluem de uma origem e se fundem em tabelas delta ou gravam em vários coletores agora podem se beneficiar do coletor fotonizado Foreachbatch .
Suporte implícito de aliasing de coluna lateral
O Azure Databricks agora dá suporte ao aliasing de coluna lateral implícito por padrão. Agora você pode reutilizar uma expressão especificada anteriormente na mesma SELECT lista. Por exemplo, dado SELECT 1 AS a, a + 1 AS b, o a in a + 1 pode ser resolvido como o definido anteriormente 1 AS a. Verifique Resolução de nomes para obter mais detalhes na ordem de resolução.
Para desativar esse recurso, você pode definir spark.sql.lateralColumnAlias.enableImplicitResolution como false.
Novo recurso forEachBatch
O Photon agora é suportado ao usar foreachBatch para gravar em um coletor de dados.
Opções de conexão padronizadas para federação de consultas
Agora você pode usar um conjunto unificado de opções (host, porta, banco de dados, usuário, senha) para se conectar a fontes de dados suportadas na Federação de Consultas.
Port é opcional e usa o número de porta padrão para cada fonte de dados, a menos que especificado.
Biblioteca de funções SQL estendida para gerenciamento de matrizes
Agora você pode remover todos os elementos NULL de uma matriz usando array_compact. Para acrescentar elementos a uma matriz, use array_append.
Nova função de máscara para anonimizar cadeias de caracteres
Invoque a função mask para anonimizar valores de cadeia de caracteres confidenciais.
Condições de erro comuns agora retornam SQLSTATEs
A maioria das condições de erro que o Databricks Runtime agora inclui valores SQLSTATE documentados que podem ser usados para testar erros de forma compatível com o padrão SQL.
Invoque funções geradoras na cláusula FROM
Agora você pode invocar funções de gerador com valor de tabela, como explodir na cláusula regular FROM de uma consulta. Isso alinha a invocação da função geradora com outras funções de tabela internas e definidas pelo usuário.
O suporte para buffers de protocolo está geralmente disponível
Você pode usar as from_protobuf funções e to_protobuf para trocar dados entre os tipos binário e struct. Consulte Buffers de protocolo de leitura e gravação.
Ir para a definição de variáveis e funções do bloco de notas
Nos blocos de anotações, você pode ir rapidamente para a definição de uma variável, função ou o código por trás de uma %run instrução clicando com o botão direito do mouse no nome da variável ou função.
Correção rápida do bloco de anotações para bibliotecas de importação automática
Os Notebooks Databricks agora oferecem um recurso de correção rápida para bibliotecas de importação automática. Se você esquecer de importar uma biblioteca como pandas, passe o mouse sobre o aviso de sintaxe sublinhado e clique em Correção Rápida, esse recurso requer que o Assistente Databricks esteja habilitado em seu espaço de trabalho.
Correções de erros
- Consistência aprimorada para o comportamento de confirmação Delta para transações vazias relacionadas a
update,deleteemergecomandos. NoWriteSerializablenível de isolamento, os comandos que não resultam em alterações agora criam uma confirmação vazia. Em umSerializablenível de isolamento, essas transações vazias agora não criam uma confirmação.
Alterações de comportamento
Alterações de comportamento com o novo recurso de alias de coluna lateral
O novo recurso de alias de coluna lateral introduz alterações de comportamento para os seguintes casos durante a resolução de nomes:
- O alias de coluna lateral agora tem precedência sobre referências correlacionadas com o mesmo nome. Por exemplo, para esta consulta
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1), oc1in the innerc1 AS c2foi resolvido para a referênciat.c1correlacionada, mas agora muda para o alias1 AS c1da coluna lateral. A consulta agora retornaNULL. - O alias da coluna lateral agora tem precedência sobre os parâmetros de função com o mesmo nome. Por exemplo, para a função,
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x, oxno corpo da função foi resolvido para o parâmetro de função x, mas muda para o aliasx + 1da coluna lateral no corpo da função. A consulta,SELECT * FROM func(1)agora retorna2, 2. - Para desativar o recurso de alias de coluna lateral, defina
spark.sql.lateralColumnAlias.enableImplicitResolutioncomofalse. Para obter mais informações, consulte Resolução de nomes.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- filelock de 3.8.2 a 3.9.0
- joblib de 1.1.0 a 1.1.1
- platformdirs de 2.6.0 a 2.6.2
- whatthepatch de 1.0.3 a 1.0.4
- Bibliotecas R atualizadas:
- classe de 7.3-20 a 7.3-21
- CodeTools de 0.2-18 a 0.2-19
- MASSA de 7,3-58 a 7,3-58,2
- NLME de 3.1-160 a 3.1-162
- Reserve de 1.8-11 a 1.8-12
- SparkR de 3.3.1 a 3.3.2
Mudanças de comportamento
- Os usuários agora precisam ter
SELECTprivilégios emMODIFYqualquer arquivo ao criar um esquema com um local definido.
Faísca Apache
O Databricks Runtime 12.2 inclui o Apache Spark 3.3.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 12.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-42416] [SC-123205][sc-122851][SQL] As operações de conjunto de datas não devem resolver o plano lógico analisado novamente
- [SPARK-41848] Reverter "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Corrigir tarefa agendada em demasia com TaskResourceProfile"
- [SPARK-42162] [SC-122711][es-556261] Introduza a expressão MultiCommutativeOp como uma otimização de memória para canonicalizar grandes árvores de expressões comutativas
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Corrigir a configuração de profundidade recursiva para funções Protobuf
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementar DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Renomear _catalog_to_pandas para _execute_and_fetch no catálogo
- [SPARK-41490] [SC-121774][sql] Atribua nome a _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implemente Catalog.cacheTable, isCached e uncache
- [SPARK-42191] [SC-121990][sql] Suporte udf 'luhn_check'
- [SPARK-42253] [SC-121976][python] Adicionar teste para detetar classe de erro duplicada
- [SPARK-42268] [SC-122251][connect][PYTHON] Adicionar UserDefinedType em protos
-
[SPARK-42231] [SC-121841][sql] Transforme-se
MISSING_STATIC_PARTITION_COLUMNeminternalError - [FAÍSCA-42136] [SC-122554] Cálculo de particionamento de saída Refactor BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][sql] Integrar
_LEGACY_ERROR_TEMP_1003emFIELD_NOT_FOUND - [SPARK-42192] [12.x][sc-121820][PYTHON] Migrar o TypeError de pyspark/sql/dataframe.py para PySparkTypeError
- [SPARK-35240] Reverter "[SC-118242][ss] Use CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Atribua nome a _LEGACY_ERROR_TEMP_1176 (e 1177)
-
[SPARK-42232] [SC-122267][sql] Renomear classe de erro:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION - [SPARK-42346] [SC-122480][sql] Reescrever agregações distintas após a mesclagem de subconsulta
-
[SPARK-42306] [SC-122539][sql] Integrar
_LEGACY_ERROR_TEMP_1317emUNRESOLVED_COLUMN.WITH_SUGGESTION -
[SPARK-42234] [SC-122354][sql] Renomear classe de erro:
UNSUPPORTED_FEATURE.REPEATED_PIVOT -
[SPARK-42343] [SC-122437][core] Ignorar
IOExceptionemhandleBlockRemovalFailurese o SparkContext estiver parado - [SPARK-41295] [SC-122442][spark-41296][SQL] Renomeie as classes de erro
- [SPARK-42320] [SC-122478][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][sql] Atribua nome a _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][connect] SparkConnectClient suporta RetryPolicies agora
- [SPARK-38728] [SC-116723][sql] Teste a classe de erro: FAILED_RENAME_PATH
- [FAÍSCA-40005] [12.X] Exemplos independentes no PySpark
- [SPARK-39347] [SC-122457][ss] Correção de bug para cálculo de janela de tempo quando a hora do evento é 0
-
[SPARK-42336] [SC-122458][core] Use
getOrElse()em vez decontains()no ResourceAllocator - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF no Spark Connect
- [SPARK-42217] [SC-122263][sql] Suporta alias de coluna lateral implícito em consultas com o Window
- [SPARK-35240] [SC-118242][ss] Use o CheckpointFileManager para manipulação de arquivos de ponto de verificação
- [SPARK-42294] [SC-122337][sql] Incluir valores padrão de coluna na saída DESCRIBE para tabelas V2
- [SPARK-41979] Reverter "Reverter "[12.x][sc-121190][SQL] Adicionar pontos ausentes para mensagens de erro em classes de erro.""
- [SPARK-42286] [SC-122336][sql] Regressão para o caminho de geração de código anterior para expressões complexas com CAST
- [SPARK-42275] [SC-122249][connect][PYTHON] Evite usar lista incorporada, dicionário na tipagem estática
- [SPARK-41985] [SC-122172][sql] Centralize mais regras de resolução de coluna
- [SPARK-42126] [SC-122330][python][CONNECT] Aceitar tipo de retorno em strings DDL para Python Scalar UDFs no Spark Connect
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Reutiliza a inicialização da JVM e grupos de configuração separados para definir no modo local remoto
- [SPARK-41575] [SC-120118][sql] Atribua nome a _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Reverter “[SC-122172][sql] Centralizar mais regras de resolução de coluna”
- [SPARK-42123] [SC-122234][sc-121453][SQL] Incluir valores padrão das colunas em DESCRIBE e na saída SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][sql] Centralize mais regras de resolução de coluna
- [SPARK-42284] [SC-122233][connect] Certifique-se de que a montagem do servidor 'connect' é concluída antes de executar os testes do cliente - SBT
-
[SPARK-42239] [SC-121790][sql] Integrar
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY -
[SPARK-42278] [SC-122170][sql] O suporte de pushdown DS V2 se aplica a dialetos JDBC que se compilam sozinhos
SortOrder - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics deve lidar com o UDAF em Python
- [FAÍSCA-41979] Reverter "[12.x][sc-121190][SQL] Adicionar pontos ausentes para mensagens de erro em classes de erro."
- [SPARK-42224] [12.x][sc-121708][CONNECT] Migrar TypeError para a estrutura de erro para funções do Spark Connect
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migre os erros do Spark Connect para a estrutura de erros do PySpark.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Adicione funções incorporadas com valores de tabela inline e inline_outer
- [SPARK-41489] [SC-121713][sql] Atribua nome a _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Introduza PySparkValueError e PySparkTypeError
- [SPARK-42081] [SC-121723][sql] Melhorar a validação da alteração do plano
- [SPARK-42225] [12.x][sc-121714][CONNECT] Adicione SparkConnectIllegalArgumentException para lidar com o erro Spark Connect com precisão.
-
[SPARK-42044] [12.x][sc-121280][SQL] Corrigir mensagem de erro incorreta para
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY - [SPARK-42194] [12.x][sc-121712][PS] Permitir parâmetro de colunas ao criar DataFrame com Series.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Migrar erros lançados pela JVM para PySparkException.
- [SPARK-42133] [12.x][sc-121250] Adicionar métodos básicos de API de conjunto de dados ao SparkConnect Scala Client
- [SPARK-41979] [12.x][sc-121190][SQL] Adicione pontos ausentes para mensagens de erro em classes de erro.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] UDF Python em linha escalar no Spark Connect
- [SPARK-42051] [SC-121994][sql] Suporte de Codegen para HiveGenericUDF
- [SPARK-42257] [SC-121948][core] Remover classificador externo variável não utilizado
- [SPARK-41735] [SC-121771][sql] Use MINIMAL em vez de STANDARD para SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][sql] Refinar
NULLABLE_ARRAY_OR_MAP_ELEMENT -
[SPARK-42233] [SC-121775][sql] Melhorar mensagem de erro para
PIVOT_AFTER_GROUP_BY -
[SPARK-42229] [SC-121856][core] Migrar
SparkCoreErrorspara classes de erro - [SPARK-42163] [SC-121839][sql] Corrigir remoção de esquema para índice de matriz não dobrável ou chave de mapa
- [SPARK-40711] [SC-119990][sql] Adicionar métricas de tamanho de derramamento para janela
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Tornar o
createDataFramecapaz de suportar coerçãoAtomicType -> StringType - [SPARK-42202] [SC-121837][connect][Test] Melhorar a lógica de parada do servidor de teste E2E
- [SPARK-41167] [SC-117425][sql] Melhorar o desempenho do multi-like criando um predicado de árvore de expressão equilibrada
- [SPARK-41931] [SC-121618][sql] Melhor mensagem de erro para definição de tipo complexo incompleto
- [SPARK-36124] [SC-121339][sc-110446][SQL] Suporte a subconsultas com correlação através de UNION
- [FAÍSCA-42090] [SC-121290][3.3] Introduza a contagem de tentativas sasl em RetryingBlockTransferor
-
[SPARK-42157] [SC-121264][core]
spark.scheduler.mode=FAIRdeve fornecer agendador do tipo FAIR - [SPARK-41572] [SC-120772][sql] Atribua nome a _LEGACY_ERROR_TEMP_2149
-
[SPARK-41983] [SC-121224][sql] Renomear e melhorar a mensagem de erro para
NULL_COMPARISON_RESULT -
[SPARK-41976] [SC-121024][sql] Melhorar mensagem de erro para
INDEX_NOT_FOUND - [SPARK-41994] [SC-121210][sc-120573] Atribuir SQLSTATE (1/2)
- [FAÍSCA-41415] [SC-121117][3.3] Tentativas de solicitação SASL
- [SPARK-38591] [SC-121018][sql] Adicionar flatMapSortedGroups e cogroupSorted
-
[SPARK-41975] [SC-120767][sql] Melhorar mensagem de erro para
INDEX_ALREADY_EXISTS - [SPARK-42056] [SC-121158][sql][PROTOBUF] Adicionar opções ausentes para funções Protobuf
-
[SPARK-41984] [SC-120769][sql] Renomear e melhorar a mensagem de erro de
RESET_PERMISSION_TO_ORIGINAL - [SPARK-41948] [SC-121196][sql] Corrige NPE para classes de erro: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Corrigir nome de coluna incorreto no doctest do
withField -
[SPARK-41283] [SC-121175][connect][PYTHON] Adicionar
array_appendao Connect - [SPARK-41960] [SC-120773][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][sql] Corrija getPartitionFiltersAndDataFilters() para manipular filtros sem atributos referenciados
-
[SPARK-42096] [SC-121012][connect] Alguma limpeza de código para
connecto módulo -
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Correção
count(*)ecount(col(*)) - [SPARK-42045] [SC-120958][sc-120450][SQL] Modo ANSI SQL: Round/Bround devem retornar um erro em caso de overflow de número inteiro
- [SPARK-42043] [SC-120968][connect] Resultado do cliente Scala com testes E2E
- [SPARK-41884] [SC-121022][connect] Suporta tupla ingênua como uma linha aninhada
-
[SPARK-42112] [SC-121011][sql][SS] Adicionar verificação nula antes
ContinuousWriteRDD#computedo fechamento da funçãodataWriter - [SPARK-42077] [SC-120553][connect][PYTHON] Literal deve lançar TypeError para DataType não suportado
-
[SPARK-42108] [SC-120898][sql] Faça o Analyzer se transformar
Count(*)emCount(1) -
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Suporte para SQL parametrizado por
sql() - [SPARK-40599] [SC-120930][sql] Relaxe o tipo de regra multiTransform para permitir que as alternativas sejam qualquer tipo de Seq
-
[SPARK-41574] [SC-120771][sql] Atualizar
_LEGACY_ERROR_TEMP_2009paraINTERNAL_ERROR. - [SPARK-41579] [SC-120770][sql] Atribua nome a _LEGACY_ERROR_TEMP_1249
-
[SPARK-41974] [SC-120766][sql] Transforme-se
INCORRECT_END_OFFSETemINTERNAL_ERROR - [SPARK-41530] [SC-120916][sc-118513][CORE] Renomear MedianHeap para PercentileMap e suporte a percentis
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Corrigir representação de cadeia de caracteres para a classe Column
- [SPARK-42084] [SC-120775][sql] Evite vazar a restrição de acesso qualificado
- [SPARK-41973] [SC-120765][sql] Atribua nome a _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][sql] SPJ: Remover opção em KeyGroupedPartitioning#partitionValuesOpt
-
[SPARK-42079] [SC-120712][connect][PYTHON] Renomeie mensagens proto para
toDFewithColumnsRenamed - [SPARK-42089] [SC-120605][connect][PYTHON] Corrigir problemas de nome de variável em funções lambda aninhadas
- [SPARK-41982] [SC-120604][sql] As partições do tipo string não devem ser tratadas como tipos numéricos
- [SPARK-40599] [SC-120620][sql] Adicionar métodos multiTransform ao TreeNode para gerar alternativas
-
[SPARK-42085] [SC-120556][connect][PYTHON] Fazer com que
from_arrow_schemasuporte tipos aninhados - [SPARK-42057] [SC-120507][sql][PROTOBUF] Corrija como a exceção é tratada no relatório de erros.
-
[SPARK-41586] [12.x][todos os testes][SC-120544][python] Introdução
pyspark.errorse classes de erro para o PySpark. -
[SPARK-41903] [SC-120543][connect][PYTHON]
Literaldeve suportar ndarray de 1 dimensão -
[SPARK-42021] [SC-120584][connect][PYTHON] Permitir
createDataFramesuportearray.array - [SPARK-41896] [SC-120506][sql] A filtragem por índice de linha devolve resultados vazios
- [SPARK-41162] [SC-119742][sql] Corrigir anti e semi-join para auto-junção com agregações
- [SPARK-41961] [SC-120501][sql] Suporta funções com valor de tabela com LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Agrupar execuções aninhadas sob a execução raiz
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal deve suportar tipos de dados Numpy
- [SPARK-42028] [SC-120344][connect][PYTHON] Truncar timestamps de nanossegundos
- [SPARK-42011] [SC-120534][connect][PYTHON] Implementar DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Use
FieldReference.columnem vez deapplyna conversão de filtro de V1 para V2 - [SPARK-39217] [SC-120446][sql] Implementa suporte para o lado da poda em DPP com União
-
[SPARK-42076] [SC-120551][connect][PYTHON] Externalizar a conversão de dados
arrow -> rowsparaconversion.py -
[SPARK-42074] [SC-120540][sql] Habilitar
KryoSerializeremTPCDSQueryBenchmarkpara impor o registo de classe SQL - [SPARK-42012] [SC-120517][connect][PYTHON] Implementar DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Corrigir
DataFrame.unionByName, adicionar allow_missing_columns -
[FAÍSCA-38651] [SC-120514] [SQL] Adicionar
spark.sql.legacy.allowEmptySchemaWrite -
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsertdeve aceitar ExpressionProxy como filho - [SPARK-41232] [SC-120073][sql][PYTHON] Adicionando array_append função
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader deve suportar lista de caminhos
-
[SPARK-42071] [SC-120533][core] Registre-se
scala.math.Ordering$Reverseno KyroSerializer - [SPARK-41986] [SC-120429][sql] Introdução do shuffle no SinglePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Habilitar testes relacionados à coluna aninhada
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReaderdeve suportar o esquema StructType -
[SPARK-42031] [SC-120389][core][SQL] Métodos de
removelimpeza que não precisam de substituição -
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Fazer com que
createDataFrame(rows/lists/tuples/dicts)suporte tipos aninhados - [SPARK-41437] [SC-117601][sql][TODOS OS TESTES] Não otimize a consulta de entrada duas vezes para fallback de gravação v1
-
[SPARK-41840] [SC-119719][connect][PYTHON] Adicione o alias ausente
groupby - [SPARK-41846] [SC-119717][connect][PYTHON] Ativar doctests para funções de janela
- [SPARK-41914] [SC-120094][sql] FileFormatWriter materializa o plano AQE antes de acessar outputOrdering
- [SPARK-41805] [SC-119992][sql] Reutilizar expressões em WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range para tomar float como argumentos
-
[SPARK-42029] [SC-120336][connect] Adicionar regras de sombras do Guava para
connect-commonevitar falha de inicialização - [SPARK-41989] [SC-120334][python] Evite quebrar a configuração de registro de pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Reduzir código duplicado em ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Corrigir grupo por todos os relatórios de erros
- [SPARK-41047] [SC-120291][sql] Melhorar documentos para rodada
- [SPARK-41822] [SC-120122][connect] Configurar conexão gRPC para cliente Scala/JVM
- [SPARK-41879] [SC-120264][connect][PYTHON] Implementar suporte a tipos aninhados
-
[SPARK-41887] [SC-120268][connect][PYTHON] Permitir que
DataFrame.hintaceite parâmetro do tipo lista - [SPARK-41964] [SC-120210][connect][PYTHON] Adicione a lista de funções de E/S não suportadas
- [SPARK-41595] [SC-120097][sql] Função geradora de suporte explode/explode_outer na cláusula FROM
-
[SPARK-41957] [SC-120121][connect][PYTHON] Habilitar o doctest para
DataFrame.hint -
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersectA saída doctest tem ordem diferente - [SPARK-41442] [SC-117795][sql][TODOS OS TESTES] Atualize o valor SQLMetric somente se estiver mesclando com uma métrica válida
- [SPARK-41944] [SC-120046][connect] Passar configurações quando o modo remoto local está ativado
-
[SPARK-41708] [SC-119838][sql] Extraia informações v1write para
WriteFiles -
[SPARK-41780] [SC-120000][sql] Deve lançar INVALID_PARAMETER_VALUE. PATTERN quando os parâmetros
regexpsão inválidos - [SPARK-41889] [SC-119975][sql] Anexar a causa raiz ao invalidPatternError e reformular as classes de erro INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][sql] Crie classes de caso do AvroScanBuilder e do JsonScanBuilder
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: cliente de conexão perdeu dados de coluna com pyarrow.Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Codificadores agnósticos
- [SPARK-41354] [SC-119995][connect][PYTHON] Implementar RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Atualizar
_LEGACY_ERROR_TEMP_1230comoINTERNAL_ERROR -
[SPARK-41928] [SC-119972][connect][PYTHON] Adicione a lista não suportada para
functions - [SPARK-41933] [SC-119980][connect] Fornece o modo local que inicia automaticamente o servidor
- [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame' deve respeitar o esquema DDL fornecido pelo usuário
-
[SPARK-41936] [SC-119978][connect][PYTHON] Permitir que
withMetadatareutilize owithColumnsproto - [SPARK-41898] [SC-119931][connect][PYTHON] Window.rowsBetween, Window.rangeBetween parâmetros paridade de verificação de tipos com pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Adicionar a lista de funções não suportadas para
catalog -
[SPARK-41924] [SC-119946][connect][PYTHON] Faça com que o StructType suporte metadados e implemente
DataFrame.withMetadata -
[SPARK-41934] [SC-119967][connect][PYTHON] Adicione a lista de funções não suportadas para
session -
[SPARK-41875] [SC-119969][connect][PYTHON] Adicionar casos de teste para
Dataset.to() - [SPARK-41824] [SC-119970][connect][PYTHON] Ingore o doctest para explicar a conexão
-
[SPARK-41880] [SC-119959][connect][PYTHON] Fazer com que a função
from_jsonaceite esquema não literal -
[SPARK-41927] [SC-119952][connect][PYTHON] Adicione a lista não suportada para
GroupedData -
[SPARK-41929] [SC-119949][connect][PYTHON] Adicionar função
array_compact -
[SPARK-41827] [SC-119841][connect][PYTHON] Permitir que
GroupByaceite uma lista de colunas -
[SPARK-41925] [SC-119905][sql] Ativar
spark.sql.orc.enableNestedColumnVectorizedReaderpor padrão -
[SPARK-41831] [SC-119853][connect][PYTHON] Fazer
DataFrame.selectaceitar lista de colunas -
[SPARK-41455] [SC-119858][connect][PYTHON] Faça
DataFrame.collectdescartar as informações de fuso horário -
[SPARK-41923] [SC-119861][connect][PYTHON] Adicionar
DataFrame.writeToà lista não suportada - [SPARK-41912] [SC-119837][sql] Subconsulta não deve validar CTE
-
[SPARK-41828] [SC-119832][connect][PYTHON][12.x] Tornar
createDataFramecompatível com dataframes vazios - [SPARK-41905] [SC-119848][connect] Suportar nomes como strings em coleções
- [SPARK-41869] [SC-119845][connect] Rejeitar uma cadeia de caracteres única em dropDuplicates
-
[SPARK-41830] [SC-119840][connect][PYTHON] Faça
DataFrame.sampleaceitar os mesmos parâmetros que o PySpark - [SPARK-41849] [SC-119835][connect] Implementar DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Fazer com que o método build() dos ScanBuilders v2 retorne uma varredura tipada
-
[SPARK-41825] [SC-119710][connect][PYTHON] Ativar doctests relacionados com
DataFrame.show -
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Faça
createDataFramelidar corretamente com None/NaN -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Fazer com que
DataFrame.collecttrate None/NaN/Array/Binary corretamente - [SPARK-39318] [SC-119713][sql] Remover arquivos dourados tpch-plan-stability WithStats
- [FAÍSCA-41791] [SC-119745] Adicionar novos tipos de coluna de metadados de origem de arquivo
- [SPARK-41790] [SC-119729][sql] Definir o formato do leitor e do gravador TRANSFORM corretamente
-
[SPARK-41829] [SC-119725][connect][PYTHON] Adicione o parâmetro de ordenação ausente em
SortesortWithinPartitions - [SPARK-41576] [SC-119718][sql] Atribua nome a _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][connect][PYTHON] Corrigir teste de doc para DataFrame.describe
- [SPARK-41871] [SC-119714][connect] O parâmetro de dica DataFrame pode ser str, float ou int
- [SPARK-41720] [SC-119076][sql] Renomeie UnresolvedFunc para UnresolvedFunctionName
- [SPARK-41573] [SC-119567][sql] Atribua nome a _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][sql] Corrigir bug de correção relacionado aos valores DEFAULT no leitor Orc
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Reutilizar
INVALID_TYPED_LITERALem vez de_LEGACY_ERROR_TEMP_0022
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 12.2.
Ambiente do sistema
-
Sistema Operacional: Ubuntu 20.04.5 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java: Zulu 8.68.0.21-CA-linux64
- Escala: 2.12.15
- Píton: 3.9.21
- R: 4.2.2
- Lago Delta: 2.2.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Argônio2-CFFI | 21.3.0 | argon2-cffi-ligações | 21.2.0 | AstTokens | 2.0.5 |
| ATRs | 21.4.0 | Backcall | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.2.0 |
| sopa bonita4 | 4.11.1 | preto | 22.3.0 | lixívia | 4.1.0 |
| Boto3 | 1.21.32 | Botocore | 1.24.32 | certifi | 2021.10.8 |
| CFFI | 1.15.0 | Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 |
| clicar | 8.0.4 | criptografia | 3.4.8 | ciclista | 0.11.0 |
| Quisto | 0.29.28 | dbus-python | 1.2.16 | depuração | 1.5.1 |
| decorador | 5.1.1 | DeUsedXML | 0.7.1 | Distlib | 0.3.6 |
| docstring-para-markdown | 0,11 | pontos de entrada | 0.4 | execução | 0.8.3 |
| facetas-visão geral | 1.0.0 | fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.16.2 | bloqueio de arquivo | 3.9.0 |
| Fonttools | 4.25.0 | IDNA | 3.3 | Ipykernel | 6.15.3 |
| IPython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | JmesPath | 0.10.0 |
| Joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-cliente | 6.1.12 |
| jupyter_core | 4.11.2 | Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| Kiwisolver | 1.3.2 | Marcação Segura | 2.0.1 | Matplotlib | 3.5.1 |
| matplotlib-em linha | 0.1.2 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
| mypy-extensões | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | Ninho-Asyncio | 1.5.5 | nodeenv | 1.7.0 |
| bloco de notas | 6.4.8 | dormência | 1.21.5 | embalagem | 21,3 |
| pandas | 1.4.2 | PandocFilters | 1.5.0 | Parso | 0.8.3 |
| PathSpec | 0.9.0 | vítima | 0.5.2 | Espere | 4.8.0 |
| pickleshare | 0.7.5 | Travesseiro | 9.0.1 | pip (o gestor de pacotes do Python) | 21.2.4 |
| plataformadirs | 2.6.2 | enredo | 5.6.0 | Pluggy | 1.0.0 |
| Prometheus-cliente | 0.13.1 | kit de ferramentas de prompt | 3.0.20 | Protobuf | 3.19.4 |
| PSUTIL | 5.8.0 | PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 |
| puro-eval | 0.2.2 | Pyarrow | 7.0.0 | Pycparser | 2.21 |
| Pyflakes | 2.5.0 | Pigmentos | 2.11.2 | PyGObject | 3.36.0 |
| Pyodbc | 4.0.32 | Pyparsing | 3.0.4 | Pyright | 1.1.283 |
| pirsistent | 0.18.0 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-servidor | 1.6.0 | Pytz | 2021.3 | Pyzmq | 22.3.0 |
| pedidos | 2.27.1 | pedidos-unixsocket | 0.2.0 | corda | 0.22.0 |
| s3transferir | 0.5.0 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.0.2 | SciPy | 1.7.3 |
| nascido no mar | 0.11.2 | Enviar2Lixo | 1.8.0 | Ferramentas de configuração | 61.2.0 |
| seis | 1.16.0 | Soupsieve | 2.3.1 | ssh-import-id | 5.10 |
| dados de pilha | 0.2.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.13.2 | tenacidade | 8.0.1 |
| terminado | 0.13.1 | caminho de teste | 0.5.0 | ThreadPoolCtl | 2.2.0 |
| tokenize-rt | 4.2.1 | Tomli | 1.2.2 | tornado | 6.1 |
| traços | 5.1.1 | typing_extensions (extensões de digitação) | 4.1.1 | Ujson | 5.1.0 |
| Upgrades autônomos | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| largura de wc | 0.2.5 | WebEncodings | 0.5.1 | whatthepatch (ferramenta para comparação de patches) | 1.0.4 |
| wheel | 0.37.0 | widgetsnbextension | 3.6.1 | Yapf | 0.31.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-11-11. O snapshot não está mais disponível.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 10.0.0 | AskPass | 1.1 | asserçãoat | 0.2.1 |
| Retroportagens | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| pouco | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
| arranque | 1.3-28 | fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.1 | BSLIB | 0.4.1 | cachemira | 1.0.6 |
| Chamador | 3.7.3 | acento circunflexo | 6.0-93 | Cellranger | 1.1.0 |
| crono | 2.3-58 | classe | 7.3-21 | CLI | 3.4.1 |
| Clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
| CodeTools | 0.2-19 | espaço em cores | 2.0-3 | marca comum | 1.8.1 |
| compilador | 4.2.2 | configuração | 0.3.1 | CPP11 | 0.4.3 |
| lápis de cor | 1.5.2 | credenciais | 1.3.2 | encaracolar | 4.3.3 |
| tabela de dados | 1.14.4 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
| DBPlyr | 2.2.1 | descrição | 1.4.2 | DevTools | 2.4.5 |
| diffobj | 0.3.5 | resumo | 0.6.30 | Iluminação reduzida | 0.4.2 |
| DPLYR | 1.0.10 | DTPlyr | 1.2.2 | E1071 | 1.7-12 |
| reticências | 0.3.2 | avaliar | 0,18 | Fãsi | 1.0.3 |
| Farver | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.4.0 |
| FORCATS | 0.5.2 | para cada | 1.5.2 | externa | 0.8-82 |
| forjar | 0.2.0 | FS | 1.5.2 | Futuro | 1.29.0 |
| futuro.apply | 1.10.0 | gargarejo | 1.2.1 | genérico | 0.1.3 |
| Gert | 1.9.1 | GGPLOT2 | 3.4.0 | GH | 1.3.1 |
| gitcreds | 0.1.2 | GLMNET | 4.1-4 | Globais | 0.16.1 |
| colar | 1.6.2 | GoogleDrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | gráficos | 4.2.2 | grDispositivos | 4.2.2 |
| grelha | 4.2.2 | gridExtra | 2.3 | GSUBFN | 0,7 |
| tabela g | 0.3.1 | capacete | 1.2.0 | Refúgio | 2.5.1 |
| mais alto | 0,9 | HMS | 1.1.2 | htmltools | 0.5.3 |
| htmlwidgets (componentes HTML interativos) | 1.5.4 | httpuv | 1.6.6 | HTTR | 1.4.4 |
| IDs | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| Isoband | 0.2.6 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2.23-20 | Knitr | 1.40 |
| etiquetagem | 0.4.2 | mais tarde | 1.3.0 | treliça | 0.20-45 |
| lave | 1.7.0 | ciclo de vida | 1.0.3 | ouvirv | 0.8.0 |
| lubridato | 1.9.0 | Magrittr | 2.0.3 | Marcação | 1.3 |
| MASSA | 7.3-58.2 | Matriz | 1.5-1 | memorização | 2.0.1 |
| métodos | 4.2.2 | MGCV | 1.8-41 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.9 |
| Munsell | 0.5.0 | NLME | 3.1-162 | NNET | 7.3-18 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.4 | paralelo | 4.2.2 |
| Paralelamente | 1.32.1 | pilar | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| plogr | 0.2.0 | Plyr | 1.8.7 | elogiar | 1.0.0 |
| unidades bonitas | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | Profvis | 0.3.7 | Progresso | 1.2.2 |
| progressor | 0.11.0 | promessas | 1.2.0.1 | prototipo | 1.0.0 |
| proxy | 0.4-27 | PS | 1.7.2 | ronronar | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.4 |
| Floresta Aleatória | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| Leitor | 2.1.3 | ReadXL | 1.4.1 | receitas | 1.0.3 |
| revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| Reprex | 2.0.2 | remodelar2 | 1.4.4 | Rlang | 1.0.6 |
| rmarkdown | 2.18 | RODBC | 1.3-19 | oxigénio2 | 7.2.1 |
| rpart (função de partição recursiva em R) | 4.1.19 | rprojroot | 2.0.3 | Reserva | 1.8-12 |
| RSQLite | 2.2.18 | rstudioapi | 0.14 | rversões | 2.1.2 |
| Rvest | 1.0.3 | Sass | 0.4.2 | escalas | 1.2.1 |
| seletor | 0.4-2 | Informação da sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.3 | ferramentas de origem | 0.1.7 | Brilho | 1.7.8 |
| Faísca | 3.3.2 | espacial | 7.3-11 | estrias | 4.2.2 |
| sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.2.2 |
| estatísticas4 | 4.2.2 | string | 1.7.8 | stringr | 1.4.1 |
| sobrevivência | 3.4-0 | Sistema | 3.4.1 | fontes do sistema | 1.0.4 |
| tcltk (uma linguagem de programação) | 4.2.2 | testeatat | 3.1.5 | formatação de texto | 0.3.6 |
| Tibble | 3.1.8 | Tidyr | 1.2.1 | arrumadoselecionar | 1.2.0 |
| Tidyverse | 1.3.2 | mudança de hora | 0.1.1 | data e hora | 4021.106 |
| Tinytex | 0.42 | ferramentas | 4.2.2 | TZDB | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
| utilitários | 4.2.2 | Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.5.0 |
| viridisLite | 0.4.1 | vruum | 1.6.0 | Waldo | 0.4.0 |
| vibrissas | 0.4 | murchar | 2.5.0 | xfun | 0.34 |
| XML2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.6 | ZIP | 2.2.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | AWS Java SDK para SES | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.189 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | jackson-anotações | 2.13.4 |
| com.fasterxml.jackson.core | Jackson-Core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.4 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 2.0.204 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1,15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | Lapack | | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.21 |
| IO.Delta | delta-compartilhamento-spark_2.12 | 0.6.3 |
| io.dropwizard.metrics | métricas-base | 4.1.1 |
| io.dropwizard.metrics | métricas-grafite | 4.1.1 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | métricas-jetty9 | 4.1.1 |
| io.dropwizard.metrics | métricas-jmx | 4.1.1 |
| io.dropwizard.metrics | métricas-json | 4.1.1 |
| io.dropwizard.metrics | métricas do JVM | 4.1.1 |
| io.dropwizard.metrics | Métricas-Servlets | 4.1.1 |
| io.netty | netty-tudo | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-comum | 4.1.74.Final |
| io.netty | netty-manipulador | 4.1.74.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.74.Final |
| io.netty | netty-tcnative-classes | 2.0.48.Final |
| io.netty | transporte de rede | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.10.13 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | picles | 1.2 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.22 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 7.0.0 |
| org.apache.arrow | seta-memória-núcleo | 7.0.0 |
| org.apache.arrow | seta-memória-netty | 7.0.0 |
| org.apache.arrow | vetor de seta | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | AVRO-IPC | 1.11.0 |
| org.apache.avro | avro-mapeado | 1.11.0 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.21 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | curador-receitas | 2.13.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api (API do cliente Hadoop) | 3.3.4-DATABRICKS |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | colmeia-lamp-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | Núcleo Http | 4.4.14 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
| org.apache.orc | orc-núcleo | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | Orc-calços | 1.7.6 |
| org.apache.parquet | coluna de parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-comum | 1.12.3-databricks-0002 |
| org.apache.parquet | codificação-parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-formato-estruturas | 1.12.3-databricks-0002 |
| org.apache.parquet | Parquet-Hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | Parquet-Jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.20 |
| org.apache.yetus | anotações de audiência | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.2 |
| org.apache.zookeeper | zookeeper-juta | 3.6.2 |
| org.checkerframework | verificador-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.46.v20220331 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-HTTP | 9.4.46.v20220331 |
| org.eclipse.píer | Molhe IO | 9.4.46.v20220331 |
| org.eclipse.píer | Cais-JNDI | 9.4.46.v20220331 |
| org.eclipse.píer | Cais-Plus | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-Proxy | 9.4.46.v20220331 |
| org.eclipse.píer | Segurança do Jetty | 9.4.46.v20220331 |
| org.eclipse.píer | servidor jetty | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-util | 9.4.46.v20220331 |
| org.eclipse.píer | cais-util-ajax | 9.4.46.v20220331 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-XML | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-cliente | 2,36 |
| org.glassfish.jersey.core | Jersey comum | 2,36 |
| org.glassfish.jersey.core | servidor de jersey | 2,36 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2,36 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.7.4 |
| org.mlflow | MLFLOW-Faísca | 2.1.1 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | calços | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.28.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
| org.scala-lang | Escala-library_2.12 | 2.12.14 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | Brisa-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.36 |
| org.slf4j | jul-para-slf4j | 1.7.36 |
| org.slf4j | SLF4J-API | 1.7.36 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.threeten | trêsdez-extra | 1.5.0 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | mosca-selvagem-openssl | 1.0.7.Final |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.8.4 |
| org.yaml | Snakeyaml | 1,24 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |