Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 14.1, alimentado pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em outubro de 2023.
Novos recursos e melhorias
- array_insert() é baseado em 1 para índices negativos
- Pontos de controlo Delta v2 ativados por padrão com agrupamento dinâmico
- funcionalidade de eliminação de tabela Delta na Pré-visualização Pública
- Compartilhamento Delta: os destinatários podem executar consultas em lote em tabelas compartilhadas com vetores de exclusão (visualização pública)
- Compartilhamento Delta: os destinatários podem executar consultas em lote em tabelas compartilhadas com mapeamento de colunas (Visualização Pública)
- Streaming das visualizações do Catálogo Unity em pré-visualização pública
- Conector Apache Pulsar em Visualização Pública
- Driver atualizado do Snowflake
- Variáveis de sessão SQL
- Invocação de parâmetro nomeado para SQL e Python UDF.
- Argumentos de tabela para funções suportam particionamento e ordenação.
- Funções SQL incorporadas novas e melhoradas
- Tratamento melhorado de subconsultas correlacionadas
array_insert() é baseado em 1 para índices negativos
A array_insert função é baseada em 1 para índices positivos e negativos. Ele agora insere um novo elemento no final das matrizes de entrada para o índice -1. Para restaurar o comportamento anterior, defina spark.sql.legacy.negativeIndexInArrayInsert como true.
Pontos de verificação Delta v2 habilitados por padrão com clustering líquido
As tabelas Delta recém-criadas com clustering líquido utilizam pontos de verificação v2 por predefinição. Consulte Compatibilidade para tabelas com agrupamento líquido.
Funcionalidade de eliminação de tabela Delta na Pré-visualização Pública
Agora é possível remover algumas funcionalidades de tabelas para tabelas Delta. O suporte atual inclui a eliminação de deletionVectors e v2Checkpoint. Consulte Remover uma funcionalidade da tabela Delta Lake e fazer downgrade do protocolo da tabela.
Compartilhamento Delta: os destinatários podem executar consultas em lote em tabelas compartilhadas com vetores de exclusão (Visualização pública)
Os destinatários do Compartilhamento Delta agora podem executar consultas em lote em tabelas compartilhadas que usam vetores de exclusão. Consulte Adicionar tabelas com vetores de exclusão ou mapeamento de coluna a um compartilhamento, Ler tabelas com vetores de exclusão ou mapeamento de coluna habilitado e Ler tabelas com vetores de exclusão ou mapeamento de coluna habilitado.
Compartilhamento Delta: os destinatários podem executar consultas em lote em tabelas compartilhadas com mapeamento de colunas (Visualização Pública)
Os destinatários do Compartilhamento Delta agora podem executar consultas em lote em tabelas compartilhadas que usam mapeamento de colunas. Consulte Adicionar tabelas com vetores de exclusão ou mapeamento de coluna a um compartilhamento, Ler tabelas com vetores de exclusão ou mapeamento de coluna habilitado e Ler tabelas com vetores de exclusão ou mapeamento de coluna habilitado.
Transmitir visualizações do Unity Catalog em pré-visualização pública
Agora você pode usar o Streaming estruturado para executar leituras de streaming de visualizações registradas no Unity Catalog. O Azure Databricks suporta apenas leituras de streaming a partir de views definidas em tabelas Delta.
Conector Apache Pulsar em Visualização Pública
Agora você pode usar o Streaming Estruturado para transmitir dados do Apache Pulsar no Azure Databricks. Consulte Stream do Apache Pulsar.
Driver atualizado do Snowflake
O driver JDBC Snowflake agora usa a versão 3.13.33.
Variáveis de sessão SQL
Esta versão introduz a capacidade de declarar variáveis temporárias em uma sessão que pode ser definida e, em seguida, referida a partir de consultas. Consulte Variáveis.
Invocação de parâmetro nomeado para SQL e Python UDF.
Agora pode-se usar a invocação de parâmetro nomeado em SQL e Python UDF.
Argumentos de tabela para funções suportam particionamento e ordenação.
Agora pode usar as cláusulas PARTITION BY e ORDER BY para controlar como os argumentos de tabela são passados para uma função durante a invocação da função .
Funções SQL incorporadas novas e melhoradas
As seguintes funções incorporadas foram adicionadas:
-
from_xml: Analisa um
STRINGem um(a)STRUCT. -
schema_of_xml: Deriva um esquema de um
STRINGXML . - session_user: Retorna o usuário conectado.
-
try_reflect: Retorna
NULLem vez da exceção se um método Java falhar.
As seguintes funções incorporadas foram melhoradas:
- mode: Suporte para um parâmetro opcional forçando um resultado determinístico.
-
to_char: Novo suporte para
DATE,TIMESTAMPeBINARY. -
to_varchar: Novo suporte para
DATE,TIMESTAMPeBINARY.
Tratamento melhorado de subconsultas correlacionadas
A capacidade de processar correlação em subconsultas foi ampliada:
- Manuseie a limitação e a ordenação em subconsultas escalares (laterais) correlacionadas.
- Suporta funções de janela em subconsultas escalares correlacionadas.
- Apoiar referências correlacionadas em predicados de junção para subconsultas escalares e laterais
Mudança de comportamento
Verificação rigorosa de tipos no leitor Photon Parquet
Photon falha ao tentar ler um valor decimal de uma coluna Parquet que não é do tipo decimal. O fóton também falha ao ler uma matriz de bytes de comprimento fixo do Parquet como uma cadeia de caracteres.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- filelock de 3.12.2 a 3.12.3
- s3transfer de 0.6.1 a 0.6.2
- Bibliotecas Java atualizadas:
- com.uber.h3 de 3.7.0 a 3.7.3
- io.airlift.aircompressor de 0,24 a 0,25
- io.delta.delta-sharing-spark_2.12 de 0.7.1 a 0.7.5
- io.netty.netty-all de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-buffer de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-http de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-http2 de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-socks da versão 4.1.93.Final para a 4.1.96.Final
- io.netty.netty-common de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler-proxy de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-resolver de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-classes-epoll de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-classes-kqueue de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-native-epoll de 4.1.93.Final-linux-x86_64 a 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.93.Final-osx-x86_64 a 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.93.Final a 4.1.96.Final
- net.snowflake.snowflake-jdbc de 3.13.29 para 3.13.33
- org.apache.orc.orc-core de 1.9.0-shaded-protobuf para 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.0-shaded-protobuf para 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.0 a 1.9.1
Apache Spark
O Databricks Runtime 14.1 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 14.0 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-45088] [DBRRM-557] Reverter "[SC-142785][python][CONNECT] Fazer getitem funcionar com coluna duplicada"
-
[SPARK-43453] [DBRRM-557]Reverter "[SC-143135][ps] Ignore o
namesdeMultiIndexquandoaxis=1paraconcat" - [SPARK-45225] [SC-143207][sql] XML: suporte a URL do arquivo XSD
-
[SPARK-45156] [SC-142782][sql] Envolver
inputNamecom backticks na classe de erroNON_FOLDABLE_INPUT - [SPARK-44910] [SC-143082][sql] Encoders.bean não suporta superclasses com argumentos de tipo genéricos
-
[SPARK-43453] [SC-143135][ps] Ignore o
namesdeMultiIndexquandoaxis=1paraconcat - [SPARK-44463] [SS][connect] Melhorar o tratamento de erros para o trabalhador Python de fluxo contínuo Connect
- [SPARK-44960] [SC-141023][ui] Fazer unescape e tornar consistente o resumo de erros nas páginas da interface
- [SPARK-44788] [SC-142980][connect][PYTHON][sql] Adicionar from_xml e schema_of_xml à função pyspark, spark connect e sql
- [SPARK-44614] [SC-138460][python][CONNECT][3.5] Adicionar pacotes ausentes no setup.py
- [SPARK-45151] [SC-142861][core][UI] Suporte a despejo de thread ao nível da tarefa
- [SPARK-45056] [SC-142779][python][SS][connect] Testes de terminação para streamingQueryListener e foreachBatch
- [SPARK-45084] [SC-142828][ss] StateOperatorProgress para usar um número de partições de embaralhamento efetivo preciso
- [SPARK-44872] [SC-142405][connect] Infraestrutura de teste do servidor e ReattachableExecuteSuite
-
[SPARK-45197] [SC-142984][core] Fazer
StandaloneRestServeradicionarJavaModuleOptionsaos drivers - [SPARK-44404] [SC-139601][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[1009,1010,1013,1015,1016,1278]
- [SPARK-44647] [SC-142297][sql] Suporte SPJ onde as chaves de junção são menores que as chaves de cluster
-
[SPARK-45088] [SC-142785][python][CONNECT] Fazer
getitemtrabalhar com colunas duplicadas -
[SPARK-45128] [SC-142851][sql] Suporte
CalendarIntervalTypena seta - [SPARK-45130] [SC-142976][connect][ML][python] Evite que o modelo de ML do Spark Connect altere o dataframe de pandas de entrada
- [SPARK-45034] [SC-142959][sql] Suporta a função de modo determinístico
- [SPARK-45173] [SC-142931][ui] Remova alguns arquivos sourceMapping desnecessários na interface do usuário
-
[SPARK-45162] [SC-142781][sql] Suporta mapas e parâmetros de matriz construídos via
call_function - [SPARK-45143] [SC-142840][python][CONNECT] Torne o PySpark compatível com o PyArrow 13.0.0
-
[SPARK-45174] [SC-142837][core] Suporte
spark.deploy.maxDrivers -
[SPARK-45167] [SC-142956][connect][PYTHON] O cliente Python deve chamar
release_all - [SPARK-36191] [SC-142777][sql] Manipular limite e ordem em subconsultas escalares (laterais) correlacionadas
- [SPARK-45159] [SC-142829][python] Manipular argumentos nomeados somente quando necessário
- [SPARK-45133] [SC-142512][connect] Faça com que as consultas do Spark Connect sejam CONCLUÍDAS quando a última tarefa de resultado for concluída
- [SPARK-44801] [SC-140802][sql][UI] Captura analisando consultas com falha no Listener e na interface do usuário
- [SPARK-45139] [SC-142527][sql] Adicionar DatabricksDialect para manipular a conversão de tipo SQL
-
[SPARK-45157] [SC-142546][sql] Evite verificações de
ifrepetidas no[On|Off|HeapColumnVector - [SPARK-45077] Reverter "[SC-142069][ui] Atualizar dagre-d3.js de 04.3 para 0.6.4"
- [SPARK-45145] [SC-142521][exemplo] Adicionar exemplo JavaSparkSQLCli
-
[SPARK-43295] Reverter "[SC-142254][ps] Suporta colunas de tipo de cadeia de caracteres para
DataFrameGroupBy.sum" - [SPARK-44915] [SC-142383][core] Valide a soma de verificação dos dados aleatórios do PVC remontado antes da recuperação
-
[SPARK-45147] [SC-142524][core] Remover uso de
System.setSecurityManager -
[SPARK-45104] [SC-142206][ui] Atualizar
graphlib-dot.min.jspara 1.0.2 -
[SPARK-44238] [SC-141606][core][SQL] Introduza um novo método
readFromcom entrada de matriz de bytes paraBloomFilter -
[SPARK-45060] [SC-141742][sql] Corrigir um erro interno do
to_char()no formatoNULL -
[SPARK-43252] [SC-142381][sql] Substitua a classe de erro
_LEGACY_ERROR_TEMP_2016por um erro interno - [SPARK-45069] [SC-142279][sql] A variável SQL deve ser sempre resolvida após a referência externa
- [SPARK-44911] [SC-142388][sql] Criar tabela de hive com coluna inválida deve retornar classe de erro
- [SPARK-42754] [SC-125567][sql][UI] Corrigir problema de compatibilidade com versões anteriores na execução SQL aninhada
-
[SPARK-45121] [SC-142375][connect][PS]
Series.emptyde suporte para o Spark Connect. - [SPARK-44805] [SC-142203][sql] getBytes/getShorts/getInts/etc. devem funcionar em um vetor de coluna que tenha um dicionário
-
[SPARK-45027] [SC-142248][python] Ocultar funções/variáveis internas em
pyspark.sql.functionsdo preenchimento automático -
[SPARK-45073] [SC-141791][ps][CONNECT] Substitua
LastNotNullporLast(ignoreNulls=True) - [SPARK-44901] [SC-141676][sql] Manual backport: Adicionar API no método Python UDTF 'analyze' para retornar expressões de particionamento/ordenação
-
[SPARK-45076] [SC-141795][ps] Mudar para a função
repeatintegrada - [SPARK-44162] [SC-141605][core] Suporte ao G1GC nas métricas do Spark
- [SPARK-45053] [SC-141733][python][MINOR] Melhoria do log na incompatibilidade de versão do Python
-
[SPARK-44866] [SC-142221][sql] Adicionar
SnowflakeDialectpara manipular o tipo BOOLEAN corretamente -
[SPARK-45064] [SC-141775][python][CONNECT] Adicione o parâmetro
scaleausente noceil/ceiling -
[SPARK-45059] [SC-141757][connect][PYTHON] Adicionar funções
try_reflectao Scala e Python -
[SPARK-43251] [SC-142280][sql] Substitua a classe de erro
_LEGACY_ERROR_TEMP_2015por um erro interno - [SPARK-45052] [SC-141736][sql][PYTHON][connect] Tornar o nome da coluna de saída dos aliases de função consistente com SQL
- [SPARK-44239] [SC-141502][sql] Memória livre alocada por grandes vetores quando os vetores são redefinidos
-
[SPARK-43295] [SC-142254][ps] Suporta colunas de tipo de cadeia de caracteres para
DataFrameGroupBy.sum - [SPARK-45080] [SC-142062][ss] Chamar explicitamente o suporte para colunar em fontes de dados de streaming DSv2
- [SPARK-45036] [SC-141768][sql] SPJ: Simplifique a lógica para lidar com a distribuição parcialmente clusterizada
- [SPARK-45077] [SC-142069][ui] Atualizar dagre-d3.js de 0.4.3 para 0.6.4
-
[SPARK-45091] [SC-142020][python][CONNECT][sql] Função
floor/round/broundaceitar Tipo de colunascale -
[SPARK-45090] [SC-142019][python][CONNECT] suportar ordinais de coluna
DataFrame.{cube, rollup} -
[SPARK-44743] [SC-141625][sql] Adicionar função
try_reflect - [SPARK-45086] [SC-142052][ui] Exibir hexadecimal para código hash de bloqueio de thread
- [SPARK-44952] [SC-141644][sql][PYTHON] Suporte a argumentos nomeados em UDFs Pandas agregados
-
[SPARK-44987] [SC-141552][sql] Atribua um nome à classe de erro
_LEGACY_ERROR_TEMP_1100 -
[SPARK-45032] [SC-141730][connect] Corrigir avisos de compilação relacionados a
Top-level wildcard is not allowed and will error under -Xsource:3 - [SPARK-45048] [SC-141629][connect] Adicionar testes adicionais para cliente Python e execução anexável
- [SPARK-45072] [SC-141807][connect] Corrigir escopos externos para classes de amonite
-
[SPARK-45033] [SC-141759][sql] Suporte a mapas por parametrização
sql() -
[SPARK-45066] [SC-141772][sql][PYTHON][connect] Fazer com que a função
repeataceitencomo tipo de coluna - [SPARK-44860] [SC-141103][sql] Adicionar função SESSION_USER
-
[SPARK-45074] [SC-141796][python][CONNECT]
DataFrame.{sort, sortWithinPartitions}suporte a ordinais de coluna -
[SPARK-45047] [SC-141774][python][CONNECT]
DataFrame.groupByordinais de suporte - [SPARK-44863] [SC-140798][ui] Adicionar um botão para fazer download do dump de threads como um txt na UI do Spark
-
[SPARK-45026] [SC-141604][connect]
spark.sqldeve suportar tipos de dados não compatíveis com seta -
[SPARK-44999] [SC-141145][core] Refatorar
ExternalSorterpara reduzir as verificações deshouldPartitionao chamargetPartition -
[SPARK-42304] [SC-141501][sql] Renomear
_LEGACY_ERROR_TEMP_2189paraGET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION - [SPARK-43781] [SC-139450][sql] Corrija IllegalStateException ao coagrupar dois conjuntos de dados derivados da mesma fonte
- [SPARK-45018] [SC-141516][python][CONNECT] Adicionar CalendarIntervalType ao cliente Python
- [SPARK-45024] [SC-141513][python][CONNECT] Filtrar algumas configurações na Criação de Sessão
-
[SPARK-45017] [SC-141508][python] Adicionar
CalendarIntervalTypea PySpark - [SPARK-44720] [SC-139375][connect] Fazer com que o conjunto de dados use o codificador em vez do AgnosticEncoder
- [SPARK-44982] [SC-141027][connect] Marcar as configurações do servidor Spark Connect como estáticas
- [SPARK-44839] [SC-140900][ss][CONNECT] Melhor registo de erros quando o utilizador tenta serializar a sessão de Spark
- [SPARK-44865] [SC-140905][ss] Tornar StreamingRelationV2 compatível com a coluna de metadados
- [SPARK-45001] [SC-141141][python][CONNECT] Implementar DataFrame.foreachPartition
- [SPARK-44497] [SC-141017][webui] Mostrar id da partição da tarefa na tabela de tarefas
- [SPARK-45006] [SC-141143][ui] Use o mesmo formato de data de outros elementos de data da interface do usuário para o eixo x das linhas do tempo
- [SPARK-45000] [SC-141135][python][CONNECT] Implementar DataFrame.foreach
- [SPARK-44967] [SC-141137][sql][CONNECT] Unidade deve ser considerada primeiro antes de usar Boolean para TreeNodeTag
-
[SPARK-44993] [SC-141088][core] Adicione
ShuffleChecksumUtils.compareChecksumsreutilizandoShuffleChecksumTestHelp.compareChecksums - [SPARK-44807] [SC-140176][connect] Adicionar Dataset.metadataColumn ao cliente Scala
-
[SPARK-44965] [SC-141098][python] Ocultar funções/variáveis internas do
pyspark.sql.functions -
[SPARK-44983] [SC-141030][sql] Converter binário em string por
to_charpara os formatos:hex,base64,utf-8 - [SPARK-44980] [DBRRM-462][sc-141024][PYTHON][connect] Corrija namedtuples herdados para trabalhar em createDataFrame
- [SPARK-44985] [SC-141033][core] Use toString em vez de stacktrace para threadDump de ceifador de tarefas
-
[SPARK-44984] [SC-141028][python][CONNECT] Remover
_get_aliasdo DataFrame - [SPARK-44975] [SC-141013][sql] Remover BinaryArithmetic substituição inútil resolvida
-
[SPARK-44969] [SC-140957][sql] Reutilizar
ArrayInsertemArrayAppend - [SPARK-44549] [SC-140714][sql] Funções de janela de suporte em subconsultas escalares correlacionadas
-
[SPARK-44938] [SC-140811][sql] Alterar o valor padrão de
spark.sql.maxSinglePartitionBytespara 128m - [SPARK-44918] [SC-140816][sql][PYTHON] Suporte a argumentos nomeados em UDFs escalares Python/Pandas
-
[SPARK-44966] [SC-140907][core][CONNECT] Mude o
varque jamais foi alterado paraval - [SPARK-41471] [SC-140804][sql] Reduzir o embaralhamento do Spark quando somente um lado de uma junção está usando KeyGroupedPartitioning
- [SPARK-44214] [SC-140528][core] Suporte ao Spark Driver Live Log UI
- [SPARK-44861] [SC-140716][conectar] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519][connect] Adicionar ProducedRowCount a SparkListenerConnectOperationFinished
-
[SPARK-42017] [SC-140765][python][CONNECT]
df['col_name']deve validar o nome da coluna - [SPARK-40178] [SC-140433][sql][COONECT] Suporte a hints de coalesce com facilidade para PySpark e R
-
[SPARK-44840] [SC-140593][sql] Torne
array_insert()1 a base para índices negativos - [SPARK-44939] [SC-140778][r] Compatibilidade com o Java 21 nas SystemRequirements do SparkR
- [SPARK-44936] [SC-140770][core] Simplifique o log quando o Spark HybridStore atingir o limite de memória
- [SPARK-44908] [SC-140712][ml][CONNECT] Corrigir a funcionalidade foldCol param do validador cruzado
- [SPARK-44816] [SC-140717][connect] Melhorar mensagem de erro quando a classe UDF não é encontrada
- [SPARK-44909] [SC-140710][ml] Evitar iniciar o servidor de streaming de logs do Torch Distributor quando não estiver disponível
- [SPARK-44920] [SC-140707][core] Use await() em vez de awaitUninterruptibly() em TransportClientFactory.createClient()
- [SPARK-44905] [SC-140703][sql] Stateful lastRegex causa NullPointerException em eval para regexp_replace
- [SPARK-43987] [SC-139594][shuffle] Separar o processamento de finalizarShuffleMerge para pools de threads dedicados
- [SPARK-42768] [SC-140549][sql] Habilitar plano armazenado em cache aplicar AQE por padrão
-
[SPARK-44741] [SC-139447][core] Suporta MetricFilter baseado em regex em
StatsdSink - [SPARK-44751] [SC-140532][sql] Implementação da interface XML FileFormat
-
[SPARK-44868] [SC-140438][sql] Converter datetime para string usando
to_char/to_varchar - [SPARK-44748] [SC-140504][sql] Execução de consulta para a cláusula PARTITION BY em argumentos UDTF TABLE
- [SPARK-44873] [SC-140427] Suporte para alterar visualização com colunas aninhadas no cliente Hive
- [SPARK-44876] [SC-140431][python] Corrigir UDF Python otimizados com Arrow no Spark Connect
- [SPARK-44520] [SC-137845][sql] Substituir o termo UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY por UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY e revelar a raiz AE
-
[SPARK-42664] [SC-139769][connect] Suporte
bloomFilterfunção paraDataFrameStatFunctions -
[SPARK-43567] [SC-139227][ps] Suporte para
use_na_sentinelparafactorize - [SPARK-44859] [SC-140254][ss] Corrigir nome de propriedade incorreto no documento de streaming estruturado
- [SPARK-44822] [SC-140182][python][SQL] Tornar os UDTFs Python por padrão não determinísticos
- [SPARK-44731] [SC-139524][python][CONNECT] Fazer com que TimestampNTZ funcione com literais em Python Spark Connect
- [SPARK-44836] [SC-140180][python] Seta Refatoradora Python UDTF
- [SPARK-44714] [SC-139238] Abrandar a restrição da resolução LCA em relação a consultas com cláusula HAVING
- [SPARK-44749] [SC-139664][sql][PYTHON] Suporte a argumentos nomeados em Python UDTF
- [SPARK-44737] [SC-139512][sql][UI] Não deve exibir erros de formato JSON na página SQL para non-SparkThrowables na guia SQL
- [SPARK-44665] [SC-139307][python] Adicionar suporte para pandas DataFrame na função assertDataFrameEqual
- [SPARK-44736] [SC-139622][connect] Adicionar Dataset.explode ao Spark Connect Scala Client
- [SPARK-44732] [SC-139422][sql] Suporte a fonte de dados XML integrada
- [SPARK-44694] [SC-139213][python][CONNECT] Refatore sessões ativas e as exponha como uma API
- [FAÍSCA-44652] [SC-138881] Erro de aumento quando apenas um df é Nenhum
- [SPARK-44562] [SC-138824][sql] Adicionar OptimizeOneRowRelationSubquery em lote de Subconsulta
- pt-PT: [SPARK-44717] [SC-139319][python][PS] Respeite o TimestampNTZ na reamostragem
- [SPARK-42849] [SC-139365] [SQL] Variáveis de sessão
-
[SPARK-44236] [SC-139239][sql] Desative WholeStageCodegen quando definido
spark.sql.codegen.factoryModecomo NO_CODEGEN -
[SPARK-44695] [SC-139316][python] Melhorar mensagem de erro para
DataFrame.toDF -
[SPARK-44680] [SC-139234][sql] Melhorar o erro para parâmetros em
DEFAULT - [SPARK-43402] [SC-138321][sql] FileSourceScanExec suporta filtro de dados push down com subconsulta escalar
- [SPARK-44641] [SC-139216][sql] Resultado incorreto em determinados cenários quando o SPJ não é acionado
-
[SPARK-44689] [SC-139219][connect] Tornar o tratamento de exceções da função
SparkConnectPlanner#unpackScalarScalaUDFmais universal -
[SPARK-41636] [SC-139061][sql] Certifique-se de que
selectFiltersretorna predicados em ordem determinística -
[SPARK-44132] [SC-139197][sql] Materialize
Streamde nomes de colunas de junção para evitar falha de codegen -
[SPARK-42330] [SC-138838][sql] Atribua o nome
RULE_ID_NOT_FOUNDà classe de erro_LEGACY_ERROR_TEMP_2175 - [SPARK-44683] [SC-139214][ss] O nível de logging não é corretamente passado para o fornecedor de armazenamento de estado RocksDB
-
[SPARK-44658] [SC-138868][core]
ShuffleStatus.getMapStatusdeve retornarNoneem vez deSome(null) - [FAÍSCA-44603] [SC-138353] Adicionar pyspark.testing ao setup.py
- [SPARK-44252] [SC-137505][ss] Defina uma nova classe de erro e aplique para o caso em que o estado de carregamento do DFS falhar
- [SPARK-29497] [DBRRM-396][sc-138477][CONNECT] Lançar erro quando UDF não é desserializável.
- [SPARK-44624] [DBRRM-396][sc-138900][CONNECT] Tente novamente ExecutePlan caso a solicitação inicial não chegue ao servidor
- [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Remover dependência do Catalyst do cliente Connect
- [SPARK-44059] [SC-138833][sql] Adicionar mensagens de erro mais claras para argumentos nomeados em SQL
-
[SPARK-44620] [SC-138831][sql][PS][connect] Fazer com que
ResolvePivotretenha oPlan_ID_TAG - [SPARK-43838] [SC-137413][sql] Corrigir subconsulta em uma única tabela com cláusula HAVING que não pode ser otimizada.
- [SPARK-44555] [SC-138820][sql] Use checkError() para verificar Exceção no comando Suite & atribuir alguns nomes de classe de erro
- [SPARK-44280] [SC-138821][sql] Adicionar convertJavaTimestampToTimestamp à API JDBCDialect
-
[SPARK-44602] [SC-138337][sql][CONNECT][ps] Faça
WidenSetOperationTypesretenha oPlan_ID_TAG - [SPARK-42941] [SC-138389][ss][CONNECT] Python StreamingQueryListener
- [SPARK-43838] Revert "[SC-137413][sql] Corrigir subconsulta em ta...
- [SPARK-44538] [SC-138178][connect][SQL] Restabelecer Row.jsonValue e amigos
- [SPARK-44421] [SC-138434][spark-44423][CONNECT] Execução reconectável no Spark Connect
- [SPARK-43838] [SC-137413][sql] Corrigir subconsulta em uma única tabela com cláusula HAVING que não pode ser otimizada.
- [SPARK-44587] [SC-138315][sql][CONNECT] Aumentar o limite de recursão do marshaller protobuf
- [SPARK-44605] [SC-138338][core] Refinar a API interna do ShuffleWriteProcessor
- [SPARK-44394] [SC-138291][connect][WEBUI] Adicionar uma página da interface do usuário do Spark para o Spark Connect
- [SPARK-44585] [SC-138286][mllib] Corrigir condição de aviso no MLLib RankingMetrics ndcgAk
- [SPARK-44198] [SC-138137][core] Suporte à propagação do nível de log para os executores
- [SPARK-44454] [SC-138071][sql][HIVE] Suporte a fallback de HiveShim getTablesByType
- [SPARK-44425] [SC-138135][connect] Valide que o sessionId fornecido pelo usuário é um UUID
-
[SPARK-43611] [SC-138051][sql][PS][conncect] Faça
ExtractWindowExpressionsretenha oPLAN_ID_TAG - [SPARK-44560] [SC-138117][python][CONNECT] Melhore os testes e a documentação do Arrow Python UDF
- [SPARK-44482] [SC-138067][connect] O servidor Connect deve poder especificar o endereço de ligação
- [SPARK-44528] [SC-138047][connect] Suporte ao uso adequado de hasattr() para dataframe Connect
- [SPARK-44525] [SC-138043][sql] Melhorar a mensagem de erro quando o método Invoke não for encontrado
- [SPARK-44355] [SC-137878][sql] Mover WithCTE para consultas de comando
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Consulte Atualizações de manutenção do Databricks Runtime 14.1.
Ambiente do sistema
- Sistema Operacional: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Escala: 2.12.15
- Píton: 3.10.12
- R: 4.3.1
- Lago Delta: 3.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Anyio | 3.5.0 | Argão2-CFFI | 21.3.0 | argon2-cffi-vinculações | 21.2.0 |
| AstTokens | 2.0.5 | Atributos | 22.1.0 | Chamada de retorno | 0.2.0 |
| BeautifulSoup4 | 4.11.1 | preto | 22.6.0 | lixívia | 4.1.0 |
| pisca | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.96 |
| certifi | 2022.12.7 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Normalizador de Charset | 2.0.4 | clicar | 8.0.4 | Comunicação | 0.1.2 |
| contorno | 1.0.5 | criptografia | 39.0.1 | ciclista | 0.11.0 |
| Cython | 0.29.32 | Databricks-SDK | 0.1.6 | dbus-python | 1.2.18 |
| depuração | 1.6.7 | decorador | 5.1.1 | DeUsedXML | 0.7.1 |
| Distlib | 0.3.7 | convertendo docstring em markdown | 0.11 | pontos de entrada | 0.4 |
| executar | 0.8.3 | facetas-visão geral | 1.1.1 | fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.18.0 |
| bloqueio de arquivo | 3.12.3 | Fonttools | 4.25.0 | Biblioteca de tempo de execução do GCC | 1.10.0 |
| googleapis-comuns-protos | 1.60.0 | Grpcio | 1.48.2 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.4 | importlib-metadados | 4.6.4 |
| Ipykernel | 6.25.0 | IPython | 8.14.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | Jeepney (veículo típico das Filipinas) | 0.7.1 |
| Jinja2 | 3.1.2 | JmesPath | 0.10.0 | Joblib | 1.2.0 |
| jsonschema | 4.17.3 | Jupyter Client | 7.3.4 | jupyter-servidor | 1.23.4 |
| jupyter_core | 5.2.0 | JupyterLab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| porta-chaves | 23.5.0 | Kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
| lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | LXML | 4.9.1 |
| Marcação Segura | 2.1.1 | Matplotlib | 3.7.0 | matplotlib-em linha | 0.1.6 |
| Mccabe | 0.7.0 | Mistune | 0.8.4 | mais-itertools | 8.10.0 |
| mypy extensions | 0.4.3 | NBMédico | 0.5.2 | nbclient | 0.5.13 |
| nbconvert | 6.5.4 | nbformat | 5.7.0 | Ninho-Asyncio | 1.5.6 |
| nodeenv | 1.8.0 | bloco de notas | 6.5.2 | notebook_shim | 0.2.2 |
| dormência | 1.23.5 | OAuthlib | 3.2.0 | embalagem | 22.0 |
| pandas | 1.5.3 | PandocFilters | 1.5.0 | Parso | 0.8.3 |
| PathSpec | 0.10.3 | vítima | 0.5.3 | Espere | 4.8.0 |
| pickleshare | 0.7.5 | Almofada | 9.4.0 | pip (o gestor de pacotes do Python) | 22.3.1 |
| plataformadirs | 2.5.2 | enredo | 5.9.0 | Pluggy | 1.0.0 |
| Prometheus-Cliente | 0.14.1 | kit de ferramentas de prompt | 3.0.36 | Protobuf | 4.24.0 |
| PSUTIL | 5.9.0 | PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 |
| puro-eval | 0.2.2 | Pyarrow | 8.0.0 | Pycparser | 2.21 |
| Pidântico | 1.10.6 | Pyflakes | 3.0.1 | Pigmentos | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | Pyodbc | 4.0.32 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | pirsistent | 0.18.0 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-servidor | 1.7.1 |
| pytoolconfig | 1.2.5 | Pytz | 2022.7 | Pyzmq | 23.2.0 |
| pedidos | 2.28.1 | corda | 1.7.0 | s3transferência | 0.6.2 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.1.1 | nascido no mar | 0.12.2 | Armazenamento Secreto | 3.3.1 |
| Enviar para o Lixo | 1.8.0 | Ferramentas de configuração | 65.6.3 | seis | 1.16.0 |
| sniffio | 1.2.0 | Coador de sopa | 2.3.2.post1 | ssh-import-id | 5.11 |
| dados do stack | 0.2.0 | modelos de estatísticas | 0.13.5 | tenacidade | 8.1.0 |
| terminado | 0.17.1 | Threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
| tokenize-rt | 4.2.1 | Tomli | 2.0.1 | tornado | 6.1 |
| traços | 5.7.1 | typing_extensions (extensões de digitação) | 4.4.0 | Ujson | 5.4.0 |
| Atualizações não supervisionadas | 0.1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | Codificações na web | 0.5.1 |
| Websocket-cliente | 0.58.0 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.38.4 |
| widgetsnbextension | 3.6.1 | Yapf | 0.31.0 | zipp | | 1.0.0 |
| SciPy | 1.10.1 |
Bibliotecas R instaladas
Foram instaladas as bibliotecas R a partir do CRAN snapshot do Posit Package Manager em 2023-02-10.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 12.0.1 | AskPass | 1.1 | afirmar que | 0.2.1 |
| Retroportagens | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| pouco | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
| inicialização | 1.3-28 | fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.5 | BSLIB | 0.5.0 | cachemira | 1.0.8 |
| Chamador | 3.7.3 | Caret | 6.0-94 | CellRanger | 1.1.0 |
| crono | 2.3-61 | classe | 7.3-22 | CLI | 3.6.1 |
| Clipr | 0.8.0 | relógio | 0.7.0 | cluster | 2.1.4 |
| CodeTools | 0.2-19 | espaço de cores | 2.1-0 | marca comum | 1.9.0 |
| compilador | 4.3.1 | Configurações | 0.3.1 | conflituoso | 1.2.0 |
| CPP11 | 0.4.4 | lápis de cor | 1.5.2 | credenciais | 1.3.2 |
| encaracolar | 5.0.1 | tabela de dados | 1.14.8 | conjuntos de dados | 4.3.1 |
| DBI | 1.1.3 | DBPlyr | 2.3.3 | descrição | 1.4.2 |
| DevTools | 2.4.5 | diagrama | 1.6.5 | diffobj | 0.3.5 |
| resumo | 0.6.33 | Iluminação reduzida | 0.4.3 | DPLYR | 1.1.2 |
| DTPlyr | 1.3.1 | E1071 | 1.7-13 | reticências | 0.3.2 |
| avaliar | 0.21 | Fansi | 1.0.4 | cores | 2.1.1 |
| mapa rápido | 1.1.1 | fontawesome | 0.5.1 | forçados | 1.0.0 |
| para cada | 1.5.2 | estrangeiro/a | 0.8-82 | forjar | 0.2.0 |
| FS | 1.6.2 | Futuro | 1.33.0 | futuro.apply | 1.11.0 |
| gargarejo | 1.5.1 | genérico | 0.1.3 | Gert | 1.9.2 |
| GGPLOT2 | 3.4.2 | GH | 1.4.0 | gitcreds | 0.1.2 |
| GLMNET | 4.1-7 | Globais | 0.16.2 | cola | 1.6.2 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.3.1 | grDispositivos | 4.3.1 | grelha | 4.3.1 |
| gridExtra | 2.3 | GSUBFN | 0,7 | tabela g | 0.3.3 |
| capacete de segurança | 1.3.0 | Refúgio | 2.5.3 | mais alto | 0.10 |
| HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.5 | htmlwidgets (componentes HTML interativos) | 1.6.2 |
| httpuv | 1.6.11 | HTTR | 1.4.6 | HTTR2 | 0.2.3 |
| identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| Banda isobárica | 0.2.7 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | Knitr | 1.43 |
| etiquetagem | 0.4.2 | mais tarde | 1.3.1 | treliça | 0.21-8 |
| lave | 1.7.2.1 | ciclo de vida | 1.0.3 | ouvir | 0.9.0 |
| lubridato | 1.9.2 | Magrittr | 2.0.3 | Marcação | 1.7 |
| MASSA | 7.3-60 | Matriz | 1.5-4.1 | memorização | 2.0.1 |
| Metodologia | 4.3.1 | MGCV | 1.8-42 | mímica | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
| Munsell | 0.5.0 | NLME | 3.1-162 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.6 | paralelo | 4.3.1 |
| Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | Plyr | 1.8.8 | elogios | 1.0.0 |
| unidades elegantes | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
| Prodlim | 2023.03.31 | Profvis | 0.3.8 | Progressos | 1.2.2 |
| progressor | 0.13.0 | promessas | 1.2.0.1 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.5 | ronronar | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.5 |
| Floresta Aleatória | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| Readr | 2.1.4 | ReadXL | 1.4.3 | receitas | 1.0.6 |
| revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| Exemplo Reproduzível (Reprex) | 2.0.2 | remodelar2 | 1.4.4 | Rlang | 1.1.1 |
| rmarkdown | 2.23 | RODBC | 1.3-20 | oxigénio2 | 7.2.3 |
| rpart (função de partição recursiva em R) | 4.1.19 | rprojroot | 2.0.3 | Reserva | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversões | 2.1.2 |
| Rvest | 1.0.3 | Sass | 0.4.6 | balanças | 1.2.1 |
| seletor | 0.4-2 | Informação da sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4.1 | ferramentas de código-fonte | 0.1.7-1 | Brilho | 1.8.1 |
| Faísca | 3.5.0 | espacial | 7.3-15 | estrias | 4.3.1 |
| sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.3.1 |
| estatísticas4 | 4.3.1 | string | 1.7.12 | stringr | 1.5.0 |
| Sobrevivência | 3.5-5 | Sistema | 3.4.2 | fontes do sistema | 1.0.4 |
| tcltk (uma linguagem de programação) | 4.3.1 | teste que | 3.1.10 | formatação de texto | 0.3.6 |
| Tibble | 3.2.1 | Tidyr | 1.3.0 | arrumadoselecionar | 1.2.0 |
| Tidyverse | 2.0.0 | mudança de hora | 0.2.0 | data e hora | 4022.108 |
| Tinytex | 0.45 | Ferramentas | 4.3.1 | TZDB | 0.4.0 |
| verificador de URL | 1.0.1 | usethis | 2.2.2 | UTF8 | 1.2.3 |
| utilitários | 4.3.1 | Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.6.3 |
| viridisLite | 0.4.2 | vruum | 1.6.3 | Waldo | 0.5.1 |
| vibrissas | 0.4.1 | murchar | 2.5.0 | xfun | 0,39 |
| XML2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | ZIP | 2.3.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuração do SDK do Java para AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | AWS Java SDK para SES | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.390 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombra kriogénica | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Configurações | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| Commons-Logging | Commons-Logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.25 |
| IO.Delta | delta-compartilhamento-spark_2.12 | 0.7.5 |
| io.dropwizard.metrics | métricas e anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.netty | netty-tudo | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-meias | 4.1.96.Final |
| io.netty | Netty Comum | 4.1.96.Final |
| io.netty | Netty Handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-Windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | Netty-Transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.96.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jakarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | conserva | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.33 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ANT-JSCH | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de flecha | 12.0.1 |
| org.apache.arrow | núcleo de memória Arrow | 12.0.1 |
| org.apache.arrow | Arrow-Memory-Netty | 12.0.1 |
| org.apache.arrow | vetor de seta | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | AVRO-IPC | 1.11.2 |
| org.apache.avro | avro-mapeado | 1.11.2 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador e cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-comum | 2.3.9 |
| org.apache.hive | Hive-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | Mesos | 1.11.0-protobuf sombreado |
| org.apache.orc | núcleo de orc | 1.9.1-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.1-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.3 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Continuação | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.píer | Molhe IO | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey-Comum | 2.40 |
| org.glassfish.jersey.core | servidor Jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | Hibernate-Validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.7.9 |
| org.mlflow | mlflow-Spark | 2.2.0 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | calços | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.threeten | trêsdez-extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |