Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Notas de versão do Databricks Runtime: versões e compatibilidade.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 14.1, da plataforma Apache Spark 3.5.0.
O Databricks lançou esta versão em outubro de 2023.
Novos recursos e melhorias
- array_insert() é baseado em 1 para índices negativos
- Pontos de verificação Delta v2 habilitados por padrão com o clustering líquido
- Remover o recurso de tabela Delta na Visualização Pública
- Compartilhamento Delta: os destinatários podem realizar consultas em lote em tabelas compartilhadas com vetores de exclusão (Visualização pública)
- Compartilhamento Delta: os destinatários podem realizar consultas em lote em tabelas compartilhadas com mapeamento de colunas (Visualização pública)
- Transmissão nas exibições do Catálogo do Unity em versão prévia pública
- Conector Apache Pulsar em versão prévia pública
- Driver do Snowflake atualizado
- Variáveis de sessão SQL
- Invocação de parâmetro nomeado para UDF SQL e Python.
- Os argumentos de tabela para funções dão suporte a particionamento e ordenação.
- Funções SQL novas e aprimoradas internas
- Manipulação aprimorada de subconsultas correlacionadas
array_insert() é baseado em 1 para índices negativos
A função array_insert é baseada em 1 para índices positivos e negativos. Agora ele insere um novo elemento no final das matrizes de entrada para o índice -1. Para restaurar o comportamento anterior, defina spark.sql.legacy.negativeIndexInArrayInsert como true.
Pontos de verificação Delta v2 habilitados por padrão com o clustering líquido
As tabelas Delta recém-criadas com o clustering líquido usam pontos de verificação v2 por padrão. Consulte Compatibilidade de tabelas com clustering líquido.
Remover o recurso de tabela Delta na Visualização Pública
Agora você pode descartar alguns recursos de tabela das tabelas Delta. O suporte atual inclui remover deletionVectors e v2Checkpoint. Confira Remover um recurso de tabela do Delta Lake e fazer downgrade do protocolo de tabela.
Compartilhamento Delta: os destinatários podem realizar consultas em lote em tabelas compartilhadas com vetores de exclusão (Visualização Pública)
Os destinatários do Compartilhamento Delta agora podem realizar consultas em lote em tabelas compartilhadas que usam vetores de exclusão. Consulte Adicionar tabelas com vetores de exclusão ou mapeamento de colunas a um compartilhamento, Ler tabelas com vetores de exclusão ou mapeamento de colunas habilitado e Ler tabelas com vetores de exclusão ou mapeamento de colunas habilitado.
Compartilhamento Delta: os destinatários podem realizar consultas em lote em tabelas compartilhadas com vetores de exclusão (Visualização pública)
Os destinatários do Compartilhamento Delta agora podem realizar consultas em lote em tabelas compartilhadas que usam mapeamento de colunas. Consulte Adicionar tabelas com vetores de exclusão ou mapeamento de colunas a um compartilhamento, Ler tabelas com vetores de exclusão ou mapeamento de colunas habilitado e Ler tabelas com vetores de exclusão ou mapeamento de colunas habilitado.
Transmissão nas exibições do Catálogo do Unity em versão prévia pública
Agora você já pode usar o Structured Streaming para realizar leituras de streaming nas exibições registradas no Catálogo do Unity. O Azure Databricks só dá suporte a leituras de streaming nas exibições definidas em tabelas Delta.
Conector Apache Pulsar em versão prévia pública
Agora você já pode usar o Streaming Estruturado para transmitir dados do Apache Pulsar no Azure Databricks. Confira Transmissão no Apache Pulsar.
Driver do Snowflake atualizado
O driver JDBC do Snowflake agora usa a versão 3.13.33.
Variáveis de Sessão SQL
Esta versão apresenta a capacidade de declarar variáveis temporárias em uma sessão, que podem ser definidas e, em seguida, referenciadas de dentro de consultas. Veja Variáveis.
Invocação de parâmetro nomeada para UDF SQL e Python.
Agora você pode usar a Invocação de parâmetro nomeado em UDF SQL e Python.
Os argumentos de tabela para funções dão suporte a particionamento e ordenação.
Agora você pode usar as cláusulas PARTITION BY e ORDER BY para controlar como os argumentos de tabela são passados para uma função durante a invocação da função.
Funções SQL internas novas e aprimoradas
As seguintes funções internas foram adicionadas:
-
from_xml: analisa um XML
STRINGem umSTRUCT. -
schema_of_xml: deriva um esquema de um XML
STRING. - session_user: retorna o usuário conectado.
-
try_reflect: retorna
NULLem vez da exceção se um método Java falhar.
As seguintes funções internas foram aprimoradas:
- mode: suporte para um parâmetro opcional forçando um resultado determinístico.
-
to_char: novo suporte para
DATE,TIMESTAMPeBINARY. -
to_varchar: novo suporte para
DATE,TIMESTAMPeBINARY.
Manipulação aprimorada de subconsultas correlacionadas
A capacidade de processar correlação em subconsultas foi estendida:
- Manipule o limite e a ordem em subconsultas escalares (laterais) correlacionadas.
- Suporte a funções de janela em subconsultas escalares correlacionadas.
- Suporte a referências correlacionadas em predicados de junção para subconsultas escalares e laterais
Alteração de comportamento
Verificação de tipo estrito no leitor de Parquet do Photon
O Photon falha ao tentar ler um valor decimal de uma coluna do Parquet que não é um tipo decimal. O Photon também falha ao ler uma matriz de bytes de comprimento fixo do Parquet como uma cadeia de caracteres.
Atualizações de biblioteca
- Bibliotecas do Python atualizadas:
- filelock de 3.12.2 para 3.12.3
- s3transfer de 0.6.1 para 0.6.2
- Bibliotecas Java atualizadas:
- com.uber.h3 de 3.7.0 a 3.7.3
- io.airlift.aircompressor de 0.24 para 0.25
- io.delta.delta-sharing-spark_2.12 de 0.7.1 para 0.7.5
- io.netty.netty-all de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-buffer de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-http de 4.1.93.Final para 4.1.96.Final
- io.netty.netty-codec-http2 de 4.1.93.Final para 4.1.96.Final
- io.netty.netty-codec-socks de 4.1.93.Final para 4.1.96.Final
- io.netty.netty-common de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler-proxy de 4.1.93.Final para 4.1.96.Final
- io.netty.netty-resolver de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-classes-epoll de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-classes-kqueue de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-native-epoll de 4.1.93.Final-linux-x86_64 para 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.93.Final-osx-x86_64 para 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.93.Final a 4.1.96.Final
- net.snowflake.snowflake-jdbc de 3.13.29 a 3.13.33
- org.apache.orc.orc-core de 1.9.0-shaded-protobuf a 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.0-shaded-protobuf a 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.0 a 1.9.1
Apache Spark
O Databricks Runtime 14.1 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 14.0 (EoS), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- [SPARK-45088] [DBRRM-557] Reverter "[SC-142785][python][CONNECT] Fazer o getitem funcionar com a coluna duplicada"
-
[SPARK-43453] [DBRRM-557]Reverter "[SC-143135][ps] Ignorar o
namesdeMultiIndexquandoaxis=1paraconcat" - [SPARK-45225] [SC-143207][sql] XML: suporte à URL do arquivo XSD
-
[SPARK-45156] [SC-142782][sql] Encapsular
inputNamepor backticks na classe de erroNON_FOLDABLE_INPUT - [SPARK-44910] [SC-143082][sql] Encoders.bean não dá suporte a superclasses com argumentos de tipo genérico
-
[SPARK-43453] [SC-143135][ps] Ignorar o
namesdeMultiIndexquandoaxis=1paraconcat - [SPARK-44463] [SS][conectar] Melhorar o tratamento de erros para conectar o trabalho do Python a vapor
- [SPARK-44960] [SC-141023][interface do usuário] Resumo de erros sem escape e consistir em páginas da interface do usuário
- [SPARK-44788] [SC-142980][conectar][PYTHON][sql] Adicionar from_xml e schema_of_xml à função pyspark, spark connect e sql
- [SPARK-44614] [SC-138460][python][CONNECT][3.5] Adicionar pacotes ausentes em setup.py
- [SPARK-45151] [SC-142861][núcleo][Interface do usuário] Suporte ao despejo de thread no nível da tarefa
- [SPARK-45056] [SC-142779][python][SS][conectar] Testes de encerramento para streamingQueryListener e foreachBatch
- [SPARK-45084] [SC-142828][ss] StateOperatorProgress para usar o número de partição de embaralhamento efetivo preciso
- [SPARK-44872] [SC-142405][conectar] Infra de teste de servidor e ReattachableExecuteSuite
-
[SPARK-45197] [SC-142984][núcleo] Fazer
StandaloneRestServeradicionarJavaModuleOptionsaos drivers - [SPARK-44404] [SC-139601][sql] Atribuir nomes à classe de erro LEGACY_ERROR_TEMP[1009.1010,1013,1015,1016,1278]
- [SPARK-44647] [SC-142297][sql] Suporte ao SPJ em que as chaves de junção são menores que as chaves de cluster
-
[SPARK-45088] [SC-142785][python][CONNECT] Fazer
getitemtrabalhar com colunas duplicadas -
[SPARK-45128] [SC-142851][sql] Suporte
CalendarIntervalTypena Seta - [SPARK-45130] [SC-142976][conectar][ML][python] Evitar que o Modelo de ML de conexão do Spark altere o dataframe pandas de entrada
- [SPARK-45034] [SC-142959][sql] Função de modo determinístico de suporte
- [SPARK-45173] [SC-142931][interface do usuário] Remover alguns arquivos sourceMapping desnecessários na interface do usuário
-
[SPARK-45162] [SC-142781][sql] Suporte a mapas e parâmetros de matriz construídos por meio de
call_function - [SPARK-45143] [SC-142840][python][CONNECT] Tornar o PySpark compatível com PyArrow 13.0.0
-
[SPARK-45174] [SC-142837][núcleo] Apoio
spark.deploy.maxDrivers -
[SPARK-45167] [SC-142956][conectar][PYTHON] O cliente Python deve chamar
release_all - [SPARK-36191] [SC-142777][sql] Manipular o limite e a ordem em subconsultas escalares (laterais) correlacionadas
- [SPARK-45159] [SC-142829][python] Manipular argumentos nomeados somente quando necessário
- [SPARK-45133] [SC-142512][conectar] Fazer com que as consultas do Spark Connect sejam CONCLUÍDAS quando a última tarefa de resultado for concluída
- [SPARK-44801] [SC-140802][sql][Interface do usuário] Capturar a análise de consultas com falha no ouvinte e na interface do usuário
- [SPARK-45139] [SC-142527][sql] Adicionar DatabricksDialect para lidar com a conversão de tipo SQL
-
[SPARK-45157] [SC-142546][sql] Evitar verificações repetidas
ifem[On|Off|HeapColumnVector - [SPARK-45077] Reverter "[SC-142069][ui] Atualização dagre-d3.js de 04.3 para 0.6.4"
- [SPARK-45145] [SC-142521][exemplo] Adicionar exemplo de JavaSparkSQLCli
-
[SPARK-43295] Reverter "[SC-142254][ps] Suporte colunas de tipo de cadeia de caracteres para
DataFrameGroupBy.sum" - [SPARK-44915] [SC-142383][core] Validar a soma de verificação dos dados de embaralhamento do PVC remontados antes da recuperação
-
[SPARK-45147] [SC-142524][núcleo] Remover
System.setSecurityManagero uso -
[SPARK-45104] [SC-142206][interface do usuário] Atualizar
graphlib-dot.min.jspara 1.0.2 -
[SPARK-44238] [SC-141606][núcleo][SQL] Introduzir um novo
readFrommétodo com entrada de matriz de bytes paraBloomFilter -
[SPARK-45060] [SC-141742][sql] Corrigir um erro interno de
to_char()no formatoNULL -
[SPARK-43252] [SC-142381][sql] Substituir a classe de erro
_LEGACY_ERROR_TEMP_2016por um erro interno - [SPARK-45069] [SC-142279][sql] A variável SQL sempre deve ser resolvida após a referência externa
- [SPARK-44911] [SC-142388][sql] Criar tabela hive com coluna inválida deve retornar classe de erro
- [SPARK-42754] [SC-125567][sql][Interface do usuário] Corrigir problema de compatibilidade com versões anteriores na execução aninhada do SQL
-
[SPARK-45121] [SC-142375][conectar][PS] Suporte
Series.emptypara o Spark Connect. - [SPARK-44805] [SC-142203][sql] getBytes/getShorts/getInts/etc. deve funcionar em um vetor de coluna que tenha um dicionário
-
[SPARK-45027] [SC-142248][python] Ocultar funções/variáveis internas na
pyspark.sql.functionsda conclusão automática -
[SPARK-45073] [SC-141791][ps][CONNECT] Substituir por
LastNotNullLast(ignoreNulls=True) - [SPARK-44901] [SC-141676][sql] Backport manual: Adicionar API no método 'analyze' do Python UDTF para retornar expressões de particionamento/ordenação
-
[SPARK-45076] [SC-141795][ps] Alternar para a função interna
repeat - [SPARK-44162] [SC-141605][núcleo] Suporte ao G1GC em métricas do Spark
- [SPARK-45053] [SC-141733][python][MINOR] Melhoria de log na incompatibilidade de versão do Python
-
[SPARK-44866] [SC-142221][sql] Adicionar
SnowflakeDialectpara manipular o tipo BOOLEAN corretamente -
[SPARK-45064] [SC-141775][python][CONNECT] Adicionar o parâmetro ausente
scaleemceil/ceiling -
[SPARK-45059] [SC-141757][conectar][PYTHON] Adicionar
try_reflectfunções ao Scala e ao Python -
[SPARK-43251] [SC-142280][sql] Substituir a classe de erro
_LEGACY_ERROR_TEMP_2015por um erro interno - [SPARK-45052] [SC-141736][sql][PYTHON][conectar] Tornar o nome da coluna de saída de aliases de função consistente com o SQL
- [SPARK-44239] [SC-141502][sql] Memória livre alocada por vetores grandes quando os vetores são redefinidos
-
[SPARK-43295] [SC-142254][ps] Suporte a colunas de tipo de cadeia de caracteres para
DataFrameGroupBy.sum - [SPARK-45080] [SC-142062][ss] Chamar explicitamente o suporte para colunar em fontes de dados de streaming DSv2
- [SPARK-45036] [SC-141768][sql] SPJ: Simplificar a lógica para lidar com a distribuição parcialmente clusterizado
- [SPARK-45077] [SC-142069][interface do usuário] Atualizar dagre-d3.js de 0.4.3 para 0.6.4
-
[SPARK-45091] [SC-142020][python][CONNECT][sql] A função
floor/round/broundaceita o Tipo de colunascale -
[SPARK-45090] [SC-142019][python][CONNECT]
DataFrame.{cube, rollup}Suporte a ordinais de coluna -
[SPARK-44743] [SC-141625][sql] Adicionar função
try_reflect - [SPARK-45086] [SC-142052][interface do usuário] Exibir hexadecimal para código hash de bloqueio de thread
- [SPARK-44952] [SC-141644][sql][PYTHON] Suporte a argumentos nomeados em UDFs do Pandas de agregação
-
[SPARK-44987] [SC-141552][sql] Atribuir um nome à classe de erro
_LEGACY_ERROR_TEMP_1100 -
[SPARK-45032] [SC-141730][conectar] Corrigir avisos de compilação relacionados a
Top-level wildcard is not allowed and will error under -Xsource:3 - [SPARK-45048] [SC-141629][conectar] Adicionar testes adicionais para o cliente Python e a execução anexável
- [SPARK-45072] [SC-141807][conectar] Corrigir escopos externos para classes de amônio
-
[SPARK-45033] [SC-141759][sql] Dar suporte a mapas por parâmetros
sql() -
[SPARK-45066] [SC-141772][sql][PYTHON][conectar] Fazer que a função
repeataceite o tipo de colunan - [SPARK-44860] [SC-141103][sql] Adicionar função SESSION_USER
-
[SPARK-45074] [SC-141796][python][CONNECT]
DataFrame.{sort, sortWithinPartitions}Suporte a ordinais de coluna -
[SPARK-45047] [SC-141774][python][CONNECT]
DataFrame.groupBysuporte a ordinais - [SPARK-44863] [SC-140798][interface do usuário] Adicionar um botão para baixar o despejo de thread como um txt na interface do usuário do Spark
-
[SPARK-45026] [SC-141604][conectar]
spark.sqldeve dar suporte a tipos de dados não compatíveis com seta -
[SPARK-44999] [SC-141145][núcleo] Refatorar
ExternalSorterpara reduzir as verificações emshouldPartitionao chamargetPartition -
[SPARK-42304] [SC-141501][sql] Renomear
_LEGACY_ERROR_TEMP_2189paraGET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION - [SPARK-43781] [SC-139450][sql] Corrigir IllegalStateException ao coagrupar dois conjuntos de dados derivados da mesma fonte
- [SPARK-45018] [SC-141516][python][CONNECT] Adicionar CalendarIntervalType ao cliente Python
- [SPARK-45024] [SC-141513][python][CONNECT] Filtrar algumas configurações na Criação de Sessão
-
[SPARK-45017] [SC-141508][python] Adicionar
CalendarIntervalTypeao PySpark - [SPARK-44720] [SC-139375][conectar] Fazer o conjunto de dados usar o Codificador em vez de AgnosticEncoder
- [SPARK-44982] [SC-141027][conectar] Marcar configurações de servidor do Spark Connect como estáticas
- [SPARK-44839] [SC-140900][ss][CONNECT] Melhor registro em log de erros quando o usuário tenta serializar a sessão do Spark
- [SPARK-44865] [SC-140905][ss] Fazer com que o StreamingRelationV2 dê suporte à coluna de metadados
- [SPARK-45001] [SC-141141][python][CONNECT] Implementar DataFrame.foreachPartition
- [SPARK-44497] [SC-141017][webui] Mostrar id de partição de tarefa na tabela Tarefa
- [SPARK-45006] [SC-141143][interface do usuário] Use o mesmo formato de data de outros elementos de data da interface do usuário para o eixo x das linhas do tempo
- [SPARK-45000] [SC-141135][python][CONNECT] Implementar DataFrame.foreach
- [SPARK-44967] [SC-141137][sql][CONNECT] A unidade deve ser considerada primeiro antes de usar Boolean para TreeNodeTag
-
[SPARK-44993] [SC-141088][núcleo] Adicionar
ShuffleChecksumUtils.compareChecksumsreutilizandoShuffleChecksumTestHelp.compareChecksums - [SPARK-44807] [SC-140176][conectar] Adicionar Dataset.metadataColumn ao Cliente Scala
-
[SPARK-44965] [SC-141098][python] Ocultar funções/variáveis internas de
pyspark.sql.functions -
[SPARK-44983] [SC-141030][sql] Converter binário em cadeia de caracteres em
to_charpara os formatos:hex,base64,utf-8 - [SPARK-44980] [DBRRM-462][sc-141024][PYTHON][conectar] Corrigir namedtuples herdados para funcionar em createDataFrame
- [SPARK-44985] [SC-141033][núcleo] Usar toString em vez de stacktrace para o threadDump do ceifador de tarefas
-
[SPARK-44984] [SC-141028][python][CONNECT] Remover
_get_aliasdo DataFrame - [SPARK-44975] [SC-141013][sql] Remover a substituição inútil BinaryArithmetic resolvida
-
[SPARK-44969] [SC-140957][sql] Reutilizar
ArrayInsertemArrayAppend - [SPARK-44549] [SC-140714][sql] Funções de janela de suporte em subconsultas escalares correlacionadas
-
[SPARK-44938] [SC-140811][sql] Alterar o valor padrão para
spark.sql.maxSinglePartitionBytes128m - [SPARK-44918] [SC-140816][sql][PYTHON] Suporte a argumentos nomeados em UDFs escalares do Python/Pandas
-
[SPARK-44966] [SC-140907][núcleo][CONNECT] Alterar o nunca alterado
varparaval - [SPARK-41471] [SC-140804][sql] Reduzir o embaralhamento do Spark quando apenas um lado de uma junção for KeyGroupedPartitioning
- [SPARK-44214] [SC-140528][núcleo] Suporte à interface do usuário do Log Ao Vivo do Driver spark
- [SPARK-44861] [SC-140716][connect] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519][conectar] Adicionar ProducedRowCount a SparkListenerConnectOperationFinished
-
[SPARK-42017] [SC-140765][python][CONNECT]
df['col_name']deve validar o nome da coluna - [SPARK-40178] [SC-140433][sql][COONECT] Dar suporte a dicas de coalesce com facilidade para PySpark e R
-
[SPARK-44840] [SC-140593][sql] Criar
array_insert()base 1 para índices negativos - [SPARK-44939] [SC-140778][r] Suporte a Java 21 no SparkR SystemRequirements
- [SPARK-44936] [SC-140770][núcleo] Simplificar o log quando o Spark HybridStore atingir o limite de memória
- [SPARK-44908] [SC-140712][ml][CONNECT] Corrigir a funcionalidade de param foldCol do validador cruzado
- [SPARK-44816] [SC-140717][conectar] Melhorar a mensagem de erro quando a classe UDF não for encontrada
- [SPARK-44909] [SC-140710][ml] Ignorar o servidor de streaming de log do distribuidor de tocha inicial quando ele não estiver disponível
- [SPARK-44920] [SC-140707][núcleo] Use await() em vez de awaitUninterruptibly() em TransportClientFactory.createClient()
- [SPARK-44905] [SC-140703][sql] Stateful lastRegex causa NullPointerException em eval for regexp_replace
- [SPARK-43987] [SC-139594][embaralhar] Separar o processamento finalizeShuffleMerge para pools de thread dedicados
- [SPARK-42768] [SC-140549][sql] Habilitar o plano em cache aplicar o AQE por padrão
-
[SPARK-44741] [SC-139447][núcleo] Suporte ao MetricFilter baseado em regex em
StatsdSink - [SPARK-44751] [SC-140532][sql] Implementação da interface FileFormat XML
-
[SPARK-44868] [SC-140438][sql] Converter datetime em cadeia de caracteres por
to_char/to_varchar - [SPARK-44748] [SC-140504][sql] Execução de consulta para a PARTITION cláusula BY em argumentos UDTF TABLE
- [SPARK-44873] [SC-140427] Suporte a alter view com colunas aninhadas no cliente Hive
- [SPARK-44876] [SC-140431][python] Corrigir a UDF do Python com otimização de seta no Spark Connect
- [SPARK-44520] [SC-137845][sql] Substituir o termo UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY por UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY e AE raiz de divulgação
-
[SPARK-42664] [SC-139769][conectar] Função de suporte
bloomFilterparaDataFrameStatFunctions -
[SPARK-43567] [SC-139227][ps] Suporte
use_na_sentinelparafactorize - [SPARK-44859] [SC-140254][ss] Corrigir o nome da propriedade incorreta no documento de streaming estruturado
- [SPARK-44822] [SC-140182][python][SQL] Tornar UDTFs do Python por padrão não determinístico
- [SPARK-44731] [SC-139524][python][CONNECT] Fazer o TimestampNTZ funcionar com literais no Python Spark Connect
- [SPARK-44836] [SC-140180][python] Refatorar seta Python UDTF
- [SPARK-44714] [SC-139238] Facilita a restrição da resolução de LCA em relação a consultas com cláusula having
- [SPARK-44749] [SC-139664][sql][PYTHON] Suporte a argumentos nomeados no UDTF do Python
- [SPARK-44737] [SC-139512][sql][Interface do usuário] Não deve exibir erros de formato json na página SQL para não SparkThrowables na Guia SQL
- [SPARK-44665] [SC-139307][python] Adicionar suporte para pandas DataFrame assertDataFrameEqual
- [SPARK-44736] [SC-139622][conectar] Adicionar Dataset.explode ao cliente Scala do Spark Connect
- [SPARK-44732] [SC-139422][sql] Suporte à fonte de dados XML interna
- [SPARK-44694] [SC-139213][python][CONNECT] Refatorar sessões ativas e expô-las como uma API
- [SPARK-44652] [SC-138881] Gera erro quando apenas um df for None
- [SPARK-44562] [SC-138824][sql] Adicionar OptimizeOneRowRelationSubquery no lote de Subconsultas
- [SPARK-44717] [SC-139319][python][PS] Respeitar TimestampNTZ na resampação
- [SPARK-42849] [SC-139365] [SQL] Variáveis de sessão
-
[SPARK-44236] [SC-139239][sql] Desabilitar WholeStageCodegen quando definido
spark.sql.codegen.factoryModecomo NO_CODEGEN -
[SPARK-44695] [SC-139316][python] Melhorar a mensagem de erro para
DataFrame.toDF -
[SPARK-44680] [SC-139234][sql] Melhorar o erro para parâmetros em
DEFAULT - [SPARK-43402] [SC-138321][sql] FileSourceScanExec dá suporte ao filtro de dados push down com subconsulta escalar
- [SPARK-44641] [SC-139216][sql] Resultado incorreto em determinados cenários quando o SPJ não é disparado
-
[SPARK-44689] [SC-139219][conectar] Tornar o tratamento de exceção da função
SparkConnectPlanner#unpackScalarScalaUDFmais universal -
[SPARK-41636] [SC-139061][sql] Certifique-se de retornar
selectFilterspredicados em ordem determinística -
[SPARK-44132] [SC-139197][sql] Materializar
Streamnomes de coluna de junção para evitar falha de codegen -
[SPARK-42330] [SC-138838][sql] Atribuir o nome
RULE_ID_NOT_FOUNDà classe de erro_LEGACY_ERROR_TEMP_2175 - [SPARK-44683] [SC-139214][ss] O nível de log não é passado corretamente para o provedor de armazenamento de estado do RocksDB
-
[SPARK-44658] [SC-138868][núcleo]
ShuffleStatus.getMapStatusdeve retornarNoneem vez deSome(null) - [SPARK-44603] [SC-138353] Adiciona pyspark.testing a setup.py
- [SPARK-44252] [SC-137505][ss] Definir uma nova classe de erro e aplicar para o caso em que o estado de carregamento do DFS falha
- [SPARK-29497] [DBRRM-396][sc-138477][CONNECT] Gerar erro quando a UDF não for desserializável.
- [SPARK-44624] [DBRRM-396][sc-138900][CONNECT] Repetir ExecutePlan caso a solicitação inicial não tenha chegado ao servidor
- [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Remover dependência do Catalyst do cliente Connect
- [SPARK-44059] [SC-138833][sql] Adicionar mensagens de erro melhores para os argumnts nomeados do SQL
-
[SPARK-44620] [SC-138831][sql][PS][conectar] Fazer
ResolvePivota retenção doPlan_ID_TAG - [SPARK-43838] [SC-137413][sql] Corrigir subconsulta em uma única tabela com cláusula having não pode ser otimizada
- [SPARK-44555] [SC-138820][sql] Usar checkError() para verificar Exceção no Command Suite e atribuir alguns nomes de classe de erro
- [SPARK-44280] [SC-138821][sql] Adicionar convertJavaTimestampToTimestamp na API JDBCDialect
-
[SPARK-44602] [SC-138337][sql][CONNECT][ps] Fazer
WidenSetOperationTypesa retenção doPlan_ID_TAG - [SPARK-42941] [SC-138389][ss][CONNECT] Python StreamingQueryListener
- [SPARK-43838] Reverter "[SC-137413][sql] Corrigir subconsulta em ta único...
- [SPARK-44538] [SC-138178][conectar][SQL] Restabelecer Row.jsonValue e amigos
- [SPARK-44421] [SC-138434][spark-44423][CONNECT] Execução recolocável no Spark Connect
- [SPARK-43838] [SC-137413][sql] Corrigir subconsulta em uma única tabela com cláusula having não pode ser otimizada
- [SPARK-44587] [SC-138315][sql][CONNECT] Aumentar o limite de recursão do marshaller de protobuf
- [SPARK-44605] [SC-138338][núcleo] Refinar a API do ShuffleWriteProcessor interno
- [SPARK-44394] [SC-138291][conectar][WEBUI] Adicionar uma página de interface do usuário do Spark para o Spark Connect
- [SPARK-44585] [SC-138286][mllib] Corrigir a condição de aviso no MLLib RankingMetrics ndcgAk
- [SPARK-44198] [SC-138137][núcleo] Suporte à propagação do nível de log para os executores
- [SPARK-44454] [SC-138071][sql][HIVE] Suporte a getTablesByType do HiveShim
- [SPARK-44425] [SC-138135][conectar] Validar se sessionId fornecido pelo usuário é uma UUID
-
[SPARK-43611] [SC-138051][sql][PS][conncect] Fazer
ExtractWindowExpressionsa retenção doPLAN_ID_TAG - [SPARK-44560] [SC-138117][python][CONNECT] Aprimorar testes e documentação para a UDF do Python de Seta
- [SPARK-44482] [SC-138067][conectar] O servidor de conexão deve especificar o endereço de associação
- [SPARK-44528] [SC-138047][conectar] Suporte ao uso adequado de hasattr() para dataframe connect
- [SPARK-44525] [SC-138043][sql] Melhorar a mensagem de erro quando o método Invoke não for encontrado
- [SPARK-44355] [SC-137878][sql] Mover o WithCTE para consultas de comando
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Consulte as atualizaçõesde manutenção do Databricks Runtime 14.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.0.5 | atributos | 22.1.0 | chamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | preto | 22.6.0 | alvejante | 4.1.0 |
| antolho | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
| certificação | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
| normalizador de conjunto de caracteres | 2.0.4 | clique | 8.0.4 | Comunicação | 0.1.2 |
| contorno | 1.0.5 | criptografia | 39.0.1 | ciclista | 0.11.0 |
| Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.7 | de docstring para markdown | 0.11 | pontos de entrada | 0,4 |
| em execução | 0.8.3 | Visão geral de facetas | 1.1.1 | fastjsonschema | 2.18.0 |
| bloqueio de arquivo | 3.12.3 | fonttools | 4.25.0 | Biblioteca de runtime do GCC | 1.10.0 |
| googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.4 | importlib-metadata | 4.6.4 |
| ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
| ipywidgets (biblioteca Python para widgets interativos) | 7.7.2 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
| Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.17.3 | Cliente Jupyter | 7.3.4 | servidor Jupyter | 1.23.4 |
| jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| keyring | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
| lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
| MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | Mistune | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
| nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
| nodeenv | 1.8.0 | notebook | 6.5.2 | notebook_shim | 0.2.2 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | empacotamento | 22,0 |
| Pandas | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
| pathspec | 0.10.3 | Patsy | 0.5.3 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Almofada | 9.4.0 | caroço | 22.3.1 |
| platformdirs | 2.5.2 | enredo | 5.9.0 | Pluggy | 1.0.0 |
| prometheus-client | 0.14.1 | kit de ferramentas de prompt | 3.0.36 | protobuf | 4.24.0 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | Pyarrow | 8.0.0 | pycparser | 2.21 |
| pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | piright | 1.1.294 | pirsistent | 0.18.0 |
| python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server (servidor LSP para Python) | 1.7.1 |
| pytoolconfig | 1.2.5 | Pytz | 2022.7 | pyzmq | 23.2.0 |
| Solicitações | 2.28.1 | corda | 1.7.0 | s3transfer | 0.6.2 |
| scikit-aprender | 1.1.1 | seaborn (biblioteca de visualização em Python) | 0.12.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | Ferramentas de configuração | 65.6.3 | seis | 1.16.0 |
| sniffio | 1.2.0 | Soupsieve | 2.3.2.post1 | ssh-import-id | 5.11 |
| dados empilhados | 0.2.0 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.13.5 | tenacidade | 8.1.0 |
| terminado | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.1 |
| traitlets | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
| atualizações não supervisionadas | 0,1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | codificações web | 0.5.1 |
| websocket-client (cliente WebSocket) | 0.58.0 | whatthepatch | 1.0.2 | wheel | 0.38.4 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
| SciPy | 1.10.1 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes na versão em 10-02-2023.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 12.0.1 | AskPass | 1.1 | afirme isso | 0.2.1 |
| backports | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
| ciar | 1.3-28 | Fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
| chamador | 3.7.3 | acento circunflexo (^) | 6.0-94 | Cellranger | 1.1.0 |
| crono | 2.3-61 | classe | 7.3-22 | Interface de Linha de Comando (CLI) | 3.6.1 |
| clipr | 0.8.0 | relógio | 0.7.0 | cluster | 2.1.4 |
| codetools | 0.2-19 | espaço de cores | 2.1-0 | commonmark | 1.9.0 |
| compilador | 4.3.1 | configuração | 0.3.1 | conflituoso | 1.2.0 |
| cpp11 | 0.4.4 | giz de cera | 1.5.2 | credenciais | 1.3.2 |
| encurvar | 5.0.1 | Tabela de Dados | 1.14.8 | conjuntos de dados | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Descrição | 1.4.2 |
| devtools | 2.4.5 | diagrama | 1.6.5 | diffobj | 0.3.5 |
| hash | 0.6.33 | iluminação para baixo | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | reticências | 0.3.2 |
| avaliar | 0,21 | fansi | 1.0.4 | cores | 2.1.1 |
| fastmap | 1.1.1 | fontawesome | 0.5.1 | para gatos | 1.0.0 |
| para cada | 1.5.2 | estrangeiro | 0.8-82 | forja | 0.2.0 |
| Fs | 1.6.2 | futuro | 1.33.0 | future.apply | 1.11.0 |
| gargarejar | 1.5.1 | genéricos | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | globais | 0.16.2 | associar | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Gráficos | 4.3.1 | grDevices | 4.3.1 | grade | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
| capacete de segurança | 1.3.0 | refúgio | 2.5.3 | mais alto | 0.10 |
| Hms | 1.1.3 | ferramentas HTML | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | malhador | 1.43 |
| rotulagem | 0.4.2 | posterior | 1.3.1 | treliça | 0.21-8 |
| lava vulcânica | 1.7.2.1 | ciclo de vida | 1.0.3 | ouça | 0.9.0 |
| lubrificado | 1.9.2 | magrittr | 2.0.3 | redução de preço | 1,7 |
| MISSA | 7.3-60 | Matriz | 1.5-4.1 | memorizar | 2.0.1 |
| Métodos | 4.3.1 | mgcv | 1.8-42 | mímica | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelador | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.6 | paralelo | 4.3.1 |
| paralelamente | 1.36.0 | coluna | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
| Prodlim | 2023.03.31 | profvis | 0.3.8 | progresso | 1.2.2 |
| progressador | 0.13.0 | Promessas | 1.2.0.1 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.5 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| Readr | 2.1.4 | readxl | 1.4.3 | Receitas | 1.0.6 |
| jogo de revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| exemplo reprodutível (reprex) | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.1.1 |
| rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.6 | escamas | 1.2.1 |
| Seletor | 0.4-2 | informações de sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
| SparkR | 3.5.0 | espacial | 7.3-15 | Splines | 4.3.1 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.3.1 |
| estatísticas4 | 4.3.1 | stringi | 1.7.12 | stringr | 1.5.0 |
| sobrevivência | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
| tcltk | 4.3.1 | testthat | 3.1.10 | formatação de texto | 0.3.6 |
| tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 2.0.0 | mudança de horário | 0.2.0 | data e hora | 4022.108 |
| tinytex | 0.45 | Ferramentas | 4.3.1 | tzdb | 0.4.0 |
| verificador de URL | 1.0.1 | usethis | 2.2.2 | utf8 | 1.2.3 |
| utilitários | 4.3.1 | identificador único universal (UUID) | 1.1-0 | vctrs | 0.6.3 |
| viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
| vibrissa | 0.4.1 | murchar | 2.5.0 | xfun | 0.39 |
| xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.3.7 | zíper | 2.3.0 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraryes | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Sininho | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,25 |
| io.delta | delta-sharing-spark_2.12 | 0.7.5 |
| io.dropwizard.metrics | anotação de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | Netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | Netty Resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | Netty Tcnative Classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.33 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de seta | 12.0.1 |
| org.apache.arrow | seta-memória-core | 12.0.1 |
| org.apache.arrow | Arrow-Memory-Netty | 12.0.1 |
| org.apache.arrow | vetor de seta | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-calços | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | comentários da audiência | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | segurança do jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-comum | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.7.9 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenésia | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Calços | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |