Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.2, desenvolvido pelo Apache Spark 3.4.0.
O Databricks lançou essa versão em julho de 2023.
Novos recursos e aprimoramentos
- Ponto de verificação do log de alterações para o repositório de estado rocksDB
- Confiabilidade aprimorada para VACUUM com clone superficial no Catálogo do Unity.
- Suporte para UDFs do Python no SQL
- Delta Lake UniForm para Apache Iceberg está em versão prévia pública
- O clustering líquido do Delta Lake está em visualização pública
- Suporte a arquivamento no Azure Databricks
- IDENTIFIER suporte de cláusulas
- Suporte ao Catálogo do Unity para Funções Definidas pelo Usuário (UDFs) Python e Pandas
- Compartilhar esquemas usando o Compartilhamento Delta
- Correções de bug
Ponto de verificação do log de alterações para o repositório de estado RocksDB
Você pode habilitar o ponto de verificação do registro de alterações para reduzir a duração do ponto de verificação e a latência de ponta a ponta para cargas de trabalho de fluxo estruturado com estado. O Databricks recomenda habilitar o ponto de verificação do changelog para todas as consultas com estado de Streaming Estruturado. Confira Habilitar o ponto de verificação do log de alterações.
Confiabilidade aprimorada para VACUUM com o uso de clone raso no Unity Catalog.
Quando você usa tabelas gerenciadas do Catálogo do Unity para a origem e o destino de uma operação de clone superficial, o Catálogo do Unity gerencia os arquivos de dados subjacentes para melhorar a confiabilidade para a origem e o destino da operação de clone. A execução VACUUM na origem de um clone superficial não interrompe a tabela clonada. Consulte Clones superficiais do Vacuum e do Catálogo do Unity.
Suporte para UDFs do Python no SQL
Agora você pode declarar funções definidas pelo usuário usando o Python em instruções SQL CREATE FUNCTION no Catálogo do Unity. Consulte UDFs (funções definidas pelo usuário) no Catálogo do Unity.
Delta Lake UniForm para Apache Iceberg está em versão prévia pública
O Formato Universal do Delta Lake (UniForm) permite ler tabelas Delta com clientes Apache Iceberg. Confira Ler tabelas Delta com clientes do Iceberg.
O clustering líquido do Delta Lake está em pré-visualização pública
O clustering líquido Delta Lake substitui o particionamento de tabelas e ZORDER para simplificar as decisões de layout de dados e otimizar o desempenho da consulta. Consulte Usar clustering líquido para tabelas.
Suporte a arquivamento no Azure Databricks
O suporte a arquivamento no Azure Databricks apresenta uma coleção de recursos que permitem usar políticas de ciclo de vida baseadas em nuvem no armazenamento de objetos de nuvem que contêm tabelas Delta para mover arquivos para camadas de armazenamento de arquivamento. Confira Suporte a arquivamento no Azure Databricks.
IDENTIFIER suporte de cláusula
Use IDENTIFIER(:mytable) para parametrizar com segurança nomes de tabela, coluna, função e esquema em muitas instruções SQL.
Suporte ao Catálogo do Unity para Funções Definidas pelo Usuário (UDFs) Python e Pandas
Na Databricks Runtime 13.2 e posteriores, UDFs (funções definidas pelo usuário) escritas em Python têm suporte em clusters que usam o modo de acesso padrão (antigo modo de acesso compartilhado) em um workspace habilitado para Unity Catalog. Isso inclui UDFs do Python e do Pandas. Para obter detalhes sobre UDFs do Python, consulte Funções escalares definidas pelo usuário – Python.
Compartilhar esquemas usando o Compartilhamento Delta
O Databricks Runtime 13.2 adiciona a capacidade de usar ALTER SHARE <share-name> ADD SCHEMA <schema-name> para compartilhar um esquema inteiro usando o Compartilhamento Delta, dando ao destinatário acesso a todas as tabelas e exibições no esquema no momento em que você o compartilha, juntamente com todas as tabelas e exibições adicionadas ao esquema no futuro. Consulte Adicionar esquemas a um compartilhamento e ALTER SHARE.
Correções de bug
- Corrigido um bug com o leitor JSON, em que os registros eram analisados no modo
PERMISSIVEsefailOnUnknownFieldsmodeestava habilitado. Os registros agora são descartados no modoDROPMALFORMEDparserou são gravados nobadRecordsPath, se qualquer uma dessas opções estiver definida.FAILFASTlança um erro se um tipo de coluna não corresponder.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- nodeenv de 1.7.0 a 1.8.0
- Atualização das bibliotecas do R:
- Bibliotecas do Java atualizadas:
- io.delta.delta-sharing-spark_2.12 de 0.6.7 a 0.7.0
Apache Spark
O Databricks Runtime 13.2 inclui o Apache Spark 3.4.0. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 13.1 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-42750] [SC-133452][dbrrm-273] Suporte à instrução Insert By Name
- [SPARK-43133] [SC-133728] Suporte ao Cliente Scala DataStreamWriter Foreach
-
[SPARK-43663] [SC-134135][connect][PS] Habilitar
SeriesParityTests.test_compare -
[SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Correção
(NullOps|NumOps).(eq|ne)para Spark Connect. - [SPARK-44021] [SC-134109][sql] Adicionar spark.sql.files.maxPartitionNum
-
[SPARK-43910] [SC-132936][sql] Remover
__auto_generated_subquery_namede IDs em erros - [SPARK-43976] [SC-133375][core] Manipular o caso em que modifiedConfigs não existe nos logs de eventos
- [SPARK-32559] [SC-133992][sql] Corrigir a lógica de remoção que não lidou com caracteres de controle ASCII corretamente
- [SPARK-43421] [SC-132930][ss] Implementar o ponto de verificação baseado em changelog para o provedor de repositório de estado do RocksDB
- [SPARK-43594] [SC-133851][sql] Adicionar LocalDateTime a anyToMicros
- [SPARK-43884] [SC-133867] Marcadores de parâmetro em DDL
- [SPARK-43398] [SC-133894][core] O tempo limite do Executor deve ser o máximo entre o tempo limite de embaralhamento ocioso e o tempo limite de rdd
-
[SPARK-43610] [SC-133892][connect][PS] Habilitar
InternalFrame.attach_distributed_columnno Spark Connect. - [SPARK-43971] [SC-133826][connect][PYTHON] Suporte ao createDataFrame do Python em modo de streaming
- [SPARK-44006] [SC-133652][connect][PYTHON] Suporte a artefatos de cache
-
[SPARK-43790] [SC-133468][python][CONNECT][ml] Adicionar
copyFromLocalToFsAPI - [SPARK-43921] [SC-133461][protobuf] Gerar arquivos de descritor protobuf durante a construção
- [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implementar o suporte ao arquivo no SparkSession.addArtifacts
- [SPARK-44010] [SC-133744][python][SS][menor] Correção do tipo Python StreamingQueryProgress rowsPerSecond
- [SPARK-43768] [SC-132398][python][CONNECT] Suporte ao gerenciamento de dependência do Python no Python Spark Connect
- [SPARK-43979] [13.X] Reverter "[SC-133456][sql] CollectedMetrics deve ser tratado como o mesmo para autojunção"
- [SPARK-42290] [SC-133696][sql] Correção do problema de erro OOM que não pode ser relatado quando o AQE está ativado
- [SPARK-43943] [SC-133648][sql][PYTHON][connect] Adicionar funções matemáticas sql ao Scala e Python
- [SPARK-43747] [SC-132047][python][CONNECT] Implemente o suporte a pyfile em SparkSession.addArtifacts
-
[SPARK-43700] [SC-133726][spark-43701][CONNECT][ps] Habilitar
TimedeltaOps.(sub|rsub)com o Spark Connect -
[SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Habilitar teste de paridade:
test_line_plot,test_pie_plot. - [SPARK-43867] [SC-132895][sql] Melhorar os candidatos sugeridos para atributo não resolvido
- [SPARK-43901] [SC-133454][sql] Avro para suportar tipo decimal personalizado suportado por Long
- [SPARK-43267] [SC-133024][jdbc] Tratar uma coluna desconhecida definida pelo usuário em PostgreSQL como uma string em um vetor
- [SPARK-43935] [SC-133637][sql][PYTHON][connect] Adicionar funções xpath_* ao Scala e Python
- [SPARK-43916] [SC-133647][sql][PYTHON][connect] Adicionar percentil à API Scala e Python
- [SPARK-43717] [SC-133455][connect] O cliente Scala com redução em agregações não pode lidar com partições nulas para entradas primitivas de Scala
-
[SPARK-43984] [SC-133469][sql][PROTOBUF] Alteração para usar
foreachquandomapnão produz resultados - [SPARK-43612] [SC-132011][connect][PYTHON] Implementar SparkSession.addArtifact(s) no cliente Python
- [SPARK-44002] [SC-133606][conectar] Corrigir o manipulador de status do artefato
- [SPARK-43933] [SC-133470][sql][PYTHON][connect] Adicionar funções de agregação de regressão linear a Scala e Python
- [SPARK-43920] [SC-133614][sql][CONNECT] Criar módulo sql/api
- [SPARK-43979] [SC-133456][sql] CollectedMetrics deve ser tratado como o mesmo para auto-junção
-
[SPARK-43977] [SC-133373][connect] Corrigir o resultado inesperado da verificação de
dev/connect-jvm-client-mima-check - [SPARK-43985] [SC-133412][protobuf] spark protobuf: corrigir bug de enums representados como inteiros
- [SPARK-43930] [SC-133406][sql][PYTHON][connect] Adicionar funções unix_* ao Scala e Python
- [SPARK-43807] [SC-132545][sql] Migrar _LEGACY_ERROR_TEMP_1269 para PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [SC-133123][sql] Corrigir o bug que não está exibindo o SQL da coluna para Percentile[Cont|Disc]
- [SPARK-42626] [SC-133248][connect] Adicionar Iterador Destrutivo para SparkResult
- [SPARK-43333] [SC-132898][sql] Permitir que o Avro converta o tipo de união em SQL com o nome do campo estável com o tipo
-
[SPARK-43953] [SC-133134][conectar] Remover
pass - [SPARK-43970] [SC-133403][python][CONNECT] Ocultar métodos de dataframe sem suporte da conclusão automática
- [SPARK-43973] [SC-133272][ss][interface do usuário] A interface do usuário de streaming estruturada deve exibir consultas com falha corretamente
- [SPARK-42577] [SC-125445][core] Adicionar limitação de tentativas máximas para estágios para evitar uma possível repetição infinita
-
[SPARK-43841] [SC-132699][sql] Manipular atributos candidatos sem prefixo em
StringUtils#orderSuggestedIdentifiersBySimilarity -
[SPARK-41497] [SC-124795][core][Acompanhamento] Modificar a versão da configuração de suporte
spark.rdd.cache.visibilityTracking.enabledpara 3.5.0 - [SPARK-37942] [SC-130983][core][SQL] Migrar classes de erro
-
[SPARK-43898] [SC-132926][core] Registrar
immutable.ArraySeq$ofRefautomaticamente paraKryoSerializerno Scala 2.13 - [SPARK-43775] [SC-132891][sql] DataSource V2: Permitir que represente atualizações como exclusões e inserções
- [SPARK-43817] [SC-132662][spark-43702][PYTHON] Suporte userDefinedType em createDataFrame do pandas DataFrame e toPandas
- [SPARK-43418] [SC-132753][sc-130685][CONNECT] Adicionar SparkSession.Builder.getOrCreate
- [SPARK-43549] [SC-132383][sql] Converter _LEGACY_ERROR_TEMP_0036 para INVALID_SQL_SYNTAX.ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [SC-124644][core] Corrigindo a subcontagem do acumulador no caso da tarefa de repetição com cache rdd
-
[SPARK-43892] [SC-133006][python] Adicionar suporte de preenchimento automático para
df[|]inpyspark.sql.dataframe.DataFrame - [SPARK-43881] [SC-133140][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listDatabases
- [SPARK-43205] [CLÁUSULA SC-132623] IDENTIFIER
- [SPARK-43545] [SC-132378][sql][PYTHON] Suporte para tipo de carimbo de data/hora aninhado
- [SPARK-43949] [SC-133048][python] Atualizar cloudpickle para 2.2.1
- [SPARK-43760] [SC-132809][sql] Nullability dos resultados de subconsulta escalar
-
[SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Correção
TimedeltaOpspara Spark Connect - [SPARK-43895] [SC-132897][connect][GO] Preparar o caminho do pacote Go
- [SPARK-43894] [SC-132892][python] Corrigir bug no df.cache()
- [SPARK-43509] [SC-131625][connect] Suporte à criação de várias sessões do Spark Connect
- [SPARK-43882] [SC-132888][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2122
-
[SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Correção
NumOpspara Spark Connect -
[SPARK-43604] [SC-132165][sql] Refatorar
INVALID_SQL_SYNTAXpara evitar incorporar texto de erros no código-fonte - [SPARK-43859] [SC-132883][sql] Sobrescrever toString em LateralColumnAliasReference
- [SPARK-43792] [SC-132939][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listCatalogs
- [SPARK-43353] Reverter "[SC-132734][python] Migrar erros de sessão restantes para a classe de erro"
- [SPARK-43375] [SC-130309][conectar] Melhore as mensagens de erro para INVALID_CONNECT_URL
-
[SPARK-43863] [SC-132721][connect] Remover redundante
toSeqdeSparkConnectPlannerpara Scala 2.13 -
[SPARK-43676] [SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Correção
DatetimeOpspara Spark Connect -
[SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Correção
BinaryOpspara Spark Connect -
[SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Correção
NullOpspara Spark Connect - [SPARK-43782] [SC-132885][core] Suporte para a configuração de nível de registro com configuração estática do Spark
- [SPARK-43132] [SC-131623] [SS] [CONNECT] Cliente Python DataStreamWriter foreach() API
- [SPARK-43290] [SC-131961][sql] Adiciona suporte a AES IV e AAD ao ExpressionImplUtils
- [SPARK-43795] [SC-132532][connect] Remover parâmetros não usados para SparkConnectPlanner
- [SPARK-42317] [SC-129194][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [SC-131960][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_0017
-
[SPARK-43834] [SC-132679][sql] Usar classes de erro nos erros de compilação de
ResolveDefaultColumns - [SPARK-43749] [SC-132423][spark-43750][SQL] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_240[4-5]
- [SPARK-43576] [SC-132533][core] Remover declarações não utilizados do módulo Core
- [SPARK-43314] [SC-129970][connect][PYTHON] Migrar erros de cliente do Spark Connect para a classe de erro
- [SPARK-43799] [SC-132715][python] Adicionar opção binária de descritor à API do Pyspark Protobuf
- [SPARK-43837] [SC-132678][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_103[1-2]
- [SPARK-43862] [SC-132750][sql] Atribuir um nome à classe de erro LEGACY_ERROR_TEMP(1254 & 1315)
- [SPARK-43886] [SC-132808][python] Aceitar tuplas genéricas como sugestões de tipagem do Pandas UDF
- [SPARK-43530] [SC-132653][protobuf] Ler arquivo descritor apenas uma vez
- [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_241[1-7]
-
[SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Correção
CategoricalOpspara Spark Connect - [SPARK-39979] [SC-132685][sql] Adicionar opção para usar vetores de largura variável grandes para operações UDF de seta
-
[SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Correção
StringOpspara Spark Connect - [SPARK-43353] [SC-132734][python] Migrar erros de sessão restantes para a classe de erro
-
[SPARK-43815] [SC-132781][sql] Adicionar
to_varcharalias parato_char - [SPARK-43543] [13.x][sc-131839][PYTHON] Corrige o comportamento do MapType aninhado no Pandas UDF
- [SPARK-43361] [SC-131789][protobuf] atualizar a documentação para erros relacionados à serialização de enum
-
[SPARK-43740] [SC-132035][python][CONNECT] Remover métodos não suportados
sessionda conclusão automática - [SPARK-43022] [SC-131681][connect] Suporte a funções protobuf para o cliente Scala
-
[SPARK-43304] [13.x][sc-129969][CONNECT][python] Migrar
NotImplementedErrorparaPySparkNotImplementedError - [SPARK-43860] [SC-132713][sql] Habilitar a recursão final sempre que possível
- [SPARK-42421] [SC-132695][core] Use os utils para obter a opção de alocação dinâmica usada no ponto de verificação local
-
[SPARK-43590] [SC-132012][conectar] Faça
connect-jvm-client-mima-checkpara dar suporte à verificação mima comprotobufo módulo - [SPARK-43315] [13.x][connect][PYTHON][ss] Migrar erros restantes do DataFrame(Reader|Writer) em classe de erro
- [SPARK-43361] [SC-130980][protobuf] spark-protobuf: permitir serde com enumeração como ints
- [SPARK-43789] [SC-132397][r] Usa 'spark.sql.execution.arrow.maxRecordsPerBatch' em R createDataFrame com Seta por padrão
- [SPARK-43596] [SC-126994][sql] Manipular predicado IsNull em rewriteDomainJoins
- [SPARK-42249] [SC-122565][sql] Aprimoramento do link html para documentação em mensagens de erro.
-
[SPARK-43128] [SC-131628][connect][SS] Garantir que
recentProgresselastProgressretornemStreamingQueryProgressde forma consistente com a API Scala nativa. - [SPARK-43387] [SC-130448][sql] Forneça um código de erro legível humano para _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [interface do usuário] Corrigir erro ao serializar ExecutorPeakMetricsDistributions na resposta à API
-
[SPARK-42958] [SC-131475][connect] Refatorar
connect-jvm-client-mima-checkpara dar suporte à verificação mima com módulo avro - [SPARK-43591] [SC-131977][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_0013
- [SPARK-38464] [SC-132211][core] Use classes de erro no org.apache.spark.io
- [SPARK-43759] [SC-132189][sql][PYTHON] Expor TimestampNTZType em pyspark.sql.types
- [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_240[1-3]
-
[SPARK-43719] [SC-132016][webui] Gerenciar campo
missing row.excludedInStages - [SPARK-42956] [SC-127257][connect] Suporte para funções Avro no cliente Scala
- [SPARK-43487] [SC-131975][sql] Corrigir mensagem de erro de CTE aninhada
- [SPARK-43265] [SC-129653] Mover estrutura de erro para um módulo utils comum
- [SPARK-40912] [SC-131547][núcleo]Sobrecarga de exceções em KryoDeserializationStream
- [SPARK-43583] [SC-131976][core] obter MergedBlockedMetaReqHandler do delegate em vez da instância de SaslRpcHandler
- [SPARK-42996] [SC-131997][connect][PS][ml] Criar e atribuir tíquetes JIRA adequados para todos os testes com falha.
- [SPARK-38469] [SC-131425][core] Use a classe de erro em org.apache.spark.network
- [SPARK-43718] [SC-132014][sql] Definir corretamente a nulabilidade para chaves em junções USING
-
[SPARK-43502] [SC-131419][python][CONNECT]
DataFrame.dropdeve aceitar coluna vazia - [SPARK-43743] [SC-132038][sql] Portar HIVE-12188(DoAs não funciona corretamente em HS2 sem proteção Kerberos)
- [SPARK-43598] [SC-131929][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2400
- [SPARK-43138] [SC-131031][core] Corrigir ClassNotFoundException durante a migração
- [SPARK-43360] [SC-131526][ss][CONNECT] Cliente Scala StreamingQueryManager
- [SPARK-38467] [SC-131025][core] Use classes de erro em org.apache.spark.memory
- [SPARK-43345] [SC-131790][spark-43346][SQL] Renomear as classes de erro LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [SC-126450][sql] A eliminação de subexpressão dá suporte à expressão de atalho
- [SPARK-38462] [SC-130449][core] Adicionar classe de erro INTERNAL_ERROR_EXECUTOR
-
[SPARK-43589] [SC-131798][sql] Correção
cannotBroadcastTableOverMaxTableBytesErrorpara usarbytesToString - [SPARK-43539] [SC-131830][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_0003
- [SPARK-43157] [SC-131688][sql] Clonar plano armazenado em cache inMemoryRelation para impedir que o plano clonado faça referência aos mesmos objetos
- [SPARK-43309] [SC-129746][spark-38461][CORE] Estender INTERNAL_ERROR com categorias e adicionar classe de erro INTERNAL_ERROR_BROADCAST
- [SPARK-43281] [SC-131370][sql] Corrigir que o gravador simultâneo não atualiza as métricas do arquivo
-
[SPARK-43383] [SC-130660][sql] Adicionar
rowCountestatísticas ao LocalRelation - [SPARK-43574] [SC-131739][python][SQL] Suporte para definir executável python para APIs de função UDF e pandas em trabalhos durante o runtime
- [SPARK-43569] [SC-131694][sql] Remover solução alternativa para HADOOP-14067
- [SPARK-43183] [SC-128938][ss][13.x] Introduza um novo callback "onQueryIdle" para StreamingQueryListener
- [SPARK-43528] [SC-131531][sql][PYTHON] Suportar nomes de campo duplicados em createDataFrame com pandas DataFrame
- [SPARK-43548] [SC-131686][ss] Remover solução alternativa para HADOOP-16255
-
[SPARK-43494] [SC-131272][core] Chamar
replicate()paraHdfsDataOutputStreamBuilderdiretamente em vez de usar reflexão emSparkHadoopUtil#createFile - [SPARK-43471] [SC-131063][core] Lidar com propriedades ausentes do Hadoop e métricas.
- [SPARK-42899] [SC-126456][sql] Corrigir DataFrame.to(esquema) para tratar o caso em que há um campo aninhado não anulável dentro de um campo anulável
- [SPARK-43302] [SC-129747][sql] Tornar Python UDAF uma AggregateFunction
- [SPARK-43223] [SC-131270][connect] agregação tipada, funções de redução, RelationalGroupedDataset#as
- [SPARK-43482] [SC-131375][ss] Expandir QueryTerminatedEvent para conter a classe de erro se ela existir em exceção
- [SPARK-43359] [SC-131463][sql] A exclusão da tabela Hive deve gerar "UNSUPPORTED_FEATURE.TABLE_OPERATION"
- [SPARK-43284] [SC-130313] Voltar para cadeias de caracteres codificadas em URL
-
[SPARK-43492] [SC-131227][sql] Adicionar apelidos para funções de 3 argumentos
DATE_ADDeDATE_DIFF - [SPARK-43473] [SC-131372][python] Suporte ao tipo de struct em createDataFrame do Pandas DataFrame
-
[SPARK-43386] [SC-131110][sql] Melhorar a lista de colunas/atributos sugeridos na
UNRESOLVED_COLUMN.WITH_SUGGESTIONclasse de erro - [SPARK-43443] [SC-131332][sql] Adicionar benchmark para inferência de tipo de Timestamp ao utilizar um valor inválido
-
[SPARK-43518] [SC-131420][sql] Converter
_LEGACY_ERROR_TEMP_2029em INTERNAL_ERROR - [SPARK-42604] [SC-130648][connect] Implementar functions.typedlit
-
[SPARK-42323] [ES-669513] Reverter “[SC-123479][sql] Atribuir nome a
_LEGACY_ERROR_TEMP_2332” - [SPARK-43357] [SC-130649][sql] Data de cotação do tipo de data do filtro
- [SPARK-43410] [SC-130526][sql] Aperfeiçoar o loop vetorizado para valores de skip empacotados
-
[SPARK-43441] [SC-130995][core]
makeDotNodenão deve falhar quando DeterministicLevel está ausente - [SPARK-43324] [SC-130455][sql] Manipular UPDATE comandos para fontes baseadas em delta
-
[SPARK-43272] [SC-131168][núcleo] Chamar
createFilediretamente em vez de reflexão - [SPARK-43296] [13.x][sc-130627][CONNECT][python] Migrar erros de sessão do Spark Connect para a classe de erro
-
[SPARK-43405] [SC-130987][sql] Remover método inútil
getRowFormatSQL,inputRowFormatSQL,outputRowFormatSQL - [SPARK-43447] [SC-131017][r] Suporte R 4.3.0
-
[SPARK-43425] [SC-130981][sql] Adicionar
TimestampNTZTypeaColumnarBatchRow - [SPARK-41532] [SC-130523][connect][CLIENT] Adicionar verificação de operações que envolvem vários quadros de dados
- [SPARK-43262] [SC-129270][connect][SS][python] Migrar erros de streaming estruturado do Spark Connect para a classe de erro
- [SPARK-42992] [13.x][sc-129465][PYTHON] Introdução PySparkRuntimeError
- [SPARK-43422] [SC-130982][sql] Manter tags em LogicalRelation com saída de metadados
- [SPARK-43390] [SC-130646][sql] DSv2 permite que CTAS/RTAS reservem nulidade de esquema
- [SPARK-43430] [SC-130989][connect][PROTO] ExecutePlanRequest dá suporte a opções arbitrárias de solicitação.
- [SPARK-43313] [SC-130254][sql] Adicionando valores padrão ausentes de coluna para ações MERGE INSERT
- [SPARK-42842] [SC-130438][sql] Mesclar a classe de erro _LEGACY_ERROR_TEMP_2006 em REGEX_GROUP_INDEX
-
[SPARK-43377] [SC-130405][sql] Habilitar
spark.sql.thriftServer.interruptOnCancelpor padrão -
[SPARK-43292] [SC-130525][core][CONNECT] Mover
ExecutorClassLoaderpara o módulocoree simplificarExecutor#addReplClassLoaderIfNeeded - [SPARK-43040] [SC-130310][sql] Melhorar o suporte ao tipo TimestampNTZ na fonte de dados JDBC
- [SPARK-43343] [SC-130629][ss] FileStreamSource deve desabilitar uma verificação adicional de padrões de arquivo ao criar o DataSource.
- [SPARK-43312] [SC-130294][protobuf] Opção para converter todos os campos em JSON
- [SPARK-43404] [SC-130586][ss] Ignorar a reutilização do arquivo sst para a mesma versão do repositório de estado do RocksDB para evitar erro de incompatibilidade de ID
-
[SPARK-43397] [SC-130614][core] Logar a duração da desativação do executor no método
executorLost - [SPARK-42388] [SC-128568][sql] Evite ler o rodapé de arquivo parquet duas vezes no leitor de formato vetorizado
- [SPARK-43306] [13.x][sc-130320][PYTHON] Migrar ValueError de tipos SQL do Spark para classe de erro.
- [SPARK-43337] [SC-130353][ui][3.4] Ícones de setas de ordem crescente/decrescente para a ordenação da coluna não são exibidos na coluna da tabela.
-
[SPARK-43279] [SC-130351][core] Limpeza de membros não utilizados
SparkHadoopUtil -
[SPARK-43250] [SC-130147][sql] Substitua a classe
_LEGACY_ERROR_TEMP_2014de erro por um erro interno -
[SPARK-43363] [SC-130299][sql][PYTHON] Faça para chamar
astypeo tipo de categoria somente quando o tipo de seta não for fornecido -
[SPARK-43261] [SC-130154][python] Migrar
TypeErrorde tipos SQL do Spark para a classe de erro - [SPARK-41971] [SC-130230][sql][PYTHON] Adicionar uma configuração para lidar com tipos de struct na conversão do pandas
- [SPARK-43381] [SC-130464][connect] Tornar 'transformStatCov' preguiçoso
- [SPARK-43362] [SC-130481][sql] Tratamento especial do tipo JSON para o conector MySQL
- [SPARK-42843] [SC-130196][sql] Atualize a classe de erro _LEGACY_ERROR_TEMP_2007 para REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968][connect] Streaming de relações locais
-
[SPARK-43181] [SC-130476][sql] Mostrar WebURL da interface do usuário no terminal
spark-sql - [SPARK-43051] [SC-130194][connect] Adicionar opção para emitir valores padrão
- [SPARK-43204] [SC-129296][sql] Alinhar atribuições MERGE com atributos de tabela
-
[SPARK-43348] [SC-130082][python] Suporte
Python 3.8no PyPy3 - [SPARK-42845] [SC-130078][sql] Atualizar a classe de erro _LEGACY_ERROR_TEMP_2010 para InternalError
- [SPARK-43211] [SC-128978][hive] Remover suporte do Hadoop2 no IsolatedClientLoader
Ambiente do sistema
- Sistema operacional: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.2.1 | atributos | 21.4.0 | chamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | preto | 22.6.0 | alvejante | 4.1.0 |
| antolho | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| normalizador de conjunto de caracteres | 2.0.4 | clique | 8.0.4 | criptografia | 37.0.1 |
| ciclista | 0.11.0 | Cython | 0.29.32 | databricks-sdk | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.5.1 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | distlib | 0.3.6 | de docstring para markdown | 0,12 |
| pontos de entrada | 0,4 | em execução | 1.2.0 | Visão geral de facetas | 1.0.3 |
| fastjsonschema | 2.16.3 | bloqueio de arquivo | 3.12.0 | fonttools | 4.25.0 |
| googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets (biblioteca Python para widgets interativos) | 7.7.2 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | Cliente Jupyter | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
| matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | notebook | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | empacotando | 21,3 | Pandas | 1.4.4 |
| pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.9.0 |
| Patsy | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Almofada | 9.2.0 | caroço | 22.2.2 | platformdirs | 2.5.2 |
| enredo | 5.9.0 | Pluggy | 1.0.0 | prometheus-client | 0.14.1 |
| kit de ferramentas de prompt | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
| pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | pyrsistent | 0.18.0 | python-dateutil | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-server (servidor LSP para Python) | 1.7.1 | pytoolconfig | 1.2.2 |
| Pytz | 2022.1 | pyzmq | 23.2.0 | solicitações | 2.28.1 |
| corda | 1.7.0 | s3transfer | 0.6.0 | scikit-aprender | 1.1.1 |
| Scipy | 1.9.1 | seaborn (biblioteca de visualização em Python) | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | Ferramentas de configuração | 63.4.1 | seis | 1.16.0 |
| Soupsieve | 2.3.1 | ssh-import-id | 5.11 | dados empilhados | 0.6.2 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.13.2 | tenacidade | 8.1.0 | terminado | 0.13.1 |
| caminho de teste | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | tornado | 6.1 | traitlets | 5.1.1 |
| typing_extensions | 4.3.0 | ujson | 5.4.0 | atualizações não supervisionadas | 0,1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | codificações web | 0.5.1 | whatthepatch | 1.0.2 |
| wheel | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
| zipp | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R foram instaladas por meio do Instantâneo CRAN da Microsoft em 02/10/2023.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 10.0.1 | AskPass | 1,1 | afirme isso | 0.2.1 |
| retroportações | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
| ciar | 1.3-28 | Fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
| chamador | 3.7.3 | sinal de interpolação | 6.0-93 | Cellranger | 1.1.0 |
| crono | 2.3-59 | classe | 7.3-21 | Interface de Linha de Comando (CLI) | 3.6.0 |
| clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
| codetools | 0.2-19 | espaço de cores | 2.1-0 | commonmark | 1.8.1 |
| compilador | 4.2.2 | configuração | 0.3.1 | cpp11 | 0.4.3 |
| giz de cera | 1.5.2 | credenciais | 1.3.2 | encurvar | 5.0.0 |
| Tabela de Dados | 1.14.6 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Descrição | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | hash | 0.6.31 | iluminação para baixo | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| reticências | 0.3.2 | avaliar | 0,20 | fansi | 1.0.4 |
| cores | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| para gatos | 1.0.0 | para cada | 1.5.2 | estrangeiro | 0.8-82 |
| forja | 0.2.0 | Fs | 1.6.1 | futuro | 1.31.0 |
| future.apply | 1.10.0 | gargarejar | 1.3.0 | genéricos | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globais | 0.16.2 |
| cola | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | elemento gráfico | 4.2.2 | grDevices | 4.2.2 |
| grade | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | capacete de segurança | 1.2.0 | refúgio | 2.5.1 |
| mais alto | 0,10 | Hms | 1.1.2 | ferramentas HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
| rotulagem | 0.4.2 | posterior | 1.3.0 | treliça | 0.20-45 |
| lava vulcânica | 1.7.1 | ciclo de vida | 1.0.3 | ouça | 0.9.0 |
| lubrificado | 1.9.1 | magrittr | 2.0.3 | redução de preço | 1.5 |
| MISSA | 7.3-58.2 | Matriz | 1.5-1 | memorizar | 2.0.1 |
| Métodos | 4.2.2 | mgcv | 1.8-41 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelador | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.5 | paralelo | 4.2.2 |
| paralelamente | 1.34.0 | coluna | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | profvis | 0.3.7 | progresso | 1.2.2 |
| progressr | 0.13.0 | Promessas | 1.2.0.1 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.2 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| Readr | 2.1.3 | readxl | 1.4.2 | Receitas | 1.0.4 |
| jogo de revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| exemplo reprodutível (reprex) | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | escamas | 1.2.1 |
| Seletor | 0.4-2 | informações de sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | espacial | 7.3-15 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.2.2 |
| estatísticas4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
| sobrevivência | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | formatação de texto | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | mudança de horário | 0.2.0 | data e hora | 4022.108 |
| tinytex | 0,44 | Ferramentas | 4.2.2 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
| utilitários | 4.2.2 | identificador único universal (UUID) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| vibrissa | 0.4.1 | murchar | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.3.7 | zíper | 2.2.2 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1.1-nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-nativos |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Sininho | 1.7.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1,15 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.0 |
| io.dropwizard.metrics | metrics-core | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | metrics-servlets | 4.2.10 |
| io.netty | Netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | Netty Resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1,3 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.29 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de seta | 11.0.0 |
| org.apache.arrow | seta-memória-core | 11.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 11.0.0 |
| org.apache.arrow | vetor de seta | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-calços | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,22% |
| org.apache.yetus | comentários da audiência | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
| org.eclipse.jetty | segurança do jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | servidor jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
| org.eclipse.jetty | Jetty Webapp | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey-comum | 2.36 |
| org.glassfish.jersey.core | jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Calços | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |