Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.2, alimentado pelo Apache Spark 3.4.0.
A Databricks lançou esta versão em julho de 2023.
Novos recursos e melhorias
- Ponto de verificação do changelog para armazenamento de estado RocksDB
- Maior fiabilidade para VACUUM com um clone raso no Unity Catalog.
- Suporte para Funções Definidas pelo Utilizador (UDFs) em Python no SQL
- Delta Lake UniForm para Apache Iceberg está em pré-visualização pública
- O agrupamento de líquidos do Delta Lake está em pré-visualização pública
- Suporte de arquivamento no Azure Databricks
- IDENTIFIER cláusula de apoio
- Suporte do catálogo Unity para Python e Pandas User-Defined Functions (UDFs)
- Compartilhar esquemas usando o Compartilhamento Delta
- Correções de erros
Ponto de verificação do changelog para armazenamento de estado RocksDB
Você pode habilitar o ponto de verificação do changelog para reduzir a duração do ponto de verificação e a latência de ponta a ponta para cargas de trabalho de Streaming Estruturado com monitoração de estado. O Databricks recomenda ativar o ponto de verificação do registo de alterações para todas as consultas com monitorização de estado de Transmissão em Fluxo Estruturada. Consulte Ativar verificação do ponto de controlo do changelog.
Confiabilidade aprimorada para VACUUM com clone superficial no Unity Catalog.
Quando você usa tabelas gerenciadas do Unity Catalog para a origem e o destino de uma operação de clone superficial, o Unity Catalog gerencia os arquivos de dados subjacentes para melhorar a confiabilidade da origem e do destino da operação de clone. A execução de VACUUM na origem de um clone superficial não quebra a tabela clonada. Veja clones superficiais do Vacuum and Unity Catalog.
Suporte para Python UDFs em SQL
Agora você pode declarar funções definidas pelo usuário usando Python dentro de instruções SQL CREATE FUNCTION no Unity Catalog. Consulte Funções definidas pelo usuário (UDFs) no Unity Catalog.
Delta Lake UniForm para Apache Iceberg está em versão beta pública
O Formato Universal Delta Lake (UniForm) permite que você leia tabelas Delta com clientes Apache Iceberg. Veja Ler tabelas Delta com clientes Iceberg.
O agrupamento de líquidos do Delta Lake está em pré-visualização pública
O clustering líquido do Delta Lake substitui o particionamento de tabelas e ZORDER para simplificar as decisões relacionadas ao layout de dados e otimizar o desempenho das consultas. Veja Utilizar clustering líquido para tabelas.
Suporte de arquivamento no Azure Databricks
O suporte de arquivamento no Azure Databricks apresenta uma coleção de recursos que permitem que você use políticas de ciclo de vida baseadas em nuvem no armazenamento de objetos em nuvem contendo tabelas Delta para mover arquivos para camadas de armazenamento de arquivamento. Consulte Suporte de arquivamento no Azure Databricks.
IDENTIFIER suporte a cláusulas
Use IDENTIFIER(:mytable) para parametrizar com segurança nomes de tabela, coluna, função e esquema em muitas instruções SQL.
Suporte do Catálogo Unity para Funções Definidas pelo Usuário em Python e Pandas (UDFs)
No Databricks Runtime 13.2 e superior, as funções definidas pelo usuário (UDFs) escritas em Python são suportadas em clusters que usam o modo de acesso padrão (anteriormente modo de acesso compartilhado) em um espaço de trabalho habilitado para Unity Catalog. Isso inclui as Funções Definidas pelo Usuário (UDFs) de Python e Pandas. Para obter detalhes sobre UDFs do Python, consulte Funções escalares definidas pelo usuário - Python.
Compartilhar esquemas usando o Compartilhamento Delta
O Databricks Runtime 13.2 adiciona a capacidade de usar ALTER SHARE <share-name> ADD SCHEMA <schema-name> para compartilhar um esquema inteiro usando o Compartilhamento Delta, dando ao destinatário acesso a todas as tabelas e exibições no esquema no momento em que você o compartilha, juntamente com quaisquer tabelas e exibições que forem adicionadas ao esquema no futuro. Consulte Adicionar esquemas a uma partilha e ALTER SHARE.
Correções de erros
- Corrigido um bug com o leitor JSON, onde os registros eram analisados no modo
PERMISSIVEsefailOnUnknownFieldsmodeestivesse habilitado. Os registos são agora descartados no modoDROPMALFORMEDparserou gravados nobadRecordsPath, caso alguma destas opções esteja configurada.FAILFASTlança um erro se um tipo de coluna não corresponder.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- nodeenv de 1.7.0 a 1.8.0
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- io.delta.delta-sharing-spark_2.12 de 0.6.7 a 0.7.0
Apache Spark
O Databricks Runtime 13.2 inclui o Apache Spark 3.4.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 13.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-42750] [SC-133452][dbrrm-273] Suporte para a instrução de inserção por nome
- [SPARK-43133] [SC-133728] Suporte para Scala Client DataStreamWriter Foreach
-
[SPARK-43663] [SC-134135][connect][PS] Ativar
SeriesParityTests.test_compare -
[SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Correção
(NullOps|NumOps).(eq|ne)para o Spark Connect. - [SPARK-44021] [SC-134109][sql] Adicionar spark.sql.files.maxPartitionNum
-
[SPARK-43910] [SC-132936][sql] Retirar
__auto_generated_subquery_namede ids em erros - [SPARK-43976] [SC-133375][core] Manipule o caso em que modifiedConfigs não existe nos logs de eventos
- [SPARK-32559] [SC-133992][sql] Corrigir a lógica de trim que não processou corretamente os caracteres de controle ASCII
- [SPARK-43421] [SC-132930][ss] Implementar o ponto de verificação baseado em Changelog para o provedor de armazenamento de estado RocksDB
- [SPARK-43594] [SC-133851][sql] Adicionar LocalDateTime a anyToMicros
- [SPARK-43884] [SC-133867] Marcadores de parâmetros em DDL
- [SPARK-43398] [SC-133894][core] O tempo limite do executor deve ser máximo de shuffle ocioso e tempo limite rdd
-
[SPARK-43610] [SC-133892][connect][PS] Ativar
InternalFrame.attach_distributed_columnno Spark Connect. - [SPARK-43971] [SC-133826][connect][PYTHON] Suportar createDataFrame do Python em modo de streaming
- [SPARK-44006] [SC-133652][connect][PYTHON] Suporta artefatos de cache
-
[SPARK-43790] [SC-133468][python][CONNECT][ml] Adicionar
copyFromLocalToFsAPI - [SPARK-43921] [SC-133461][protobuf] Gerar arquivos descritores Protobuf em tempo de compilação
- [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implemente o suporte a arquivos em SparkSession.addArtifacts
- [SPARK-44010] [SC-133744][python][SS][minor] Correção de tipo para rowsPerSecond em Python StreamingQueryProgress
- [SPARK-43768] [SC-132398][python][CONNECT] Suporte ao gerenciamento de dependência Python no Python Spark Connect
- [SPARK-43979] [13.X] Reverter "[SC-133456][sql] CollectedMetrics deve ser considerado como único na auto-junção"
- [SPARK-42290] [SC-133696][sql] Corrige o erro OOM que não consegue ser relatado quando AQE está ativado
- [SPARK-43943] [SC-133648][sql][PYTHON][connect] Adicionar funções matemáticas SQL ao Scala e Python
- [SPARK-43747] [SC-132047][python][CONNECT] Implemente o suporte pyfile em SparkSession.addArtifacts
-
[SPARK-43700] [SC-133726][spark-43701][CONNECT][ps] Ativar
TimedeltaOps.(sub|rsub)com o Spark Connect -
[SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Ativar teste de paridade:
test_line_plot,test_pie_plot. - [SPARK-43867] [SC-132895][sql] Melhorar candidatos sugeridos para atributo não resolvido
- [SPARK-43901] [SC-133454][sql] Avro para suportar o tipo decimal personalizado apoiado por Long
- [SPARK-43267] [SC-133024][jdbc] Manipular coluna definida pelo usuário desconhecida do postgres como string na matriz
- [SPARK-43935] [SC-133637][sql][PYTHON][connect] Adicionar funções xpath_* ao Scala e Python
- [SPARK-43916] [SC-133647][sql][PYTHON][connect] Adicionar percentil à API Scala e Python
- [SPARK-43717] [SC-133455][connect] Cliente Scala redução agg não consegue lidar com partições nulas para entradas primitivas em Scala
-
[SPARK-43984] [SC-133469][sql][PROTOBUF] Alterar para usar
foreachquandomapnão produz resultados - [SPARK-43612] [SC-132011][connect][PYTHON] Implementar SparkSession.addArtifact(s) no cliente de Python
- [SPARK-44002] [SC-133606][connect] Corrigir o manipulador de status de artefato
- [SPARK-43933] [SC-133470][sql][PYTHON][connect] Adicionar funções de regressão linear agregada ao Scala e Python
- [SPARK-43920] [SC-133614][sql][CONNECT] Criar módulo sql/api
- [SPARK-43979] [SC-133456][sql] CollectedMetrics deve ser tratado como um só para auto-junção
-
[SPARK-43977] [SC-133373][connect] Corrigir resultado de verificação inesperada de
dev/connect-jvm-client-mima-check - [SPARK-43985] [SC-133412][protobuf] corrigir o bug dos enums como inteiros no spark protobuf
- [SPARK-43930] [SC-133406][sql][PYTHON][connect] Adicionar funções unix_* ao Scala e Python
- [SPARK-43807] [SC-132545][sql] Migrar _LEGACY_ERROR_TEMP_1269 para PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [SC-133123][sql] Corrigir o erro que não exibe o SQL da coluna para Percentil[Cont|Disc]
- [SPARK-42626] [SC-133248][connect] Adicionar iterador destrutivo para SparkResult
- [SPARK-43333] [SC-132898][sql] Permitir que o Avro converta o tipo union em SQL, mantendo o nome do campo estável com o tipo
-
[SPARK-43953] [SC-133134][connect] Remover
pass - [SPARK-43970] [SC-133403][python][CONNECT] Ocultar métodos de dataframe não suportados do preenchimento automático
- [SPARK-43973] [SC-133272][ss][UI] A interface do usuário de streaming estruturado deve exibir consultas com falha corretamente
- [SPARK-42577] [SC-125445][core] Adicione a limitação máxima de tentativas para estágios para evitar possíveis tentativas infinitas
-
[SPARK-43841] [SC-132699][sql] Gerir atributos candidatos sem prefixo
StringUtils#orderSuggestedIdentifiersBySimilarity -
[SPARK-41497] [SC-124795][core][Follow UP]Modifique a versão de suporte de configuração
spark.rdd.cache.visibilityTracking.enabledpara 3.5.0 - [SPARK-37942] [SC-130983][core][SQL] Migrar classes de erro
-
[SPARK-43898] [SC-132926][core] Registar automaticamente
immutable.ArraySeq$ofRefparaKryoSerializerScala 2.13 - [SPARK-43775] [SC-132891][sql] DataSource V2: Permite representar atualizações como exclusões e inserções
- [SPARK-43817] [SC-132662][spark-43702][PYTHON] Implementar suporte para UserDefinedType na função createDataFrame a partir de pandas DataFrame e toPandas
- [SPARK-43418] [SC-132753][sc-130685][CONNECT] Adicionar SparkSession.Builder.getOrCreate
- [SPARK-43549] [SC-132383][sql] Converter _LEGACY_ERROR_TEMP_0036 para INVALID_SQL_SYNTAX. ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [SC-124644][core] Corrigindo a subcontagem do acumulador no caso de tarefa reexperimentada com cache RDD
-
[SPARK-43892] [SC-133006][python] Adicionar suporte de preenchimento automático para
df[|]inpyspark.sql.dataframe.DataFrame - [SPARK-43881] [SC-133140][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listDatabases
- [SPARK-43205] [SC-132623] IDENTIFIER cláusula
- [SPARK-43545] [SC-132378][sql][PYTHON] Suporte para tipo de timestamp aninhado
- [SPARK-43949] [SC-133048][python] Atualize o cloudpickle para 2.2.1
- [SPARK-43760] [SC-132809][sql] Possibilidade de nulidade dos resultados da subconsulta escalar
-
[SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Correção
TimedeltaOpspara o Spark Connect - [SPARK-43895] [SC-132897][connect][GO] Prepare o caminho do pacote Go
- [SPARK-43894] [SC-132892][python] Corrigir bug em df.cache()
- [SPARK-43509] [SC-131625][connect] Suporte Criação de várias sessões do Spark Connect
- [SPARK-43882] [SC-132888][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2122
-
[SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Correção
NumOpspara o Spark Connect -
[SPARK-43604] [SC-132165][sql] Refatora
INVALID_SQL_SYNTAXpara evitar incorporar texto de erro no código-fonte - [SPARK-43859] [SC-132883][sql] Sobrescrever toString em LateralColumnAliasReference
- [SPARK-43792] [SC-132939][sql][PYTHON][connect] Adicionar padrão opcional para Catalog.listCatalogs
- [SPARK-43353] Reverter "[SC-132734][python] Regredir os erros de sessão restantes para a classe de erro"
- [SPARK-43375] [SC-130309][connect] Melhorar as mensagens de erro para INVALID_CONNECT_URL
-
[SPARK-43863] [SC-132721][connect] Remover redundância do
toSeqparaSparkConnectPlannerScala 2.13 -
[SPARK-43676] [SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Correção
DatetimeOpspara o Spark Connect -
[SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Correção
BinaryOpspara o Spark Connect -
[SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Correção
NullOpspara o Spark Connect - [SPARK-43782] [SC-132885][core] Suporta configuração de nível de log com conf estático do Spark
- [SPARK-43132] [SC-131623] [SS] [CONECTAR] Python Client DataStreamWriter API foreach()
- [SPARK-43290] [SC-131961][sql] Adiciona suporte a AES IV e AAD ao ExpressionImplUtils
- [SPARK-43795] [SC-132532][connect] Remover parâmetros não usados para SparkConnectPlanner
- [SPARK-42317] [SC-129194][sql] Atribua nome a _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [SC-131960][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_0017
-
[SPARK-43834] [SC-132679][sql] Use classes de erro nos erros de compilação de
ResolveDefaultColumns - [SPARK-43749] [SC-132423][spark-43750][SQL] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_240[4-5]
- [SPARK-43576] [SC-132533][core] Remover declarações não utilizadas do módulo Core
- [SPARK-43314] [SC-129970][connect][PYTHON] Migrar erros do cliente Spark Connect para a classe de erro
- [SPARK-43799] [SC-132715][python] Adicionar opção binária do descritor à API do Pyspark Protobuf
- [SPARK-43837] [SC-132678][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_103[1-2]
- [SPARK-43862] [SC-132750][sql] Atribua um nome à classe de erro LEGACY_ERROR_TEMP(1254 & 1315)
- [SPARK-43886] [SC-132808][python] Aceitar tupla genérica como dicas de digitação de Pandas UDF
- [SPARK-43530] [SC-132653][protobuf] Leia o arquivo descritor apenas uma vez
- [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_241[1-7]
-
[SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Correção
CategoricalOpspara o Spark Connect - [SPARK-39979] [SC-132685][sql] Adicionar opção para usar vetores de largura variável grande para operações UDF de seta
-
[SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Correção
StringOpspara o Spark Connect - [SPARK-43353] [SC-132734][python] Migrar os erros de sessão restantes para a classe de erros
-
[SPARK-43815] [SC-132781][sql] Adicionar
to_varcharalias parato_char - [SPARK-43543] [13.x][sc-131839][PYTHON] Corrigir o comportamento MapType aninhado no Pandas UDF
- [SPARK-43361] [SC-131789][protobuf] atualizar a documentação para erros relacionados com a serialização de enum
-
[SPARK-43740] [SC-132035][python][CONNECT] Ocultar métodos não suportados
sessiondo preenchimento automático - [SPARK-43022] [SC-131681][connect] Suportar funções protobuf para o cliente Scala
-
[SPARK-43304] [13.x][sc-129969][CONNECT][python] Migrar
NotImplementedErrorparaPySparkNotImplementedError - [SPARK-43860] [SC-132713][sql] Ative a recursão de cauda sempre que possível
- [SPARK-42421] [SC-132695][core] Use os utils para obter o switch para alocação dinâmica usado no ponto de verificação local
-
[SPARK-43590] [SC-132012][conectar] Implementar
connect-jvm-client-mima-checkpara suportar verificação mima com o móduloprotobuf - [SPARK-43315] [13.x][connect][PYTHON][ss] Migrar erros restantes de DataFrame(Reader|Writer) para a classe de erros
- [SPARK-43361] [SC-130980][protobuf] faísca-protobuf: permitir serde com enum como ints
- [SPARK-43789] [SC-132397][r] Usa 'spark.sql.execution.arrow.maxRecordsPerBatch' em createDataFrame do R com Arrow por padrão
- [SPARK-43596] [SC-126994][sql] Processar o predicado IsNull em rewriteDomainJoins
- [SPARK-42249] [SC-122565][sql] Aperfeiçoando o link HTML para a documentação em mensagens de erro.
-
[SPARK-43128] [SC-131628][connect][SS] Faça
recentProgresselastProgressretorneStreamingQueryProgressconsistentes com a Api Scala nativa - [SPARK-43387] [SC-130448][sql] Forneça um código de erro legível por humanos para _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [UI] Corrigir erro ao serializar ExecutorPeakMetricsDistributions na resposta da API
-
[SPARK-42958] [SC-131475][connect] Refatorar
connect-jvm-client-mima-checkpara suportar o mima check com o módulo avro - [SPARK-43591] [SC-131977][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_0013
- [SPARK-38464] [SC-132211][core] Usar classes de erro em org.apache.spark.io
- [SPARK-43759] [SC-132189][sql][PYTHON] Disponibilizar TimestampNTZType em pyspark.sql.types
- [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Atribuir nomes à classe de erro _LEGACY_ERROR_TEMP_240[1-3]
-
[SPARK-43719] [SC-132016][webui] Manipular campo
missing row.excludedInStages - [SPARK-42956] [SC-127257][connect] Suportar funções avro para o cliente Scala
- [SPARK-43487] [SC-131975][sql] Corrigir mensagem de erro de CTE aninhada
- [FAÍSCA-43265] [SC-129653] Mover a estrutura de erros para um módulo comum de utilitários
- [SPARK-40912] [SC-131547][core]Sobrecarga de exceções no KryoDeserializationStream
- [SPARK-43583] [SC-131976][core] obter MergedBlockedMetaReqHandler a partir do delegado em vez da instância SaslRpcHandler
- [SPARK-42996] [SC-131997][connect][PS][ml] Criar & atribuir tíquetes JIRA adequados para todos os testes com falha.
- [SPARK-38469] [SC-131425][core] Use a classe de erro em org.apache.spark.network
- [SPARK-43718] [SC-132014][sql] Definir anulável corretamente para chaves em USING junções
-
[SPARK-43502] [SC-131419][python][CONNECT]
DataFrame.dropdeve aceitar coluna vazia - [SPARK-43743] [SC-132038][sql] Porta HIVE-12188 (DoAs não funciona corretamente em HS2 não protegido por kerberos)
- [SPARK-43598] [SC-131929][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_2400
- [SPARK-43138] [SC-131031][core] Corrigir ClassNotFoundException durante a migração
- [SPARK-43360] [SC-131526][ss][CONNECT] Cliente Scala StreamingQueryManager
- [SPARK-38467] [SC-131025][core] Use classes de erro em org.apache.spark.memory
- [SPARK-43345] [SC-131790][spark-43346][SQL] Renomeie as classes de erro LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [SC-126450][sql] Suporte para eliminação de subexpressão em expressões de atalho
- [SPARK-38462] [SC-130449][core] Adicionar classe de erro INTERNAL_ERROR_EXECUTOR
-
[SPARK-43589] [SC-131798][sql] Corrigir
cannotBroadcastTableOverMaxTableBytesErrorpara usarbytesToString - [SPARK-43539] [SC-131830][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_0003
- [SPARK-43157] [SC-131688][sql] Clone InMemoryRelation plano armazenado em cache para impedir que o plano clonado faça referência aos mesmos objetos
- [SPARK-43309] [SC-129746][spark-38461][CORE] Estenda INTERNAL_ERROR com categorias e adicione classe de erro INTERNAL_ERROR_BROADCAST
- [SPARK-43281] [SC-131370][sql] Resolver problema de gravador simultâneo que não atualiza métricas de arquivo
-
[SPARK-43383] [SC-130660][sql] Adicionar
rowCountestatísticas a LocalRelation - [SPARK-43574] [SC-131739][python][SQL] Suporte para definir o executável Python para APIs de função UDF e pandas em trabalhadores no runtime
- [SPARK-43569] [SC-131694][sql] Remover solução alternativa para HADOOP-14067
- [SPARK-43183] [SC-128938][ss][13.x] Introduza um novo callback "onQueryIdle" para StreamingQueryListener
- [SPARK-43528] [SC-131531][sql][PYTHON] Suporta nomes de campos duplicados em createDataFrame com pandas DataFrame
- [SPARK-43548] [SC-131686][ss] Remover solução alternativa para HADOOP-16255
-
[SPARK-43494] [SC-131272][core] Chamar
replicate()diretamente paraHdfsDataOutputStreamBuilderem vez de usar reflexão emSparkHadoopUtil#createFile - [SPARK-43471] [SC-131063][core] Tratar hadoopProperties e metricsProperties ausentes
- [SPARK-42899] [SC-126456][sql] Corrigir DataFrame.to(esquema) para lidar com o caso em que existe um campo aninhado não anulável dentro de um campo anulável
- [SPARK-43302] [SC-129747][sql] Tornar Python UDAF uma AggregateFunction
- [SPARK-43223] [SC-131270][connect] Digitado agg, reduzir funções, RelationalGroupedDataset#as
- [SPARK-43482] [SC-131375][ss] Expanda QueryTerminatedEvent para conter a classe de erro se existir na exceção
- [SPARK-43359] [SC-131463][sql] Excluir da tabela Hive deveria gerar "UNSUPPORTED_FEATURE.TABLE_OPERATION"
- [SPARK-43284] [SC-130313] Voltar para cadeias de caracteres codificadas por URL
-
[SPARK-43492] [SC-131227][sql] Adicionar aliases de funções com 3 argumentos
DATE_ADDeDATE_DIFF - [SPARK-43473] [SC-131372][python] Suporte para o tipo struct no createDataFrame a partir do pandas DataFrame
-
[SPARK-43386] [SC-131110][sql] Melhorar a lista de colunas/atributos sugeridos na
UNRESOLVED_COLUMN.WITH_SUGGESTIONclasse de erro - [SPARK-43443] [SC-131332][sql] Adicionar benchmark para inferência de tipo Timestamp ao usar um valor inválido
-
[SPARK-43518] [SC-131420][sql] Converter
_LEGACY_ERROR_TEMP_2029para o INTERNAL_ERROR - [SPARK-42604] [SC-130648][connect] Implementar a função functions.typedlit
-
[SPARK-42323] [ES-669513] Reverter "[SC-123479][sql] Atribuir nome a
_LEGACY_ERROR_TEMP_2332" - [SPARK-43357] [SC-130649][sql] Data do filtro Data da cotação do tipo
- [SPARK-43410] [SC-130526][sql] Melhorar o loop vetorizado para skipValues embalados
-
[SPARK-43441] [SC-130995][core]
makeDotNodenão deve falhar quando DeterministicLevel está ausente - [SPARK-43324] [SC-130455][sql] Manipular UPDATE comandos para fontes baseadas em delta
-
[SPARK-43272] [SC-131168][core] Chamar
createFilediretamente em vez de reflexão - [SPARK-43296] [13.x][sc-130627][CONNECT][python] Migrar erros de sessão do Spark Connect para a classe de erro
-
[SPARK-43405] [SC-130987][sql] Remover inútil
getRowFormatSQL,inputRowFormatSQL,outputRowFormatSQLmétodo - [SPARK-43447] [SC-131017][r] Suporte R 4.3.0
-
[SPARK-43425] [SC-130981][sql] Adicionar
TimestampNTZTypeaColumnarBatchRow - [SPARK-41532] [SC-130523][connect][CLIENT] Adicionar verificação para operações que envolvem vários quadros de dados
- [SPARK-43262] [SC-129270][connect][SS][python] Migrar erros de streaming estruturado do Spark Connect para a classe de erro
- [SPARK-42992] [13.x][sc-129465][PYTHON] Apresenta PySparkRuntimeError
- [SPARK-43422] [SC-130982][sql] Manter tags em LogicalRelation com saída de metadados
- [SPARK-43390] [SC-130646][sql] O DSv2 permite que o CTAS/RTAS reserve a anulabilidade do esquema
- [SPARK-43430] [SC-130989][connect][PROTO] ExecutePlanRequest suporta opções de solicitação arbitrária.
- [SPARK-43313] [SC-130254][sql] Adicionando valores DEFAULT de coluna ausentes para ações MERGE INSERT
- [SPARK-42842] [SC-130438][sql] Mesclar a classe de erro _LEGACY_ERROR_TEMP_2006 em REGEX_GROUP_INDEX
-
[SPARK-43377] [SC-130405][sql] Ativar
spark.sql.thriftServer.interruptOnCancelpor padrão -
[SPARK-43292] [SC-130525][core][CONNECT] Transferir
ExecutorClassLoaderpara o módulocoree simplificarExecutor#addReplClassLoaderIfNeeded - [SPARK-43040] [SC-130310][sql] Melhorar o suporte ao tipo TimestampNTZ na fonte de dados JDBC
- [SPARK-43343] [SC-130629][ss] FileStreamSource deve desativar uma verificação adicional de padrões de ficheiro ao criar a fonte de dados
- [SPARK-43312] [SC-130294][protobuf] Opção para converter quaisquer campos em JSON
- [SPARK-43404] [SC-130586][ss] Ignorar a reutilização do arquivo sst para a mesma versão do armazenamento de estado RocksDB para evitar erro de incompatibilidade de id
-
[SPARK-43397] [SC-130614][core] Registar a duração do descomissionamento do executor no método
executorLost - [SPARK-42388] [SC-128568][sql] Evite leituras de rodapé de parquet duas vezes no leitor vetorizado
- [SPARK-43306] [13.x][sc-130320][PYTHON] Migrar ValueError de tipos SQL do Spark para a classe de erro
- [SPARK-43337] [SC-130353][ui][3.4] Os ícones de seta Asc/desc para a coluna de classificação não são exibidos na coluna da tabela
-
[SPARK-43279] [SC-130351][core] Limpeza de membros não utilizados de
SparkHadoopUtil -
[SPARK-43250] [SC-130147][sql] Substitua a classe
_LEGACY_ERROR_TEMP_2014de erro por um erro interno -
[SPARK-43363] [SC-130299][sql][PYTHON] Faça com que chame para
astypeo tipo de categoria somente quando o tipo de seta não for fornecido -
[SPARK-43261] [SC-130154][python] Migrar
TypeErrorde tipos SQL do Spark para a classe de erro - [SPARK-41971] [SC-130230][sql][PYTHON] Adicionar uma configuração para conversão de pandas como lidar com tipos struct
- [SPARK-43381] [SC-130464][connect] Faça 'transformStatCov' preguiçoso
- [SPARK-43362] [SC-130481][sql] Tratamento especial do tipo JSON para conector MySQL
- [SPARK-42843] [SC-130196][sql] Atualize a classe de erro _LEGACY_ERROR_TEMP_2007 para REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968][connect] Streaming de relações locais
-
[SPARK-43181] [SC-130476][sql] Mostrar URL da UI Web no
spark-sqlshell - [SPARK-43051] [SC-130194][connect] Adicionar opção para emitir valores padrão
- [SPARK-43204] [SC-129296][sql] Alinhar atribuições MERGE com atributos de tabela
-
[SPARK-43348] [SC-130082][python] Suporte
Python 3.8em PyPy3 - [SPARK-42845] [SC-130078][sql] Atualize a classe de erro _LEGACY_ERROR_TEMP_2010 para InternalError
- [SPARK-43211] [SC-128978][hive] Remover suporte a Hadoop2 em IsolatedClientLoader
Ambiente do sistema
- Sistema Operacional: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Escala: 2.12.15
- Píton: 3.10.12
- R: 4.2.2
- Lago Delta: 2.4.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Appdirs | 1.4.4 | Argão2-CFFI | 21.3.0 | argon2-cffi-vinculações | 21.2.0 |
| AstTokens | 2.2.1 | ATRs | 21.4.0 | retorno de chamada | 0.2.0 |
| BeautifulSoup4 | 4.11.1 | preto | 22.6.0 | lixívia | 4.1.0 |
| pisca | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.28 |
| certifi | 2022.9.14 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Normalizador de Charset | 2.0.4 | clicar | 8.0.4 | criptografia | 37.0.1 |
| ciclador | 0.11.0 | Cython | 0.29.32 | Databricks-SDK | 0.1.6 |
| dbus-python | 1.2.18 | depuração | 1.5.1 | decorador | 5.1.1 |
| DeUsedXML | 0.7.1 | Distlib | 0.3.6 | docstring para markdown | 0,12 |
| pontos de entrada | 0.4 | executando | 1.2.0 | facetas-visão geral | 1.0.3 |
| fastjsonschema (biblioteca para validação rápida de esquemas JSON) | 2.16.3 | bloqueio de ficheiro | 3.12.0 | Fonttools | 4.25.0 |
| googleapis-comuns-protos | 1.56.4 | Grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.3 | importlib-metadados | 4.6.4 |
| Ipykernel | 6.17.1 | IPython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | Jeepney (um tipo de transporte público popular nas Filipinas) | 0.7.1 |
| Jinja2 | 2.11.3 | JmesPath | 0.10.0 | Joblib | 1.2.0 |
| jsonschema | 4.16.0 | Jupyter Client | 7.3.4 | jupyter_core | 4.11.2 |
| Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | porta-chaves | 23.5.0 |
| Kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | Marcação Segura | 2.0.1 | Matplotlib | 3.5.2 |
| matplotlib inline | 0.1.6 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
| mais-itertools | 8.10.0 | mypy extensions | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | Ninho-Asyncio | 1.5.5 |
| nodeenv | 1.8.0 | bloco de notas | 6.4.12 | dormência | 1.21.5 |
| OAuthlib | 3.2.0 | embalagem | 21,3 | pandas | 1.4.4 |
| PandocFilters | 1.5.0 | Parso | 0.8.3 | PathSpec | 0.9.0 |
| bode expiatório | 0.5.2 | Espere | 4.8.0 | pickleshare | 0.7.5 |
| Almofada | 9.2.0 | pip (o gestor de pacotes do Python) | 22.2.2 | plataformadirs | 2.5.2 |
| enredo | 5.9.0 | Pluggy | 1.0.0 | Prometheus-Cliente | 0.14.1 |
| kit de ferramentas de prompt | 3.0.36 | Protobuf | 3.19.4 | PSUTIL | 5.9.0 |
| PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 8.0.0 | Pycparser | 2.21 | Pidântico | 1.10.6 |
| Pyflakes | 3.0.1 | Pigmentos | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | Pyodbc | 4.0.32 | Pyparsing | 3.0.9 |
| Pyright | 1.1.294 | pirsistent | 0.18.0 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-servidor | 1.7.1 | pytoolconfig | 1.2.2 |
| Pytz | 2022.1 | Pyzmq | 23.2.0 | pedidos | 2.28.1 |
| corda | 1.7.0 | s3transferência | 0.6.0 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.1.1 |
| SciPy | 1.9.1 | nascido no mar | 0.11.2 | Armazenamento Secreto | 3.3.1 |
| Enviar para Lixo | 1.8.0 | Ferramentas de configuração | 63.4.1 | seis | 1.16.0 |
| Soupsieve | 2.3.1 | ssh-import-id | 5.11 | dados do stack | 0.6.2 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.13.2 | tenacidade | 8.1.0 | terminado | 0.13.1 |
| caminho de teste | 0.6.0 | ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 |
| Tomli | 2.0.1 | tornado | 6.1 | traços | 5.1.1 |
| typing_extensions (extensões de digitação) | 4.3.0 | Ujson | 5.4.0 | Atualizações automáticas | 0.1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | WebEncodings | 0.5.1 | whatthepatch (ferramenta para comparação de patches) | 1.0.2 |
| wheel | 0.37.1 | widgetsnbextension | 3.6.1 | Yapf | 0.31.0 |
| zipp | | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas pela Microsoft a partir de um instantâneo do CRAN em 2023-02-10.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 10.0.1 | AskPass | 1.1 | asserçãoat | 0.2.1 |
| retroportações | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| pouco | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
| arranque | 1.3-28 | preparar | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.3 | BSLIB | 0.4.2 | cachemira | 1.0.6 |
| Chamador | 3.7.3 | Caret | 6.0-93 | Cellranger | 1.1.0 |
| crono | 2.3-59 | classe | 7.3-21 | CLI | 3.6.0 |
| Clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
| CodeTools | 0.2-19 | espaço em cores | 2.1-0 | marca comum | 1.8.1 |
| compilador | 4.2.2 | configuração | 0.3.1 | CPP11 | 0.4.3 |
| lápis de cor | 1.5.2 | credenciais | 1.3.2 | encaracolar | 5.0.0 |
| tabela de dados | 1.14.6 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
| DBPlyr | 2.3.0 | descrição | 1.4.2 | DevTools | 2.4.5 |
| diffobj | 0.3.5 | resumo | 0.6.31 | Iluminação reduzida | 0.4.2 |
| DPLYR | 1.1.0 | DTPlyr | 1.2.2 | E1071 | 1.7-13 |
| reticências | 0.3.2 | avaliar | 0.20 | Fãsi | 1.0.4 |
| Farver | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| FORCATS | 1.0.0 | para cada | 1.5.2 | externa | 0.8-82 |
| forjar | 0.2.0 | FS | 1.6.1 | Futuro | 1.31.0 |
| futuro.apply | 1.10.0 | gargarejo | 1.3.0 | genérico | 0.1.3 |
| Gert | 1.9.2 | GGPLOT2 | 3.4.0 | GH | 1.3.1 |
| gitcreds | 0.1.2 | GLMNET | 4.1-6 | Globais | 0.16.2 |
| cola | 1.6.2 | GoogleDrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | gráficos | 4.2.2 | grDispositivos | 4.2.2 |
| grelha | 4.2.2 | gridExtra | 2.3 | GSUBFN | 0,7 |
| tabela g | 0.3.1 | capacete de segurança | 1.2.0 | Refúgio | 2.5.1 |
| mais alto | 0.10 | HMS | 1.1.2 | htmltools | 0.5.4 |
| htmlwidgets (componentes HTML interativos) | 1.6.1 | httpuv | 1.6.8 | HTTR | 1.4.4 |
| identificações | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| Isoband | 0.2.7 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | Knitr | 1.42 |
| etiquetagem | 0.4.2 | mais tarde | 1.3.0 | treliça | 0.20-45 |
| lave | 1.7.1 | ciclo de vida | 1.0.3 | ouvirv | 0.9.0 |
| lubridato | 1.9.1 | Magrittr | 2.0.3 | Marcação | 1.5 |
| MASSA | 7.3-58.2 | Matriz | 1.5-1 | memorização | 2.0.1 |
| métodos | 4.2.2 | MGCV | 1.8-41 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.10 |
| Munsell | 0.5.0 | NLME | 3.1-162 | NNET | 7.3-18 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.5 | paralelo | 4.2.2 |
| Paralelamente | 1.34.0 | pilar | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | Plyr | 1.8.8 | elogiar | 1.0.0 |
| unidades bonitas | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | Profvis | 0.3.7 | Progresso | 1.2.2 |
| progressor | 0.13.0 | promessas | 1.2.0.1 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.2 | ronronar | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.5 |
| Floresta Aleatória | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| Leitor | 2.1.3 | ReadXL | 1.4.2 | receitas | 1.0.4 |
| revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| Reprex | 2.0.2 | remodelar2 | 1.4.4 | Rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | oxigénio2 | 7.2.3 |
| rpart (função de partição recursiva em R) | 4.1.19 | rprojroot | 2.0.3 | Reserva | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | versões | 2.1.2 |
| Rvest | 1.0.3 | Sass | 0.4.5 | escalas | 1.2.1 |
| seletor | 0.4-2 | informação de sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4 | ferramentas de código fonte | 0.1.7-1 | Brilho | 1.7.9 |
| Faísca | 3.4.0 | espacial | 7.3-15 | estrias | 4.2.2 |
| sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.2.2 |
| estatísticas4 | 4.2.2 | string | 1.7.12 | stringr | 1.5.0 |
| sobrevivência | 3.5-3 | Sistema | 3.4.1 | fontes do sistema | 1.0.4 |
| tcltk (uma linguagem de programação) | 4.2.2 | teste que | 3.1.6 | formatação de texto | 0.3.6 |
| Tibble | 3.1.8 | Tidyr | 1.3.0 | arrumadoselecionar | 1.2.0 |
| Tidyverse | 1.3.2 | mudança de hora | 0.2.0 | data e hora | 4022.108 |
| Tinytex | 0.44 | ferramentas | 4.2.2 | TZDB | 0.3.0 |
| verificador de URLs | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.3 |
| utilitários | 4.2.2 | identificador único universal (uuid) | 1.1-0 | VCTRS | 0.5.2 |
| viridisLite | 0.4.1 | vrum | 1.6.1 | Waldo | 0.4.0 |
| vibrissa | 0.4.1 | murchar | 2.5.0 | xfun | 0,37 |
| XML2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | ZIP | 2.2.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | AWS Java SDK para SES | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.390 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.14.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | módulo-jackson-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | Anotações propensas a erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 2.1.214 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1,15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| carregamento-de-ficheiros-comuns | carregamento-de-ficheiros-comuns | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.21 |
| IO.Delta | delta-compartilhamento-spark_2.12 | 0.7.0 |
| io.dropwizard.metrics | métricas-base | 4.2.10 |
| io.dropwizard.metrics | métricas-grafite | 4.2.10 |
| io.dropwizard.metrics | verificações de saúde de métricas | 4.2.10 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.10 |
| io.dropwizard.metrics | métricas-JMX | 4.2.10 |
| io.dropwizard.metrics | métricas-json | 4.2.10 |
| io.dropwizard.metrics | métricas do JVM | 4.2.10 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.10 |
| io.netty | netty-tudo | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-meias | 4.1.87.Final |
| io.netty | netty-comum | 4.1.87.Final |
| io.netty | netty-manipulador | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.87.Final |
| io.netty | Netty-Transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.87.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | picles | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.29 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ANT-JSCH | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de seta | 11.0.0 |
| org.apache.arrow | seta-memória-núcleo | 11.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 11.0.0 |
| org.apache.arrow | vetor de seta | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | AVRO-IPC | 1.11.1 |
| org.apache.avro | avro-mapeado | 1.11.1 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.21 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | curador-receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | hive-adaptadores-agendador | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-protobuf sombreado |
| org.apache.orc | núcleo de orc | 1.8.3-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.8.3-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.22 |
| org.apache.yetus | anotações de audiência | 0.13.0 |
| org.apache.zookeeper | Tratador de Animais | 3.6.3 |
| org.apache.zookeeper | tratador-do-zoológico-juta | 3.6.3 |
| org.checkerframework | verificador de qualidade | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.50.v20221201 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.50.v20221201 |
| org.eclipse.píer | Jetty-HTTP | 9.4.50.v20221201 |
| org.eclipse.píer | Molhe IO | 9.4.50.v20221201 |
| org.eclipse.píer | Jetty-JNDI | 9.4.50.v20221201 |
| org.eclipse.píer | Cais-Plus | 9.4.50.v20221201 |
| org.eclipse.píer | Jetty-Proxy | 9.4.50.v20221201 |
| org.eclipse.píer | Segurança do Jetty | 9.4.50.v20221201 |
| org.eclipse.píer | servidor Jetty | 9.4.50.v20221201 |
| org.eclipse.píer | Jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.píer | Jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.píer | Jetty-util | 9.4.50.v20221201 |
| org.eclipse.píer | cais-util-ajax | 9.4.50.v20221201 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.50.v20221201 |
| org.eclipse.píer | Jetty-XML | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-cliente | 2,36 |
| org.glassfish.jersey.core | Jersey comum | 2,36 |
| org.glassfish.jersey.core | servidor de jersey | 2,36 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2,36 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-log de eventos | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.7.4 |
| org.mlflow | mlflow-Spark | 2.2.0 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | calços | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.6 |
| org.slf4j | jul-para-slf4j | 2.0.6 |
| org.slf4j | SLF4J-API | 2.0.6 |
| org.threeten | ThreeTen-Extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.8.4 |
| org.yaml | Snakeyaml | 1.33 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |