Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.1, da plataforma Apache Spark 3.4.0.
O Databricks lançou essa versão em maio de 2023.
Novos recursos e aprimoramentos
- Suporte ao cluster para o JDK 17 (Visualização Pública)
- Adicionar, alterar ou excluir dados em tabelas de streaming
- Ler Kafka com SQL
- Novas funções internas do SQL
- Suporte do Catálogo do Unity para bibliotecas do Python no escopo do cluster
- Habilitação padrão expandida para gravações otimizadas no Catálogo do Unity
- Suporte avançado para operadores com estado em cargas de trabalho de Streaming Estruturado
- O clone delta do Catálogo do Unity está em versão prévia pública
- Suporte de Pub/Sub para Streaming Estruturado
- Remover duplicatas dentro de marcas d'água no Streaming Estruturado
- Suporte expandido para conversões Delta de tabelas do Apache Iceberg com colunas de partição truncadas
- Alterações de esquema de streaming com mapeamento de coluna no Delta Lake
- Remover VERSÃO INICIAL
- Novas expressões H3 disponíveis com Python
Suporte ao cluster para JDK 17 (Visualização Pública)
O Databricks agora fornece suporte de cluster para o Kit de Desenvolvimento do Java (JDK) 17. Consulte o SDK do Databricks para Java.
Adicionar, alterar ou excluir dados em tabelas de streaming
Agora você pode usar instruções DML para modificar tabelas de streaming publicadas no Catálogo do Unity pelo Lakeflow Spark Declarative Pipelines. Confira Adicionar, alterar ou excluir dados em uma tabela de streaming e Adicionar, alterar ou excluir dados em uma tabela de streaming de destino. Você também pode usar instruções DML para modificar tabelas de streaming criadas no Databricks SQL.
Ler Kafka com SQL
Agora você pode usar a função SQL read_kafka para ler dados Kafka. O streaming com SQL tem suporte apenas em DLT ou com tabelas de streaming no Databricks SQL. Consulte TVF read_kafka.
Novas funções internas do SQL
As seguintes funções foram adicionadas:
-
array_prepend(array, elem) Retorna
arrayprecedido porelem. -
try_aes_decrypt(expr, key [, mode [, padding]]) Descriptografa um binário produzido usando a criptografia AES e retorna
NULLse houver um erro. - sql_keywords() Retorna uma tabela de palavras-chave do SQL do Azure Databricks.
Suporte do Catálogo do Unity para bibliotecas do Python no escopo do cluster
O Catálogo do Unity tem algumas limitações no uso da biblioteca. No Databricks Runtime 13.1 e superior, há suporte para bibliotecas Python com escopo de cluster, incluindo arquivos de roda Python que são carregados como arquivos de espaço de trabalho. Não há suporte para bibliotecas referenciadas usando caminhos de arquivo DBFS, seja na raiz do DBFS ou em um local externo montado no DBFS. Não há suporte para bibliotecas não Python. Consulte bibliotecas com escopo de computação.
No Databricks Runtime 13.0 e abaixo, bibliotecas com escopo de cluster não são suportadas em clusters que usam o modo de acesso padrão (antigo modo de acesso compartilhado) em um workspace habilitado para o Unity Catalog.
Habilitação padrão expandida para gravações otimizadas no Catálogo do Unity
O suporte de gravação otimizado padrão para tabelas Delta registradas no Catálogo do Unity foi expandido para incluir instruções CTAS e operações INSERT para tabelas particionadas. Esse comportamento se alinha aos padrões em SQL warehouses. Consulte Gravações otimizadas para o Delta Lake no Azure Databricks.
Suporte avançado para operadores com estado em cargas de trabalho de Streaming Estruturado
Agora você pode encadear vários operadores com estado, o que significa que você pode alimentar a saída de uma operação, como uma agregação em janelas para outra operação com estado, como uma junção. Confira O que é streaming com estado?.
O clone delta do Catálogo do Unity está em versão prévia pública
Agora você pode usar o clone superficial para criar novas tabelas gerenciadas do Catálogo do Unity a partir de tabelas gerenciadas existentes do Catálogo do Unity. Confira Clone superficial para tabelas do Catálogo do Unity.
Suporte de Pub/Sub para Streaming Estruturado
Agora você pode usar um conector interno para assinar o Google Pub/Sub com Streaming Estruturado. Confira Assinar o Google Pub/Sub.
Remover duplicatas dentro de marcas d'água no Streaming Estruturado
Agora você pode usar dropDuplicatesWithinWatermark em combinação com um limite de marca d'água especificado para eliminação de duplicação de registros no Streaming Estruturado. Confira Descartar duplicatas dentro da marca d'água.
Suporte expandido para conversões Delta de tabelas do Apache Iceberg com colunas de partição truncadas
Agora você pode usar CLONE e CONVERT TO DELTA com tabelas do Apache Iceberg que têm partições definidas em colunas truncadas de tipos inte longstring. Não há suporte para as colunas truncadas do tipo decimal.
Alterações de esquema de streaming com mapeamento de coluna no Delta Lake
Agora você pode fornecer um local de acompanhamento de esquema para habilitar o streaming de tabelas Delta com o mapeamento de coluna habilitado. Confira Streaming com mapeamento de coluna e alterações de esquema.
Remover VERSÃO INICIAL
START VERSION está preterido para ALTER SHARE.
Novas expressões H3 disponíveis com Python
As expressões h3_coverash3 e h3_coverash3string estão disponíveis com Python.
Correções de bug
Parquet failOnUnknownFields não remove mais dados silenciosamente na incompatibilidade de tipo
Se um arquivo Parquet foi lido apenas com a opção failOnUnknownFields ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns, as colunas que têm tipos de dados diferentes agora falham e recomendam o uso de rescuedDataColumn. O Carregador Automático agora lê corretamente e não resgata mais os tipos Inteiro, Curto ou Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos.
Alterações de quebra
Atualizar a versão do sqlite-jdbc para 3.42.0.0 para tratar do CVE-2023-32697
Atualize a versão do sqlite-jdbc de 3.8.11.2 para 3.42.0.0. As APIs da versão 3.42.0.0 não são totalmente compatíveis com a versão 3.8.11.2. Se estiver usando sqlite-jdbc em seu código, marcar o relatório de compatibilidade sqlite-jdbc para obter detalhes. Se você migrar para a versão 13.1 e usar o sqlite, confirme seus métodos e retorne o tipo na versão 3.42.0.0.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- facets-overview de 1.0.2 para 1.0.3
- filelock de 3.10.7 para 3.12.0
- pyarrow de 7.0.0 para 8.0.0
- tenacidade de 8.0.1 a 8.1.0
- Atualização das bibliotecas do R:
- Bibliotecas do Java atualizadas:
- com.github.ben-manes.cafeína.cafeína de 2.3.4 para 2.9.3
- io.delta.delta-sharing-spark_2.12 de 0.6.8 para 0.6.4
- net.snowflake.snowflake-jdbc de 3.13.29 para 3.13.22
- org.checkerframework.checker-qual de 3.5.0 a 3.19.0
- org.scalactic.scalactic_2.12 de 3.0.8 para 3.2.15
- org.scalatest.scalatest_2.12 de 3.0.8 para 3.2.15
- org.xerial.sqlite-jdbc de 3.8.11.2 a 3.42.0.0
Apache Spark
O Databricks Runtime 13.1 inclui o Apache Spark 3.4.0. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 13.0 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-42719] [DBRRM-199][sc-131578] Reverter “[SC-125225] `MapOutputTracker#getMap…
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Reverter [SC-127830]/
- [SPARK-43331] [SC-130064][connect] Adicionar Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][connect][PYTHON] Torne possível estender o ChannelBuilder para SparkConnectClient
- [SPARK-43323] [SC-129966][sql][PYTHON] Corrige erro no DataFrame.toPandas com Arrow habilitado para lidar com exceções corretamente
- [SPARK-42940] [SC-129896][ss][CONNECT] Melhorar o gerenciamento de sessão para consultas de streaming
- [SPARK-43032] [SC-125756] [CONNECT][ss] Adicionar gerenciador de consultas de streaming
- [SPARK-16484] [SC-129975][sql] Adicionar suporte para Datasketches HllSketch
- [SPARK-43260] [SC-129281][python] Migre os erros de tipo de seta pandas do Spark SQL para a classe de erro.
- [SPARK-41766] [SC-129964][core] Tratar solicitação de descomissionamento enviada antes do registro do executor
- [SPARK-43307] [SC-129971][python] Migrar erros de valor PandasUDF para a classe de erro
- [SPARK-43206] [SC-129903] [SS] [CONNECT] exception() StreamingQuery inclui rastreamento de pilha
- [SPARK-43311] [SC-129905][ss] Adicionar aprimoramentos de gerenciamento de memória do provedor de armazenamento de estado RocksDB
- [SPARK-43237] [SC-129898][core] Manipular mensagem de exceção nula no log de eventos
- [SPARK-43320] [SC-129899][sql][HIVE] Chame diretamente a API do Hive 2.3.9
-
[SPARK-43270] [SC-129897][python] Implementar
__dir__()pyspark.sql.dataframe.DataFramepara incluir colunas - [SPARK-43183] Reverter o "[SC-128938][ss] Introduzir um novo retorno de chamada "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] awaitTermination() StreamingQuery de Scala
- [SPARK-43257] [SC-129675][sql] Substitua a classe de erro _LEGACY_ERROR_TEMP_2022 por um erro interno
- [SPARK-43198] [SC-129470][connect] Correção "Não foi possível inicializar a classe amônio..." erro ao usar filtro
- [SPARK-43165] [SC-129777][sql] Mover o canWrite para o DataTypeUtils
- [SPARK-43298] [SC-129729][python][ML] predict_batch_udf com entrada escalar falha com um tamanho de lote de um
- [SPARK-43298] [SC-129700]Reverter "[PYTHON][ml] predict_batch_udf com entrada escalar falha com tamanho de lote único"
- [SPARK-43052] [SC-129663][core] Manipular o stacktrace com o nome do arquivo nulo no log de eventos
- [SPARK-43183] [SC-128938][ss] Introduzir um novo callback "onQueryIdle" para StreamingQueryListener
- [SPARK-43209] [SC-129190][connect][PYTHON] Migrar os erros de expressão para a classe de erros
- [SPARK-42151] [SC-128754][sql] Alinhar UPDATE atribuições com atributos de tabela
- [SPARK-43134] [SC-129468] [CONNECT] [SS] API exception() StreamingQuery do cliente JVM
- [SPARK-43298] [SC-129699][python][ML] predict_batch_udf com entrada escalar falha quando o tamanho do lote é um
- [SPARK-43248] [SC-129660][sql] Serialização/desserialização desnecessária do caminho em estatísticas de partição reunidas paralelamente
-
[SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Introduzido
PySparkNotImplementedError - [SPARK-43146] [SC-128804][connect][PYTHON] Implementar avaliação imediata para repr e repr_html
- [SPARK-42953] [SC-129469][connect][Followup] Corrigir o build de teste do maven para testes de UDF do cliente Scala
- [SPARK-43144] [SC-129280] API table() DataStreamReader do Cliente Scala
- [SPARK-43136] [SC-129358][connect] Adicionando groupByKey + mapGroup + funções de coGroup
-
[SPARK-43156] [SC-129672][sc-128532][SQL] Corrigir
COUNT(*) is nullbug na subconsulta escalar correlacionada - [SPARK-43046] [SC-129110] [SS] [Connect] Implementação da API do Python dropDuplicatesWithinWatermark para Spark Connect
- [SPARK-43199] [SC-129467][sql] Make InlineCTE idempotent
-
[SPARK-43293] [SC-129657][sql]
__qualified_access_onlydeve ser ignorado em colunas normais - [SPARK-43276] [SC-129461][connect][PYTHON] Migrar erros da Janela do Spark Connect para a classe de erro
- [SPARK-43174] [SC-129109][sql] Corrigir o completer do SparkSQLCLIDriver
- [SPARK-43084] [SC-128654] [SS] Adicionar suporte a applyInPandasWithState para o Spark Connect
- [SPARK-43119] [SC-129040][sql] Suporte obter palavras-chave SQL dinamicamente por meio da API JDBC e TVF
- [SPARK-43082] [SC-129112][connect][PYTHON] UDFs de Python otimizados com Apache Arrow no Spark Connect
- [SPARK-43085] [SC-128432][sql] Suporte para atribuição de valor padrão em colunas de nomes de tabelas com várias partes
- [SPARK-43226] [LC-671] Definir extratores para metadados de constante de arquivo
-
[SPARK-43210] [SC-129189][connect][PYTHON] Introdução
PySparkAssertionError - [SPARK-43214] [SC-129199][sql] Publicar métricas do lado do driver para LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Correção de ReplE2ESuite falhando consistentemente com o JDK 17
- [SPARK-43268] [SC-129249][sql] Use classes de erro adequadas quando as exceções forem construídas com uma mensagem
- [SPARK-43142] [SC-129299] Corrigir expressões DSL em atributos com caracteres especiais
- [SPARK-43129] [SC-128896] API do Scala Core para streaming do Spark Connect
- [SPARK-43233] [SC-129250] [SS] Adicionar registro em log para Leitura em Lote do Kafka para partição de tópicos, intervalo de deslocamento e ID da tarefa
- [SPARK-43249] [SC-129195][conectar] Corrigir estatísticas ausentes para o Comando SQL
- [SPARK-42945] [SC-129188][connect] Suporte para PYSPARK_JVM_STACKTRACE_ENABLED no Spark Connect
- [SPARK-43178] [SC-129197][connect][PYTHON] Migrar erros de UDF para a estrutura de erros do PySpark
- [SPARK-43123] [SC-128494][sql] Metadados de campo internos não devem ser vazados para catálogos
- [SPARK-43217] [SC-129205] Recursar corretamente em mapas/matrizes aninhados em findNestedField
- [SPARK-43243] [SC-129294][python][CONNECT] Adicionar parâmetro de nível ao printSchema para Python
-
[SPARK-43230] [SC-129191][conectar] Simplificar
DataFrameNaFunctions.fillna - [SPARK-43088] [SC-128403][sql] Respeitar RequiresDistributionAndOrdering no CTAS/RTAS
-
[SPARK-43234] [SC-129192][connect][PYTHON] Migrar
ValueErrordo Conect DataFrame para a classe de erro - [SPARK-43212] [SC-129187][ss][PYTHON] Migrar erros de streaming estruturado para a classe de erro
-
[SPARK-43239] [SC-129186][ps] Remover
null_countsde info() - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput deve ser consistente com a saída do filho
- [SPARK-43191] [SC-128924][core] Substituir a reflexão por chamada direta para Hadoop CallerContext
- [SPARK-43193] [SC-129042][ss] Remover solução alternativa para HADOOP-12074
- [SPARK-42657] [SC-128621][connect] Suporte para localizar e transferir arquivos de classe REPL do lado do cliente para o servidor como artefatos
- [SPARK-43098] [SC-77059][sql] Corrigir bug de contagem de correção quando a subconsulta escalar tem cláusula GROUP BY
-
[SPARK-43213] [SC-129062][python] Adicionar
DataFrame.offsetao vanilla PySpark - [SPARK-42982] [SC-128400][connect][PYTHON] Corrigir createDataFrame para respeitar a definição de esquema fornecida (DDL)
- [SPARK-43124] [SC-129011][sql] Dataset.show projects CommandResults localmente
- [SPARK-42998] [SC-127422][connect][PYTHON] Corrigir DataFrame.collect com struct nulo
- [SPARK-41498] [SC-125343]Reverter "Propagar metadados por meio da União"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Adicionar API await_termination() e exception() para Consulta de Streaming no Python
- [SPARK-42552] [SC-128824][sql] Corrigir a estratégia de dois estágios de análise do parser ANTLR
- [SPARK-43207] [SC-128937][connect] Adicionar funções auxiliares para extrair valor da expressão literal
- [SPARK-43186] [SC-128841][sql][HIVE] Remover solução alternativa para FileSinkDesc
- [SPARK-43107] [SC-128533][sql] Coalesce buckets in join aplicados no lado do fluxo de junção de transmissão
- [SPARK-43195] [SC-128922][core] Remover wrapper serializável desnecessário no HadoopFSUtils
- [SPARK-43137] [SC-128828][sql] Aprimore ArrayInsert se a posição for dobrável e positiva.
- [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join deve retornar um valor nulo para linha sem correspondência
- [SPARK-43042] [SC-128602] [SS] [Connect] Adicionar suporte à API table() para DataStreamReader
- [SPARK-43153] [SC-128753][connect] Ignorar a execução do Spark quando o dataframe estiver local
- [SPARK-43064] [SC-128496][sql] A guia SQL da CLI sql do Spark só deve mostrar uma instrução uma vez
- [SPARK-43126] [SC-128447][sql] Marcar duas expressões UDF do Hive como com estado
-
[SPARK-43111] [SC-128750][ps][CONNECT][python] Mesclar instruções aninhadas
ifem instruções simplesif - [SPARK-43113] [SC-128749][sql] Avaliar variáveis do lado da transmissão ao gerar código para uma condição vinculada
- [SPARK-42895] [SC-127258][connect] Aprimorar mensagens de erro para sessões do Spark interrompidas
- [SPARK-42884] [SC-126662][connect] Adicionar integração com o Ammonite REPL
- [SPARK-43168] [SC-128674][sql] Remover o método Get PhysicalDataType da classe Datatype
-
[SPARK-43121] [SC-128455][sql] Use
BytesWritable.copyBytesem vez de cópia manual em `HiveInspectors` - [SPARK-42916] [SC-128389][sql] JDBCTableCatalog mantém metadados de CHAR/VARCHAR no lado de leitura
- [SPARK-43050] [SC-128550][sql] Corrigir expressões de agregação de construção substituindo funções de agrupamento
-
[SPARK-43095] [SC-128549][sql] Evite uma vez que a idempotência da estratégia seja interrompida para o lote:
Infer Filters - [SPARK-43130] [SC-128597][sql] Mover InternalType para PhysicalDataType
- [SPARK-43105] [SC-128456][connect] Abreviar bytes e cadeias de caracteres na mensagem proto
-
[SPARK-43099] [SC-128596][sql] Utilize
getNameem vez degetCanonicalNamepara obter o nome da classe do construtor ao registrar a udf no FunctionRegistry - [SPARK-42994] [SC-128586][ml][CONNECT] O Distribuidor PyTorch dá suporte ao Modo Local
- [SPARK-42859] Reverter “[SC-127935][connect][PS] Suporte básico para a API do Pandas no Spark Connect”
-
[SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJoinnão funciona ao usar o AQE - [SPARK-43125] [SC-128477][connect] Corrigir o problema do servidor Connect que não consegue lidar com exceções com mensagens nulas.
- [SPARK-43147] [SC-128594] Corrigir o lint flake8 para verificação local
- [SPARK-43031] [SC-128360] [SS] [Connect] Habilitar teste de unidade e doctest para streaming
- [SPARK-43039] [LC-67] Suporte a campos personalizados na coluna _metadata da origem do arquivo.
- [SPARK-43120] [SC-128407][ss] Adicionar suporte para monitoramento do uso de memória dos blocos fixados para o repositório de estado RocksDB
- [SPARK-43110] [SC-128381][sql] Transferir asIntegral para PhysicalDataType
- [SPARK-43118] [SC-128398][ss] Remover declaração desnecessária para UninterruptibleThread em KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][connect][PYTHON] Dá suporte a nomes de campos aninhados duplicados
- [SPARK-42437] [SC-128339][python][CONNECT] Catálogo do PySpark.cacheTable permitirá especificar o nível de armazenamento
- [SPARK-42985] [SC-128332][connect][PYTHON] Correção createDataFrame para respeitar as configurações do SQL
- [SPARK-39696] [SC-127830][core] Correção da corrida de dados no acesso a TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][sql] Movendo Integral para PhysicalDataType
- [SPARK-42741] [SC-125547][sql] Não desfazer conversões em comparações binárias quando literal for nulo
- [SPARK-43057] [SC-127948][connect][PYTHON] Migrar os erros da coluna do Spark Connect para a classe de erros
- [SPARK-42859] [SC-127935][connect][PS] Suporte básico para a API pandas no Spark Connect
-
[SPARK-43013] [SC-127773][python] Migrar
ValueErrordo DataFrame paraPySparkValueError. - [SPARK-43089] [SC-128051][connect] Redigir cadeia de caracteres de depuração na interface do usuário
- [SPARK-43028] [SC-128070][sql] Adicionar classe de erro SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] Adicionar teste para dropDuplicates em JavaDatasetSuite
-
[SPARK-43075] [SC-127939][conectar] Altere
gRPCparagrpcioquando não estiver instalado. - [SPARK-42953] [SC-127809][connect] Filtro tipado, mapa, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][sql] Suporte para desembrulhar tipo data para tipo de timestamp
- [SPARK-42931] [SC-127933][ss] Implementar dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][connect] Adicionar constantes de tipos de dados proto
- [SPARK-43077] [SC-128050][sql] Melhorar a mensagem de erro de UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][ss][Connect] APIs de DataStreamReader
- [SPARK-43049] [SC-127846][sql] Use CLOB em vez de VARCHAR(255) para StringType para Oracle JDBC
- [SPARK-43018] [SC-127762][sql] Corrigir bug para INSERT comandos com literais de marca temporal
- [SPARK-42855] [SC-127722][sql] Usar verificações nulas de runtime em TableOutputResolver
- [SPARK-43030] [SC-127847][sql] Deduplicar relações com colunas de metadados
- [SPARK-42993] [SC-127829][ml][CONNECT] Tornar o Distribuidor PyTorch compatível com o Spark Connect
- [SPARK-43058] [SC-128072][sql] Transferir os tipos Numérico e Fracionário para PhysicalDataType
- [SPARK-43056] [SC-127946][ss] A confirmação do repositório de estado RocksDB deve continuar o trabalho em segundo plano somente se estiver pausado
- [SPARK-43059] [SC-127947][connect][PYTHON] Migrar TypeError de DataFrame(Leitor|Gravador) para a classe de erro
- [SPARK-43071] [SC-128018][sql] Suporte ao PADRÃO com SELECT, ORDER BY, LIMIT para relação de fonte
- [SPARK-43061] [SC-127956][core][SQL] Introduzir PartitionEvaluator para execução do operador SQL
- [SPARK-43067] [SC-127938][ss] Corrigir o local do arquivo de recursos da classe de erro no conector Kafka
- [SPARK-43019] [SC-127844][sql] Mover a ordenação para PhysicalDataType
- [SPARK-43010] [SC-127759][python] Migrar erros de coluna para a classe de erro
-
[SPARK-42840] [SC-127782][sql] Alterar
_LEGACY_ERROR_TEMP_2004erro para erro interno - [SPARK-43041] [SC-127765][sql] Restaurar construtores de exceções para compatibilidade na API do conector
- [SPARK-42939] [SC-127761][ss][CONNECT] API python de streaming principal para Spark Connect
-
[SPARK-42844] [SC-127766][sql] Atualizar a classe
_LEGACY_ERROR_TEMP_2008de erro paraINVALID_URL - [SPARK-42316] [SC-127720][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][connect][PYTHON] Migrar erros do DataFrame do Spark Connect para a classe de erro
- [SPARK-42983] [SC-127717][connect][PYTHON] Corrigir createDataFrame para manipular corretamente a matriz numpy de 0 dimensões
- [SPARK-42955] [SC-127476][sql] Ignorar classifyException e encapsular AnalysisException para SparkThrowable
- [SPARK-42949] [SC-127255][sql] Simplificar o código para NAAJ
-
[SPARK-43011] [SC-127577][sql]
array_insertdeve falhar com o índice 0 -
[SPARK-42974] [SC-127487][core] Restaurar
Utils.createTempDirpara usar o métodoShutdownHookManagere limpar o métodoJavaUtils.createTempDir. - [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' também significa que a tabela já existe
- [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME não pode qualificar um new-table-Name com um nome de esquema
- [SPARK-37980] [SC-127668][sql] Acesse row_index via _metadata em testes, se possível
- [SPARK-42655] [SC-127591][sql] Erro de referência de coluna ambígua incorreto
-
[SPARK-43009] [SC-127596][sql] Parametrizado
sql()comAnyconstantes - [SPARK-43026] [SC-127590][sql] Aplicar AQE com cache de tabela não trocável
- [SPARK-42963] [SC-127576][sql] Estender SparkSessionExtensions para injetar regras no otimizador de estágio de consulta do AQE
- [SPARK-42918] [SC-127357] Generalizar o tratamento de atributos de metadados no FileSourceStrategy
-
[SPARK-42806] [SC-127452][spark-42811][CONNECT] Adicionar
Catalogsuporte - [SPARK-42997] [SC-127535][sql] TableOutputResolver deve usar caminhos de coluna corretos em mensagens de erro para matrizes e mapas
- [SPARK-43006] [SC-127486][pyspark] Corrigir erro de digitação em StorageLevel eq()
- [SPARK-43005] [SC-127485][pyspark] Corrigir erro de digitação no pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][core] Corrigir erro de digitação em ResourceRequest.equals()
- [SPARK-42907] [SC-126984][connect][PYTHON] Implementar funções do Avro
- [SPARK-42979] [SC-127272][sql] Definir construtores literais como palavras-chave
- [SPARK-42946] [SC-127252][sql] Redact dados confidenciais que são aninhados por substituição variável
- [SPARK-42952] [SC-127260][sql] Simplificar o parâmetro da regra do analisador PreprocessTableCreation e DataSourceAnalysis
- [SPARK-42683] [LC-75] Renomear automaticamente colunas de metadados conflitantes
- [SPARK-42853] [SC-126101][acompanhamento] Correção de conflitos
- [SPARK-42929] [SC-126748][connect] make mapInPandas / mapInArrow support "is_barrier"
- [SPARK-42968] [SC-127271][ss] Adicionar opção para ignorar o coordenador de confirmação como parte da API StreamingWrite para fontes/destinos DSv2
-
[SPARK-42954] [SC-127261][python][CONNECT] Adicionar
YearMonthIntervalTypeao PySpark e ao cliente Python do Spark Connect -
[SPARK-41359] [SC-127256][sql] Use
PhysicalDataTypeem vez de DataType em UnsafeRow - [SPARK-42873] [SC-127262][sql] Definir tipos sql do Spark como palavras-chave
-
[SPARK-42808] [SC-126302][core] Evite obter processadores disponíveis todas as vezes em
MapOutputTrackerMaster#getStatistics -
[SPARK-42937] [SC-126880][sql]
PlanSubqueriesdeve ser definidoInSubqueryExec#shouldBroadcastcomo true -
[SPARK-42896] [SC-126729][sql][PYTHON] Tornar
mapInPandas/mapInArrowcompatível com a execução em modo de barreira - [SPARK-42874] [SC-126442][sql] Habilitar nova estrutura de teste de arquivo padrão para análise de todos os arquivos de entrada
- [SPARK-42922] [SC-126850][sql] Mover de Aleatório para SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange refere-se a nós inexistentes
- [SPARK-40822] [SC-126274][sql] Aliases de colunas derivadas estáveis
- [SPARK-42908] [SC-126856][python] Lançar RuntimeError quando SparkContext é necessário mas não inicializado
- [SPARK-42779] [SC-126042][sql] Permitir escritas V2 indicar o tamanho da partição de shuffle sugerida
-
[SPARK-42914] [SC-126727][python] Reutilizar
transformUnregisteredFunctionparaDistributedSequenceID. - [SPARK-42878] [SC-126882][conectar] A API de tabela no DataFrameReader também pode aceitar opções
-
[SPARK-42927] [SC-126883][core] Alterar o escopo de acesso para
o.a.spark.util.Iterators#sizeprivate[util] - [SPARK-42943] [SC-126879][sql] Use LONGTEXT em vez de TEXT para StringType para um comprimento efetivo
- [SPARK-37677] [SC-126855][core] Descompactar pode manter permissões de arquivo
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implementar API de Mapa CoAgrupado
- [SPARK-41876] [SC-126849][connect][PYTHON] Implementar DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][core][SQL] Altere o escopo de acesso de
ProtobufSerDeimplementações relacionadas paraprivate[protobuf] - [SPARK-42819] [SC-125879][ss] Adicionar suporte para definir max_write_buffer_number e write_buffer_size para RocksDB usados no streaming
- [SPARK-42924] [SC-126737][sql][CONNECT][python] Esclarecer o comentário dos argumentos SQL parametrizados
- [SPARK-42748] [SC-126455][connect] Gerenciamento de artefatos do lado do servidor
- [SPARK-42816] [SC-126365][connect] Suporte para tamanho máximo de mensagem de até 128 MB
- [SPARK-42850] [SC-126109][sql] Remover regra duplicada CombineFilters no Otimizador
- [SPARK-42662] [SC-126355][connect][PS] Adicionar mensagem proto para a API pandas no índice padrão spark
- [SPARK-42720] [SC-126136][ps][SQL] Usa expressão para índice padrão de sequência distribuída em vez de plano
- [SPARK-42790] [SC-126174][sql] Abstrair o método excluído para melhor teste para testes do docker JDBC.
- [SPARK-42900] [SC-126473][connect][PYTHON] Corrigir createDataFrame para respeitar a inferência e os nomes das colunas
- [SPARK-42917] [SC-126657][sql] Corrigir getUpdateColumnNullabilityQuery para DerbyDialect
- [SPARK-42684] [SC-125157][sql] v2 catalog não deve permitir o valor padrão da coluna por padrão
- [SPARK-42861] [SC-126635][sql] Use private[sql] em vez de protected[sql] para evitar gerar documento de API
- [SPARK-42920] [SC-126728][connect][PYTHON] Habilitar testes para UDF com UDT
- [SPARK-42791] [SC-126617][sql] Criar uma nova estrutura de teste de arquivo ouro para análise
- [SPARK-42911] [SC-126652][python] Introduza exceções mais básicas
- [SPARK-42904] [SC-126634][sql] Suporte a Char/Varchar para Catálogo JDBC
-
[SPARK-42901] [SC-126459][connect][PYTHON] Mover
StorageLevelpara um arquivo separado para evitar um potencialfile recursively imports -
[SPARK-42894] [SC-126451][connect] Suporte
cache/persist/unpersist/storageLevelpara o cliente JVM do Spark Connect - [SPARK-42792] [SC-125852][ss] Adicionar suporte para WRITE_FLUSH_BYTES para RocksDB usado em operadores com estado de streaming
- [SPARK-41233] [SC-126441][connect][PYTHON] Adicionar array_prepend ao cliente Python do Spark Connect
- [SPARK-42681] [SC-125149][sql] Relaxar a restrição de ordenação para descritores de coluna ADD|REPLACE
- [SPARK-42889] [SC-126367][connect][PYTHON] Implementar cache, persistir, não persista e storageLevel
- [SPARK-42824] [SC-125985][connect][PYTHON] Forneça uma mensagem de erro clara para atributos JVM sem suporte
- [SPARK-42340] [SC-126131][connect][PYTHON] Implementar API de Mapa Agrupado
- [SPARK-42892] [SC-126454][sql] Mover sameType e métodos relevantes para fora do DataType
-
[SPARK-42827] [SC-126126][connect] Suporte
functions#array_prependpara o cliente do Scala Connect -
[SPARK-42823] [SC-125987][sql]
spark-sqlShell dá suporte a namespaces de várias partes para inicialização - [SPARK-42817] [SC-125960][core] Registrando o nome do serviço embaralhado uma vez no ApplicationMaster
- [SPARK-42786] [SC-126438][connect] Seleção digitada
-
[SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementar função ml
{array_to_vector, vector_to_array} - [SPARK-42052] [SC-126439][sql] Codegen Support for HiveSimpleUDF
-
[SPARK-41233] [SC-126110][sql][PYTHON] Adicionar
array_prependfunção -
[SPARK-42864] [SC-126268][ml][3.4] Tornar
IsotonicRegression.PointsAccumulatorprivado - [SPARK-42876] [SC-126281][sql] O tipo de dados físico de DataType deve ser privado[sql]
- [SPARK-42101] [SC-125437][sql] Ajustar o AQE para suportar InMemoryTableScanExec
- [SPARK-41290] [SC-124030][sql] Suporte a expressões ALWAYS AS geradas para colunas em instruções create/replace table
-
[SPARK-42870] [SC-126220][conectar] Mover
toCatalystValueparaconnect-common - [SPARK-42247] [SC-126107][connect][PYTHON] Corrigir FunçãoDefinidaPeloUsuário para incluir tipoDeRetorno
- [SPARK-42875] [SC-126258][connect][PYTHON] Correção de toPandas para lidar com os tipos de fuso horário e mapa corretamente
- [SPARK-42757] [SC-125626][connect] Implementar textFile para DataFrameReader
- [SPARK-42803] [SC-126081][core][SQL][ml] Use a função getParameterCount em vez de getParameterTypes.length
-
[SPARK-42833] [SC-126043][sql] Refatoração
applyExtensionsemSparkSession - [SPARK-41765] Reverter "[SC-123550][sql] Extrair métricas de gravação v1...
- [SPARK-42848] [SC-126105][connect][PYTHON] Implementar DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][connect][PYTHON] suporte a UserDefinedType no Spark Connect
- [SPARK-42818] [SC-125861][connect][PYTHON] Implementar DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][connect] Incluir client_type na mensagem protobuf AddArtifactsRequest
- [SPARK-42772] [SC-125860][sql] Altere o valor padrão das opções JDBC sobre push para baixo para true
- [SPARK-42771] [SC-125855][sql] Refatorar HiveGenericUDF
- [SPARK-25050] [SC-123839][sql] Avro: escrevendo uniões complexas
-
[SPARK-42765] [SC-125850][connect][PYTHON] Habilitar importação
pandas_udfdepyspark.sql.connect.functions -
[SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocationdeve respeitarspark.shuffle.reduceLocality.enabled - [SPARK-42480] [SC-125173][sql] Melhorar o desempenho da exclusão de partições
- [SPARK-42689] [SC-125195][core][SHUFFLE] Permitir que ShuffleDriverComponent declare se os dados de shuffle são armazenados de forma confiável
-
[SPARK-42726] [SC-125279][connect][PYTHON] Implementar
DataFrame.mapInArrow - [SPARK-41765] [SC-123550][sql] Puxar as métricas de gravação v1 para o WriteFiles
- [SPARK-41171] [SC-124191][sql] Inferir e reduzir o limite da janela pela janela se partitionSpec estiver vazio
- [SPARK-42686] [SC-125292][core] Adiar a formatação para mensagens de depuração no TaskMemoryManager
- [SPARK-42756] [SC-125443][connect][PYTHON] Função auxiliar para converter proto literal em valor no Cliente Python
-
[SPARK-42793] [SC-125627][conectar]
connectmódulo requerbuild_profile_flags -
[SPARK-42701] [SC-125192][sql] Adicionar a
try_aes_decrypt()função - [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame não funciona com esquema não anulável
- [SPARK-42733] [SC-125542][connect][Followup] Executar gravação sem especificar caminho ou tabela
- [SPARK-42777] [SC-125525][sql] Suporte à conversão de estatísticas do catálogo TimestampNTZ em estatísticas de plano
-
[SPARK-42770] [SC-125558][connect] Adicionar
truncatedTo(ChronoUnit.MICROS)para que a tarefa GA do teste diário em Java 17 passe - [SPARK-42752] [SC-125550][pyspark][SQL] Tornar as exceções do PySpark imprimíveis durante a inicialização
- [SPARK-42732] [SC-125544][pyspark][CONNECT] Suporte ao método getActiveSession da sessão do Spark Connect
-
[SPARK-42755] [SC-125442][connect] Conversão de valor literal do fator para
connect-common - [SPARK-42747] [SC-125399][ml] Corrigir o status interno incorreto de LoR e AFT
- [SPARK-42740] [SC-125439][sql] Corrigir o bug onde o deslocamento ou paginação de pushdown é inválido para alguns dialetos internos
- [SPARK-42745] [SC-125332][sql] Expressão AliasAwareOutput melhorada funciona com DSv2
- [SPARK-42743] [SC-125330][sql] Suporte para analisar colunas TimestampNTZ
- [SPARK-42721] [SC-125371][conectar] Interceptador de log RPC
- [SPARK-42691] [SC-125397][connect][PYTHON] Implementar Dataset.semanticHash
- [SPARK-42688] [SC-124922][connect] Renomear client_id de solicitação do proto Connect para session_id
- [SPARK-42310] [SC-122792][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][core] Otimizar rotinas Utils.bytesToString
- [SPARK-42725] [SC-125296][connect][PYTHON] Fazer com que LiteralExpression suporte parâmetros de array
- [SPARK-42702] [SC-125293][spark-42623][SQL] Suporte à consulta parametrizada em subconsulta e CTE
- [SPARK-42697] [SC-125189][webui] Corrigir /api/v1/applications para retornar o tempo de atividade total em vez de 0 para o campo de duração
- [SPARK-42733] [SC-125278][connect][PYTHON] Corrigir DataFrameWriter.save para funcionar sem parâmetro de caminho
- [SPARK-42376] [SC-124928][ss] Introduzir propagação de marca d'água entre operadores
- [SPARK-42710] [SC-125205][connect][PYTHON] Renomear proto FrameMap para MapPartitions
- [SPARK-37099] [SC-123542][sql] Introduza o limite de grupo da janela de classificação para filtro por classificação, a fim de otimizar a computação de top-k.
- [SPARK-42630] [SC-125207][connect][PYTHON] Introduza UnparsedDataType e adie a análise da string DDL até que SparkConnectClient esteja disponível
- [SPARK-42690] [SC-125193][connect] Implementar funções de análise CSV/JSON para o cliente Scala
-
[SPARK-42709] [SC-125172][python] Remova a suposição de
__file__estar disponível - [SPARK-42318] [SC-122648][spark-42319][SQL] Atribuir nome a LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][sql] Suporte ao tipo de dados do analisador json "timestamp_ltz" como TimestampType
- [SPARK-42722] [SC-125175][connect][PYTHON] Esquema def do Python Connect() não deve armazenar em cache o esquema
- [SPARK-42643] [SC-125152][connect][PYTHON] Registrar funções Java (agregadas) definidas pelo utilizador
- [SPARK-42656] [SC-125177][conectar][Acompanhamento] Corrigir o script spark-connect
- [SPARK-41516] [SC-123899] [SQL] Permitir que dialetos jdbc substituam a consulta usada para criar uma tabela
- [SPARK-41725] [SC-124396][connect] Execução imediata de DF.sql()
-
[SPARK-42687] [SC-124896][ss] Mensagem de erro melhor para a operação não suportada
pivotno Streaming - [SPARK-42676] [SC-124809][ss] Gravar pontos de verificação temporários para consultas de streaming no sistema de arquivos local, mesmo que o FS padrão seja definido de forma diferente
- [SPARK-42303] [SC-122644][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][sql] Verifique pelo menos uma unidade de tempo após "intervalo"
- [SPARK-42649] [SC-124576][core] Remova o cabeçalho padrão do Apache License da parte superior dos arquivos de origem de terceiros
- [SPARK-42611] [SC-124395][sql] Inserir verificações de comprimento char/varchar para campos internos durante a resolução
- [SPARK-42419] [SC-124019][connect][PYTHON] Migrar para o framework de erros da API de Coluna do Spark Connect.
- [SPARK-42637] [SC-124522][connect] Adicionar SparkSession.stop()
- [SPARK-42647] [SC-124647][python] Alterar alias para tipos numpy preteridos e removidos
- [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver só deve fechar o hive sessionState iniciado
- [SPARK-42593] [SC-124405][ps] Descontinuar e remover as APIs que serão removidas no pandas 2.0.
- [SPARK-41870] [SC-124402][connect][PYTHON] Correção de createDataFrame para lidar com nomes de coluna duplicados
- [SPARK-42569] [SC-124379][connect] Lançar exceções para a API de sessão não suportada
- [SPARK-42631] [SC-124526][conectar] Suporte para extensões personalizadas no cliente Scala
- [SPARK-41868] [SC-124387][connect][PYTHON] Corrigir createDataFrame para dar suporte a durações
- [SPARK-42572] [SC-124171][sql][SS] Corrigir comportamento para StateStoreProvider.validateStateRowFormat
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 13.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.2.1 | atributos | 21.4.0 | chamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | preto | 22.6.0 | alvejante | 4.1.0 |
| antolho | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| normalizador de conjunto de caracteres | 2.0.4 | clique | 8.0.4 | criptografia | 37.0.1 |
| ciclista | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
| debugpy | 1.5.1 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.6 | de docstring para markdown | 0,12 | pontos de entrada | 0,4 |
| em execução | 1.2.0 | Visão geral de facetas | 1.0.3 | fastjsonschema | 2.16.3 |
| bloqueio de arquivo | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
| grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| IDNA | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
| ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets (biblioteca Python para widgets interativos) | 7.7.2 |
| Jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 2.11.3 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
| Cliente Jupyter | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 | kiwisolver | 1.4.2 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | Mistune | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| notebook | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
| empacotando | 21,3 | Pandas | 1.4.4 | pandocfilters | 1.5.0 |
| parso | 0.8.3 | pathspec | 0.9.0 | Patsy | 0.5.2 |
| pexpect | 4.8.0 | pickleshare | 0.7.5 | Almofada | 9.2.0 |
| caroço | 22.2.2 | platformdirs | 2.5.2 | enredo | 5.9.0 |
| Pluggy | 1.0.0 | prometheus-client | 0.14.1 | kit de ferramentas de prompt | 3.0.36 |
| protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | Pyarrow | 8.0.0 |
| pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
| Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server (servidor LSP para Python) | 1.7.1 | pytoolconfig | 1.2.2 | Pytz | 2022.1 |
| pyzmq | 23.2.0 | solicitações | 2.28.1 | corda | 1.7.0 |
| s3transfer | 0.6.0 | scikit-aprender | 1.1.1 | Scipy | 1.9.1 |
| seaborn (biblioteca de visualização em Python) | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
| Ferramentas de configuração | 63.4.1 | seis | 1.16.0 | Soupsieve | 2.3.1 |
| ssh-import-id | 5.11 | dados empilhados | 0.6.2 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.13.2 |
| tenacidade | 8.1.0 | terminado | 0.13.1 | caminho de teste | 0.6.0 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
| ujson | 5.4.0 | atualizações não supervisionadas | 0,1 | urllib3 | 1.26.11 |
| virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| codificações web | 0.5.1 | whatthepatch | 1.0.2 | wheel | 0.37.1 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R foram instaladas por meio do Instantâneo CRAN da Microsoft em 02/10/2023.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 10.0.1 | AskPass | 1,1 | afirme isso | 0.2.1 |
| retroportações | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
| ciar | 1.3-28 | Fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
| chamador | 3.7.3 | sinal de interpolação | 6.0-93 | Cellranger | 1.1.0 |
| crono | 2.3-59 | classe | 7.3-21 | Interface de Linha de Comando (CLI) | 3.6.0 |
| clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
| codetools | 0.2-19 | espaço de cores | 2.1-0 | commonmark | 1.8.1 |
| compilador | 4.2.2 | configuração | 0.3.1 | cpp11 | 0.4.3 |
| giz de cera | 1.5.2 | credenciais | 1.3.2 | encurvar | 5.0.0 |
| Tabela de Dados | 1.14.6 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Descrição | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | hash | 0.6.31 | iluminação para baixo | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| reticências | 0.3.2 | avaliar | 0,20 | fansi | 1.0.4 |
| cores | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| para gatos | 1.0.0 | para cada | 1.5.2 | estrangeiro | 0.8-82 |
| forja | 0.2.0 | Fs | 1.6.1 | futuro | 1.31.0 |
| future.apply | 1.10.0 | gargarejar | 1.3.0 | genéricos | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globais | 0.16.2 |
| cola | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | elemento gráfico | 4.2.2 | grDevices | 4.2.2 |
| grade | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | capacete de segurança | 1.2.0 | refúgio | 2.5.1 |
| mais alto | 0,10 | Hms | 1.1.2 | ferramentas HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
| rotulagem | 0.4.2 | posterior | 1.3.0 | treliça | 0.20-45 |
| lava vulcânica | 1.7.1 | ciclo de vida | 1.0.3 | ouça | 0.9.0 |
| lubrificado | 1.9.1 | magrittr | 2.0.3 | redução de preço | 1.5 |
| MISSA | 7.3-58.2 | Matriz | 1.5-1 | memorizar | 2.0.1 |
| Métodos | 4.2.2 | mgcv | 1.8-41 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelador | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.5 | paralelo | 4.2.2 |
| paralelamente | 1.34.0 | coluna | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | profvis | 0.3.7 | progresso | 1.2.2 |
| progressr | 0.13.0 | Promessas | 1.2.0.1 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.2 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| Readr | 2.1.3 | readxl | 1.4.2 | Receitas | 1.0.4 |
| jogo de revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| exemplo reprodutível (reprex) | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | escamas | 1.2.1 |
| Seletor | 0.4-2 | informações de sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | espacial | 7.3-15 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.2.2 |
| estatísticas4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
| sobrevivência | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | formatação de texto | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | mudança de horário | 0.2.0 | data e hora | 4022.108 |
| tinytex | 0,44 | Ferramentas | 4.2.2 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
| utilitários | 4.2.2 | identificador único universal (UUID) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| vibrissa | 0.4.1 | murchar | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.3.7 | zíper | 2.2.2 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java | 1.1-nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-nativos |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Sininho | 1.7.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1,15 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.4 |
| io.dropwizard.metrics | metrics-core | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | metrics-servlets | 4.2.10 |
| io.netty | Netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | Netty Resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1,3 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lançador de formigas | 1.9.16 |
| org.apache.arrow | formato de seta | 11.0.0 |
| org.apache.arrow | seta-memória-core | 11.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 11.0.0 |
| org.apache.arrow | vetor de seta | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-calços | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,22% |
| org.apache.yetus | comentários da audiência | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.3 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
| org.eclipse.jetty | segurança do jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | servidor jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
| org.eclipse.jetty | Jetty Webapp | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey-comum | 2.36 |
| org.glassfish.jersey.core | jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Calços | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |