Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 12.1 da plataforma Apache Spark 3.3.1.
O Databricks lançou essa versão em janeiro de 2023.
Novos recursos e aprimoramentos
- Recursos de tabela do Delta Lake com suporte para gerenciamento de protocolo
- A E/S preditiva para atualizações está em visualização pública
- O Explorador de Catalogo agora está disponível para todas as personas
- Suporte para vários operadores com estado em uma única consulta de streaming
- O suporte para buffers de protocolo está em Visualização Pública
- Suporte para autenticação do Registro de Esquema Confluent
- Suporte para compartilhar o histórico de tabelas com compartilhamentos Delta Sharing
- Suporte para streaming com compartilhamentos Delta Sharing
- Agora há suporte para a versão de tabela que usa carimbo de data/hora do Delta Sharing em catálogos
- Suporte para WHEN NOT MATCHED BY SOURCE para MERGE INTO
- Coleção de estatísticas otimizadas para CONVERT TO DELTA
- Suporte do Catálogo do Unity para desfazer a exclusão de tabelas
Recursos de tabela do Delta Lake com suporte para gerenciamento de protocolo
O Azure Databricks introduziu suporte para recursos de tabela do Delta Lake, que introduzem sinalizadores granulares especificando quais recursos têm suporte em determinada tabela. Consulte a compatibilidade de recursos e protocolos do Delta Lake.
A E/S preditiva para atualizações está em visualização pública
A E/S preditiva agora acelera as operações DELETE, MERGE e UPDATE para tabelas Delta com vetores de exclusão habilitados na computação habilitada para Photon. Confira O que é E/S preditiva?.
O Explorador de Catalogo agora está disponível para todas as personas
O Gerenciador de Catálogos agora está disponível para todas as personas do Azure Databricks ao usar o Databricks Runtime 7.3 LTS e superior.
Suporte para vários operadores com estado em uma única consulta de streaming
Os usuários agora podem encadear operadores com estado com o modo de acréscimo na consulta de streaming. Nem todos os operadores têm suporte total. A junção de intervalo de tempo no fluxo para fluxo e flatMapGroupsWithState não permite que outros operadores com estado sejam encadeados.
O suporte para buffers de protocolo está em Visualização Pública
Você pode usar as funções from_protobuf e to_protobuf para trocar dados entre tipos binários e struct. Confira Ler e gravar buffers de protocolo.
Suporte para autenticação do Registro de Esquema Confluent
A integração do Azure Databricks com o Registro de Esquema do Confluent agora dá suporte a endereços externos de registro de esquema com autenticação. Esse recurso está disponível para as funções from_avro, to_avro, from_protobuf e to_protobuf. Consulte Protobuf ou Avro.
Suporte para compartilhar o histórico de tabelas com compartilhamentos Delta Sharing
Agora você pode compartilhar uma tabela com histórico completo usando o Delta Sharing, permitindo que os destinatários executem consultas de viagem no tempo e consultem a tabela usando o Streaming Estruturado do Spark.
WITH HISTORY é recomendado em vez de CHANGE DATA FEED, embora o último continue com suporte. Confira ALTER SHARE e Adicionar tabelas a um compartilhamento.
Suporte para streaming com compartilhamentos Delta Sharing
O Fluxo Estruturado do Spark agora funciona com o formato deltasharing em uma tabela do Delta Sharing de origem que foi compartilhada usando WITH HISTORY.
Agora há suporte para a versão de tabela que usa carimbo de data/hora do Delta Sharing em catálogos
Agora você pode usar a sintaxe SQL TIMESTAMP AS OF nas instruções SELECT para especificar a versão de uma tabela Delta Sharing montada em um catálogo. As tabelas devem ser compartilhadas usando WITH HISTORY.
Suporte para WHEN NOT MATCHED BY SOURCE para MERGE INTO
Agora você pode adicionar WHEN NOT MATCHED BY SOURCE cláusulas a MERGE INTO a fim de atualizar ou excluir linhas na tabela escolhida que não têm correspondências na tabela de origem segundo a condição de mesclagem. A nova cláusula está disponível em SQL, Python, Scala e Java. Consulte MERGE INTO.
Coleção de estatísticas otimizadas para CONVERT TO DELTA
A coleta de estatísticas para a operação CONVERT TO DELTA agora está muito mais rápida. Isso reduz o número de cargas de trabalho que podem usar NO STATISTICS para aumentar a eficiência.
Suporte do Catálogo do Unity para desfazer a exclusão de tabelas
Esse recurso foi inicialmente lançado na Versão Prévia Pública. Ele está em disponibilidade geral a partir de 25 de outubro de 2023.
Agora você pode soltar uma tabela gerenciada ou externa removida em um esquema existente dentro de sete dias após a remoção. Consulte UNDROP e SHOW TABLES DROPPED.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- filelock de 3.8.0 para 3.8.2
- platformdirs de 2.5.4 para 2.6.0
- setuptools de 58.0.4 para 61.2.0
- Atualização das bibliotecas do R:
- Bibliotecas do Java atualizadas:
- io.delta.delta-sharing-spark_2.12 de 0.5.2 para 0.6.2
- org.apache.hive.hive-storage-api de 2.7.2 para 2.8.1
- org.apache.parquet.parquet-column de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-common de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
- org.tukaani.xz de 1.8 para 1.9
Apache Spark
O Databricks Runtime 12.1 inclui o Apache Spark 3.3.1. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 12.0 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-41405] [SC-119769][12.1.0] Revert “[SC-119411][sql] Centralizar a lógica de resolução de colunas” e “[SC-117170][spark-41338][SQL] Resolver referências externas e colunas normais no mesmo lote do analisador”
- [SPARK-41405] [SC-119411][sql] Centralizar a lógica de resolução de coluna
- [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand deve definir o sinalizador de substituição corretamente
- [SPARK-41659] [SC-119526][connect][12.X] Habilitar doctests em pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][sql] Corrigir regressão de desempenho do leitor ORC devido ao recurso de valor padrão
- [SPARK-41807] [SC-119399][core] Remover classe de erro inexistente: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][connect] Extrair nomes de uma lista de dicionários em SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Mover a documentação do Spark Connect e o script para dev/ e para a documentação do Python
- [SPARK-41534] [SC-119456][connect][SQL][12.x] Configurar módulo de cliente inicial para o Spark Connect
- [SPARK-41365] [SC-118498][ui][3.3] A página de estágios da interface do usuário falha ao carregar para o proxy em um ambiente específico do Yarn
-
[SPARK-41481] [SC-118150][core][SQL] Reutilizar
INVALID_TYPED_LITERALem vez de_LEGACY_ERROR_TEMP_0020 - [SPARK-41049] [SC-119305][sql] Revisitar o tratamento de expressões com estado
-
[SPARK-41726] [SC-119248][sql] Remove
OptimizedCreateHiveTableAsSelectCommand -
[SPARK-41271] [SC-118648][sc-118348][SQL] Suporte a consultas SQL parametrizadas por
sql() -
[SPARK-41066] [SC-119344][connect][PYTHON] Implementar
DataFrame.sampleByeDataFrame.stat.sampleBy - [SPARK-41407] [SC-119402][sc-119012][SQL][todos os testes] Efetuar pull da gravação v1 para WriteFiles
-
[SPARK-41565] [SC-118868][sql] Adicionar a classe de erro
UNRESOLVED_ROUTINE - [SPARK-41668] [SC-118925][sql] A função DECODE retorna resultados incorretos quando passado NULL
- [SPARK-41554] [SC-119274] correção da alteração da escala decimal quando a escala diminuiu em m…
-
[SPARK-41065] [SC-119324][connect][PYTHON] Implementação de
DataFrame.freqItemseDataFrame.stat.freqItems - [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Reativar testes de documentação e adicionar alias de coluna ausente para count()
-
[SPARK-41069] [SC-119310][connect][PYTHON] Implementar
DataFrame.approxQuantileeDataFrame.stat.approxQuantile -
[SPARK-41809] [SC-119367][connect][PYTHON] Fazer a função
from_jsondar suporte ao esquema DataType -
[SPARK-41804] [SC-119382][sql] Escolha o tamanho do elemento correto para
InterpretedUnsafeProjectionmatriz de UDTs - [SPARK-41786] [SC-119308][connect][PYTHON] Desduplicar funções auxiliares
-
[SPARK-41745] [SC-119378][spark-41789][12.X] Fazer com que
createDataFramesuporte uma lista de linhas - [SPARK-41344] [SC-119217][sql] Tornar o erro mais claro quando a tabela não encontrada no catálogo SupportsCatalogOptions
-
[SPARK-41803] [SC-119380][connect][PYTHON] Adicionar função ausente
log(arg1, arg2) - [SPARK-41808] [SC-119356][connect][PYTHON] Tornar funções JSON compatíveis com opções
-
[SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Faça
__getitem__o filtro de suporte e selecione - [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Fazer suporte de operação de coluna Nenhum
- [SPARK-41440] [SC-119279][connect][PYTHON] Evite o operador de cache para exemplo geral.
-
[SPARK-41785] [SC-119290][connect][PYTHON] Implementar
GroupedData.mean - [SPARK-41629] [SC-119276][connect] Suporte para extensões de protocolo em relação e expressão
-
[SPARK-41417] [SC-118000][core][SQL] Renomear
_LEGACY_ERROR_TEMP_0019paraINVALID_TYPED_LITERAL - [SPARK-41533] [SC-119342][connect][12.X] Tratamento de Erros Adequado para Cliente/Servidor do Spark Connect
- [SPARK-41292] [SC-119357][connect][12.X] Janela de suporte no namespace pyspark.sql.window
- [SPARK-41493] [SC-119339][connect][PYTHON] Fazer opções de suporte a funções csv
- [SPARK-39591] [SC-118675][ss] Acompanhamento de progresso assíncrono
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implementar
Column.{withField, dropFields} -
[SPARK-41068] [SC-119268][connect][PYTHON] Implementar
DataFrame.stat.corr - [SPARK-41655] [SC-119323][connect][12.X] Habilitar doctests em pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][connect] Misturar ClientId no cache de SparkSession
-
[SPARK-41354] [SC-119194][connect] Adicionar
RepartitionByExpressionao proto -
[SPARK-41784] [SC-119289][connect][PYTHON] Adicionar elemento ausente
__rmod__em Coluna - [SPARK-41778] [SC-119262][sql] Adicionar um alias "reduce" a ArrayAggregate
-
[SPARK-41067] [SC-119171][connect][PYTHON] Implementar
DataFrame.stat.cov - [SPARK-41764] [SC-119216][connect][PYTHON] Tornar o nome da operação de string interna consistente com FunctionRegistry
- [SPARK-41734] [SC-119160][conectar] Adicionar uma mensagem principal para Catálogo
- [SPARK-41742] [SC-119263] Suporte a df.groupBy().agg({“*”:”count”})
-
[SPARK-41761] [SC-119213][connect][PYTHON] Corrigir operações aritméticas:
__neg__, ,__pow____rpow__ -
[SPARK-41062] [SC-118182][sql] Renomear
UNSUPPORTED_CORRELATED_REFERENCEparaCORRELATED_REFERENCE -
[SPARK-41751] [SC-119211][connect][PYTHON] Correção
Column.{isNull, isNotNull, eqNullSafe} -
[SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implementar
unwrap_udtfunção -
[SPARK-41333] [SC-119195][spark-41737] Implementar
GroupedData.{min, max, avg, sum} -
[SPARK-41751] [SC-119206][connect][PYTHON] Correção
Column.{bitwiseAND, bitwiseOR, bitwiseXOR} - [SPARK-41631] [SC-101081][sql] Suporte à resolução implícita de alias de coluna lateral em agregações
- [SPARK-41529] [SC-119207][connect][12.X] Implementar SparkSession.stop
-
[SPARK-41729] [SC-119205][core][SQL][12.x] Renomear
_LEGACY_ERROR_TEMP_0011paraUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES - [SPARK-41717] [SC-119078][connect][12.X] Deduplicar impressão e repr_html no LogicalPlan
-
[SPARK-41740] [SC-119169][connect][Python] Implementar
Column.name - [SPARK-41733] [SC-119163][sql][SS] Aplicar poda baseada em padrão de árvore para a regra ResolveWindowTime
- [SPARK-41732] [SC-119157][sql][SS] Aplicar poda baseada em padrão de árvore para a regra SessionWindowing
- [SPARK-41498] [SC-119018] Propagar metadados por meio de União
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Implementar o acessador de coluna
-
[SPARK-41736] [SC-119161][connect][PYTHON]
pyspark_types_to_proto_typesdeve dar suporteArrayType -
[SPARK-41473] [SC-119092][connect][PYTHON] Implementar
format_numberfunção - [SPARK-41707] [SC-119141][connect][12.X] Implementar a API de Catálogo no Spark Connect
-
[SPARK-41710] [SC-119062][connect][PYTHON] Implementar
Column.between - [SPARK-41235] [SC-119088][sql][PYTHON]Função de alta ordem: implementação de array_compact
-
[SPARK-41518] [SC-118453][sql] Atribuir um nome à classe de erro
_LEGACY_ERROR_TEMP_2422 -
[SPARK-41723] [SC-119091][connect][PYTHON] Implementar
sequencefunção - [SPARK-41703] [SC-119060][connect][PYTHON] Combine NullType e typed_null em Literal
- [SPARK-41722] [SC-119090][connect][PYTHON] Implementar 3 funções de janela de tempo ausentes
- [SPARK-41503] [SC-119043][connect][PYTHON] Implementar funções de transformação de partição
- [SPARK-41413] [SC-118968][sql] Evite redistribuir dados na Junção Storage-Partitioned quando as chaves de partição não corresponderem, mas as expressões de junção são compatíveis.
-
[SPARK-41700] [SC-119046][connect][PYTHON] Remove
FunctionBuilder -
[SPARK-41706] [SC-119094][connect][PYTHON]
pyspark_types_to_proto_typesdeve dar suporteMapType - [SPARK-41702] [SC-119049][connect][PYTHON] Adicionar operações inválidas de coluna
- [SPARK-41660] [SC-118866][sql] Somente propagar colunas de metadados se forem usadas
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] Implementar um acumulador para coletar métricas de contagem de linhas por mapeador
- [SPARK-41647] [SC-119064][connect][12.X] Desduplicar docstrings em pyspark.sql.connect.functions
- [SPARK-41701] [SC-119048][connect][PYTHON] Implementar suporte à operação de coluna
-
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementar
rollup,cubeepivot - [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] Remover duplicatas nas docstrings em pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][connect][PYTHON] Mover expressões para expressions.py
- [SPARK-41687] [SC-118949][connect] Remover duplicatas de docstrings em pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][connect] Desduplicar docstrings em pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][connect] Extrair GroupedData para group.py
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementar
Windowfunções -
[SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Suporte à operação Make Column
datetime - [SPARK-41672] [SC-118929][connect][PYTHON] Habilitar as funções preteridas
-
[SPARK-41673] [SC-118932][connect][PYTHON] Implementar
Column.astype -
[SPARK-41364] [SC-118865][connect][PYTHON] Implementar função
broadcast - [SPARK-41648] [SC-118914][connect][12.X] Eliminação de duplicação de docstrings em pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][connect][12.X] Remover duplicação de docstrings em pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][connect][12.X] Deduplicar docstrings em pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implementar o restante das funções lambda
- [SPARK-41441] [SC-118557][sql] Suportar geração sem saída obrigatória de filho para incorporar referências externas
- [SPARK-41669] [SC-118923][sql] Poda antecipada na função canCollapseExpressions
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : Remover ScalaReflectionLock de SchemaConverters
-
[SPARK-41464] [SC-118861][connect][PYTHON] Implementar
DataFrame.to -
[SPARK-41434] [SC-118857][connect][PYTHON] Implementação inicial
LambdaFunction - [SPARK-41539] [SC-118802][sql] Remapear estatísticas e restrições contra a saída no plano lógico para LogicalRDD
- [SPARK-41396] [SC-118786][sql][PROTOBUF] Verificações de suporte e recursão do campo OneOf
- [SPARK-41528] [SC-118769][connect][12.X] Mesclar namespace do Spark Connect e da API do PySpark
- [SPARK-41568] [SC-118715][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1236
-
[SPARK-41440] [SC-118788][connect][PYTHON] Implementar
DataFrame.randomSplit - [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Adicionar Spark Connect e protobuf em setup.py com a especificação de dependências
- [SPARK-27561] [SC-101081][12.x][SQL] Suporte à resolução implícita de alias de coluna lateral no Projeto
-
[SPARK-41535] [SC-118645][sql] Definir nulo corretamente para campos de intervalo de calendário em
InterpretedUnsafeProjectioneInterpretedMutableProjection - [SPARK-40687] [SC-118439][sql] Suporte à função interna de mascaramento de dados 'mask'
- [SPARK-41520] [SC-118440][sql] Dividir AND_OR TreePattern para separar AND e OR TreePatterns
- [SPARK-41349] [SC-118668][connect][PYTHON] Implementar DataFrame.hint
-
[SPARK-41546] [SC-118541][connect][PYTHON]
pyspark_types_to_proto_typesdeve dar suporte a StructType. -
[SPARK-41334] [SC-118549][connect][PYTHON] Mover
SortOrderproto de relações para expressões - [SPARK-41387] [SC-118450][ss] Declarar deslocamento final atual da fonte de dados kafka para Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][core][SQL] Renomear
_LEGACY_ERROR_TEMP_1180paraUNEXPECTED_INPUT_TYPEe remover_LEGACY_ERROR_TEMP_1179 -
[SPARK-41319] [SC-118441][connect][PYTHON] Implementar Coluna. {quando, caso contrário} e Função
whencomUnresolvedFunction - [SPARK-41541] [SC-118460][sql] Corrigir chamada ao método filho errado em SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[SPARK-41453] [SC-118458][connect][PYTHON] Implementar
DataFrame.subtract - [SPARK-41248] [SC-118436][sc-118303][SQL] Adicionar "spark.sql.json.enablePartialResults" para habilitar/desabilitar resultados parciais JSON
- [SPARK-41437] Reverter "[SC-117601][sql] Não otimize o inputquery duas vezes para fallback de gravação v1"
- [SPARK-41472] [SC-118352][connect][PYTHON] Implementar o restante das funções de cadeia de caracteres/binárias
-
[SPARK-41526] [SC-118355][connect][PYTHON] Implementar
Column.isin - [SPARK-32170] [SC-118384] [CORE] Melhorar a especulação por meio das métricas da tarefa de preparo.
- [SPARK-41524] [SC-118399][ss] Diferenciar SQLConf e extraOptions em StateStoreConf para seu uso no RocksDBConf
- [SPARK-41465] [SC-118381][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][sql] LongToUnsafeRowMap com suporte a ignorarChaveDuplicada
-
[SPARK-41409] [SC-118302][core][SQL] Renomear
_LEGACY_ERROR_TEMP_1043paraWRONG_NUM_ARGS.WITHOUT_SUGGESTION -
[SPARK-41438] [SC-118344][connect][PYTHON] Implementar
DataFrame.colRegex - [SPARK-41437] [SC-117601][sql] Não otimize a consulta de entrada duas vezes para fallback de gravação v1
-
[SPARK-41314] [SC-117172][sql] Atribuir um nome à classe de erro
_LEGACY_ERROR_TEMP_1094 - [SPARK-41443] [SC-118004][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] Refatorar LiteralExpression para dar suporte a DataType
- [SPARK-41448] [SC-118046] Tornar IDs de trabalho de MR consistentes em FileBatchWriter e FileFormatWriter
- [SPARK-41456] [SC-117970][sql] Melhorar o desempenho de try_cast
-
[SPARK-41495] [SC-118125][connect][PYTHON] Implementar
collectionfunções: P~Z - [SPARK-41478] [SC-118167][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql] Refatorar a mensagem de erro de
NUM_COLUMNS_MISMATCHde modo a torná-la mais genérica -
[SPARK-41404] [SC-118016][sql] Refatorar
ColumnVectorUtils#toBatchpara tornar o teste deColumnarBatchSuite#testRandomRowsmais primitivo quanto ao tipo de dado - [SPARK-41468] [SC-118044][sql] Corrigir manipulação de PlanExpression em EquivalentExpressions
- [SPARK-40775] [SC-118045][sql] Corrigir entradas de descrição duplicadas para varreduras de arquivo V2
- [SPARK-41492] [SC-118042][connect][PYTHON] Implementar funções MISC
- [SPARK-41459] [SC-118005][sql] corrigir a saída do log de operação do servidor Thrift que está vazia
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjectiondeve usarsetDecimalpara definir valores nulos para decimais em uma linha não segura - [SPARK-41376] [SC-117840][core][3.3] Corrigir a lógica de verificação Netty preferDirectBufs no início do executor
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implementar
collectionfunções: E~M -
[SPARK-41389] [SC-117426][core][SQL] Reutilizar
WRONG_NUM_ARGSem vez de_LEGACY_ERROR_TEMP_1044 - [SPARK-41462] [SC-117920][sql] Tipo de data e carimbo de data/hora pode ser convertido em TimestampNTZ
-
[SPARK-41435] [SC-117810][sql] Mudar para chamar
invalidFunctionArgumentsErrorparacurdate()quandoexpressionsnão estiver vazio - [SPARK-41187] [SC-118030][core] Vazamento de Memória no LiveExecutor em AppStatusListener quando ExecutorLost ocorre
- [SPARK-41360] [SC-118083][core] Evite o re-registro do BlockManager se o executor tiver sido perdido
- [SPARK-41378] [SC-117686][sql] Suporte para estatísticas de coluna no DS v2
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Sobrescrever prettyName de StringDecode
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implementar funções de data/timestamp
- [SPARK-41329] [SC-117975][conectar] Resolver importações circulares no Spark Connect
- [SPARK-41477] [SC-118025][connect][PYTHON] Inferir corretamente o tipo de dados de inteiros literais
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x] Criar
createDataFrameesquema de suporte e mais tipos de conjunto de dados de entrada - [SPARK-41475] [SC-117997][connect] Corrigir erro no comando lint-scala e erro de digitação
- [SPARK-38277] [SC-117799][ss] Limpar o lote de gravação após a confirmação do repositório de estado RocksDB
- [SPARK-41375] [SC-117801][ss] Evitar o KafkaSourceOffset mais recente que esteja vazio
-
[SPARK-41412] [SC-118015][conectar] Implementar
Column.cast -
[SPARK-41439] [SC-117893][connect][PYTHON] Implementar
DataFrame.melteDataFrame.unpivot - [SPARK-41399] [SC-118007][sc-117474][CONNECT] Refatorar testes relacionados à coluna para "test_connect_column"
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] A coluna deve dar suporte ao operador !=
- [SPARK-40697] [SC-117806][sc-112787][SQL] Adicionar preenchimento de caracteres na leitura para cobrir arquivos de dados externos
- [SPARK-41349] [SC-117594][connect][12.X] Implementar DataFrame.hint
- [SPARK-41338] [SC-117170][sql] Resolver referências externas e colunas normais no mesmo batch do analisador
-
[SPARK-41436] [SC-117805][connect][PYTHON] Implementar
collectionfunções: A~C - [SPARK-41445] [SC-117802][connect] Implementar DataFrameReader.parquet
-
[SPARK-41452] [SC-117865][sql]
to_chardeve retornar nulo quando o formato for nulo - [SPARK-41444] [SC-117796][connect] Suporte read.json()
- [SPARK-41398] [SC-117508][sql] Relaxe as restrições em Storage-Partitioned Ingressar quando as chaves de partição após a filtragem de runtime não corresponderem
-
[SPARK-41228] [SC-117169][sql] Renomear e melhorar a mensagem de erro para
COLUMN_NOT_IN_GROUP_BY_CLAUSE. -
[SPARK-41381] [SC-117593][connect][PYTHON] Implementar
count_distinctesum_distinctfunções - [SPARK-41433] [SC-117596][connect] Tornar configurável o tamanho de lote máximo do Arrow
- [SPARK-41397] [SC-117590][connect][PYTHON] Implementar parte das funções de strings e binários
-
[SPARK-41382] [SC-117588][connect][PYTHON] Implementar função
product -
[SPARK-41403] [SC-117595][connect][PYTHON] Implementar
DataFrame.describe - [SPARK-41366] [SC-117580][connect] DF.groupby.agg() deve ser compatível
- [SPARK-41369] [SC-117584][connect] Adicionar conexão comum ao jar sombreado dos servidores
- [SPARK-41411] [SC-117562][ss] Correção de bug no suporte de marca d'água para operadores com vários estados
- [SPARK-41176] [SC-116630][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implementar funções de agregação
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implementar funções normais
- [SPARK-41305] [SC-117411][connect] Aprimorar a documentação do comando proto
- [SPARK-41372] [SC-117427][connect][PYTHON] Implementar "TempView" do DataFrame
- [SPARK-41379] [SC-117420][ss][PYTHON] Forneça uma sessão Spark clonada no DataFrame na função do usuário para o sink foreachBatch no PySpark
- [SPARK-41373] [SC-117405][sql][ERROR] Renomear CAST_WITH_FUN_SUGGESTION para CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][sql] Refatorar o método
ColumnVectorUtils#populatepara usarPhysicalDataTypeem vez deDataType - [SPARK-41355] [SC-117423][sql] Solução alternativa para problema de validação do nome da tabela hive
-
[SPARK-41390] [SC-117429][sql] Atualizar o script usado para gerar
registerfunção emUDFRegistration -
[SPARK-41206] [SC-117233][sc-116381][SQL] Renomeie a classe
_LEGACY_ERROR_TEMP_1233de erro paraCOLUMN_ALREADY_EXISTS - [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implementar funções matemáticas
- [SPARK-40970] [SC-117308][connect][PYTHON] Suporte a Lista[Coluna] para o argumento on do Join
- [SPARK-41345] [SC-117178][connect] Adicionar Dica para Conectar Proto
- [SPARK-41226] [SC-117194][sql][12.x] Refatorar tipos spark introduzindo tipos físicos
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Adicionar suporte básico para DataFrameWriter
- [SPARK-41347] [SC-117173][connect] Adicionar conversão ao protocolo de expressão
- [SPARK-41323] [SC-117128][sql] Suporte para current_schema
- [SPARK-41339] [SC-117171][sql] Feche e recrie o lote de gravação do RocksDB em vez de apenas limpar
- [SPARK-41227] [SC-117165][connect][PYTHON] Implementar união cruzada de DataFrame
-
[SPARK-41346] [SC-117176][connect][PYTHON] Implementar
ascedescfunções - [SPARK-41343] [SC-117166][connect] Mover análise do FunctionName para o lado do servidor
- [SPARK-41321] [SC-117163][connect] Campo de destino de suporte para o UnresolvedStar
-
[SPARK-41237] [SC-117167][sql] Reutilizar a classe
UNSUPPORTED_DATATYPEde erro para_LEGACY_ERROR_TEMP_0030 -
[SPARK-41309] [SC-116916][sql] Reutilizar
INVALID_SCHEMA.NON_STRING_LITERALem vez de_LEGACY_ERROR_TEMP_1093 -
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Otimizar o uso do construtor de
StructType - [SPARK-41335] [SC-117135][connect][PYTHON] Dar suporte a IsNull e IsNotNull em Coluna
-
[SPARK-41332] [SC-117131][connect][PYTHON] Correção
nullOrderingemSortOrder - [SPARK-41325] [SC-117132][connect][12.X] Correção da ausência de avg() para GroupBy no DF
-
[SPARK-41327] [SC-117137][core] Correção de
SparkStatusTracker.getExecutorInfospor alternância de informações de memória de armazenamento fora do heap. -
[SPARK-41315] [SC-117129][connect][PYTHON] Implementar
DataFrame.replaceeDataFrame.na.replace - [SPARK-41328] [SC-117125][connect][PYTHON] Adicionar API lógica e de cadeia de caracteres à Coluna
-
[SPARK-41331] [SC-117127][connect][PYTHON] Adicionar
orderByedrop_duplicates -
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternaldeve garantir que o bloqueio seja desbloqueado normalmente - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Refatorar "Column" para compatibilidade com API
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Implementar DataFrame.withColumnRenamed
-
[SPARK-41221] [SC-116607][sql] Adicionar a classe de erro
INVALID_FORMAT - [SPARK-41272] [SC-116742][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql] Reutilizar
INVALID_SCHEMAem vez de_LEGACY_ERROR_TEMP_1227 - [SPARK-41260] [SC-116880][python][SS][12.x] Converter instâncias NumPy em tipos primitivos Python durante a atualização do GroupState
-
[SPARK-41174] [SC-116609][core][SQL] Transmitir uma classe de erro aos usuários para
formatinválido deto_binary() - [SPARK-41264] [SC-116971][connect][PYTHON] Ampliar suporte literal para mais tipos de dados
- [SPARK-41326] [SC-116972] [CONNECT] A correção da eliminação de duplicação não tem entrada
- [SPARK-41316] [SC-116900][sql] Habilitar a recursão final sempre que possível
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Suporte a expressões de cadeia de caracteres no filtro.
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implementar DataFrame.withColumn(s)
- [SPARK-41182] [SC-116632][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] Migrar os erros de opções de mapa para classes de erro
- [SPARK-40940] [SC-115993][12.x] Remover verificadores de operador com vários estados para fluxos de consultas.
- [SPARK-41310] [SC-116885][connect][PYTHON] Implementar DataFrame.toDF
- [SPARK-41179] [SC-116631][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] BHJ LeftAnti não atualiza numOutputRows quando o codegen está desabilitado
-
[SPARK-41148] [SC-116878][connect][PYTHON] Implementar
DataFrame.dropnaeDataFrame.na.drop -
[SPARK-41217] [SC-116380][sql] Adicionar a classe de erro
FAILED_FUNCTION_CALL - [SPARK-41308] [SC-116875][connect][PYTHON] Aprimorar DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Homogeneizar o comportamento para SparkSession.range()
- [SPARK-41306] [SC-116860][connect] Aprimorar a documentação do Protocolo de Expressão do Connect
- [SPARK-41280] [SC-116733][connect] Implementar DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] O esquema não definido é interpretado como Esquema
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Renomear RemoteSparkSession
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas não deve retornar dataframe do Pandas opcional
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explaindeve imprimir e retornar None - [SPARK-41278] [SC-116732][connect] Remover QualifiedAttribute não utilizado em Expression.proto
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Remover base de conversão de coleção redundante no código Scala 2.13
- [SPARK-41261] [SC-116718][python][SS] Corrigir problema para applyInPandasWithState quando as colunas de chaves de agrupamento não são colocadas em ordem desde o início
- [SPARK-40872] [SC-116717][3.3] Fallback no bloco de ordem aleatória original quando uma parte da ordem aleatória mesclada por push tem tamanho zero
- [SPARK-41114] [SC-116628][connect] Suporte a dados locais para LocalRelation
-
[SPARK-41216] [SC-116678][connect][PYTHON] Implementar
DataFrame.{isLocal, isStreaming, printSchema, inputFiles} - [SPARK-41238] [SC-116670][connect][PYTHON] Suporte a mais tipos de dados embutidos
-
[SPARK-41230] [SC-116674][connect][PYTHON] Remover
strdo tipo de expressão Agregada - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Implementação otimizada de coleta baseada em Arrow para fazer streaming do servidor para o cliente
- [SPARK-41222] [SC-116625][connect][PYTHON] Unificar as definições de digitação
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Desabilitar funções sem suporte.
- [SPARK-41201] [SC-116526][connect][PYTHON] Implementar no cliente de Python
- [SPARK-41203] [SC-116258] [CONNECT] Suporte a Dataframe.tansform no cliente Python.
-
[SPARK-41213] [SC-116375][connect][PYTHON] Implementar
DataFrame.__repr__eDataFrame.dtypes -
[SPARK-41169] [SC-116378][connect][PYTHON] Implementar
DataFrame.drop - [SPARK-41172] [SC-116245][sql] Migrar o erro ref ambíguo para uma classe de erro
- [SPARK-41122] [SC-116141][connect] A API de explicação pode oferecer suporte a diferentes modos
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] Melhorar a inferência de tipo do PySpark no método _merge_type
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogênee a versão do protobuf no servidor de conexão spark para usar a mesma versão principal.
- [SPARK-35531] [SC-116409][sql] Atualizar estatísticas da tabela hive sem conversão desnecessária
- [SPARK-41154] [SC-116289][sql] Cache de relação incorreto para consultas com especificação de viagem no tempo
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementar
DataFrame.isEmpty -
[SPARK-41135] [SC-116400][sql] Renomear
UNSUPPORTED_EMPTY_LOCATIONparaINVALID_EMPTY_LOCATION - [SPARK-41183] [SC-116265][sql] Adicionar uma API de extensão para fazer a normalização do plano para cache
- [SPARK-41054] [SC-116447][ui][CORE] Suporte a RocksDB como KVStore na interface do usuário dinâmica
- [SPARK-38550] [SC-115223]Reverter "[SQL][core] Usar um repositório baseado em disco para salvar mais informações de depuração para interface do usuário dinâmica"
-
[SPARK-41173] [SC-116185][sql] Mova
require()para fora dos construtores de expressões de cadeia de caracteres - [SPARK-41188] [SC-116242][core][ML] Definir executorEnv OMP_NUM_THREADS como spark.task.cpus por padrão para processos JVM do executor do Spark
-
[SPARK-41130] [SC-116155][sql] Renomear
OUT_OF_DECIMAL_TYPE_RANGEparaNUMERIC_OUT_OF_SUPPORTED_RANGE - [SPARK-41175] [SC-116238][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] Reduzir a conversão de coleção ao criar AttributeMap
-
[SPARK-41139] [SC-115983][sql] Melhorar a classe de erro:
PYTHON_UDF_IN_ON_CLAUSE - [SPARK-40657] [SC-115997][protobuf] Exigir sombreamento para jar de classe Java, melhorar o tratamento de erros
- [SPARK-40999] [SC-116168] Propagação de dica para subconsultas
- [SPARK-41017] [SC-116054][sql] Suporte à poda de coluna com vários filtros não determinísticos
- [SPARK-40834] [SC-114773][sql] Use SparkListenerSQLExecutionEnd para acompanhar o status final do SQL na interface do usuário
-
[SPARK-41118] [SC-116027][sql]
to_number/try_to_numberdeve retornarnullquando o formato fornull - [SPARK-39799] [SC-115984][sql] DataSourceV2: Exibir interface do catálogo
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Evite inserir o Spark Connect na versão binária do Apache Spark
- [SPARK-41048] [SC-116043][sql] Melhorar o particionamento de saída e a ordenação com o cache do AQE
- [SPARK-41198] [SC-116256][ss] Corrigir métricas na consulta de streaming com fonte de streaming CTE e DSv1
- [SPARK-41199] [SC-116244][ss] Corrigir problema de métricas quando a fonte de streaming DSv1 e a fonte de streaming DSv2 são coutilizados
- [SPARK-40957] [SC-116261][sc-114706] Adicionar cache de memória no HDFSMetadataLog
- [SPARK-40940] Reverter "[SC-115993] Remover verificadores de operador com vários estados para fluxos de consultas".
-
[SPARK-41090] [SC-116040][sql] Gerar exceção para
db_name.view_nameao criar exibição temporária pela API do conjunto de dados -
[SPARK-41133] [SC-116085][sql] Integrar em
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISIONNUMERIC_VALUE_OUT_OF_RANGE - [SPARK-40557] [SC-116182][sc-111442][CONNECT] Descarte de código 9 commits
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] Compilação do Spark Connect como plug-in de driver com dependências sombreadas
- [SPARK-41096] [SC-115812][sql] Suporte para leitura de tipos parquet FIXED_LEN_BYTE_ARRAY
-
[SPARK-41140] [SC-115879][sql] Renomear a classe
_LEGACY_ERROR_TEMP_2440de erro paraINVALID_WHERE_CONDITION - [SPARK-40918] [SC-114438][sql] Incompatibilidade entre FileSourceScanExec e Orc e ParquetFileFormat na produção de saída columnar
- [SPARK-41155] [SC-115991][sql] Adicionar mensagem de erro a SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Remover verificadores de operador com vários estados para fluxos de consultas.
-
[SPARK-41098] [SC-115790][sql] Renomear
GROUP_BY_POS_REFERS_AGG_EXPRparaGROUP_BY_POS_AGGREGATE - [SPARK-40755] [SC-115912][sql] Migrar falhas de formatação de número causadas por verificação de tipo para classes de erro
-
[SPARK-41059] [SC-115658][sql] Renomear
_LEGACY_ERROR_TEMP_2420paraNESTED_AGGREGATE_FUNCTION - [SPARK-41044] [SC-115662][sql] Converter DATATYPE_MISMATCH.UNSPECIFIED_FRAME para INTERNAL_ERROR
-
[SPARK-40973] [SC-115132][sql] Renomear
_LEGACY_ERROR_TEMP_0055paraUNCLOSED_BRACKETED_COMMENT
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 12.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
| atributos | 21.4.0 | chamada de retorno | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
| beautifulsoup4 | 4.11.1 | preto | 22.3.0 | alvejante | 4.1.0 |
| boto3 | 1.21.32 | botocore | 1.24.32 | certificação | 2021.10.8 |
| cffi | 1.15.0 | chardet | 4.0.0 | normalizador de conjunto de caracteres | 2.0.4 |
| clique | 8.0.4 | criptografia | 3.4.8 | ciclista | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
| decorador | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
| de docstring para markdown | 0,11 | pontos de entrada | 0,4 | em execução | 0.8.3 |
| Visão geral de facetas | 1.0.0 | fastjsonschema | 2.16.2 | bloqueio de arquivo | 3.8.2 |
| fonttools | 4.25.0 | IDNA | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets (biblioteca Python para widgets interativos) | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.1.0 | jsonschema | 4.4.0 | Cliente Jupyter | 6.1.12 |
| jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
| mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| notebook | 6.4.8 | numpy | 1.21.5 | empacotando | 21.3 |
| Pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
| pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Almofada | 9.0.1 | caroço | 21.2.4 |
| platformdirs | 2.6.0 | enredo | 5.6.0 | Pluggy | 1.0.0 |
| prometheus-client | 0.13.1 | kit de ferramentas de prompt | 3.0.20 | protobuf | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | Pyarrow | 7.0.0 | pycparser | 2.21 |
| pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.4 | piright | 1.1.283 |
| pirsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server (servidor LSP para Python) | 1.6.0 | Pytz | 2021.3 | pyzmq | 22.3.0 |
| solicitações | 2.27.1 | requests-unixsocket | 0.2.0 | corda | 0.22.0 |
| s3transfer | 0.5.0 | scikit-aprender | 1.0.2 | Scipy | 1.7.3 |
| seaborn (biblioteca de visualização em Python) | 0.11.2 | Send2Trash | 1.8.0 | Ferramentas de configuração | 61.2.0 |
| seis | 1.16.0 | Soupsieve | 2.3.1 | ssh-import-id | 5.10 |
| dados empilhados | 0.2.0 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.13.2 | tenacidade | 8.0.1 |
| terminado | 0.13.1 | caminho de teste | 0.5.0 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
| traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
| atualizações não supervisionadas | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | codificações web | 0.5.1 | whatthepatch | 1.0.3 |
| wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Bibliotecas R instaladas
As bibliotecas R foram instaladas por meio do Instantâneo CRAN da Microsoft em 11/11/2022.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 10.0.0 | AskPass | 1,1 | afirme isso | 0.2.1 |
| backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
| ciar | 1.3-28 | Fabricação de cerveja | 1.0-8 | Brio | 1.1.3 |
| vassoura | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
| chamador | 3.7.3 | sinal de interpolação | 6.0-93 | Cellranger | 1.1.0 |
| crono | 2.3-58 | classe | 7.3-20 | Interface de Linha de Comando (CLI) | 3.4.1 |
| clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
| codetools | 0.2-18 | espaço de cores | 2.0-3 | commonmark | 1.8.1 |
| compilador | 4.2.2 | configuração | 0.3.1 | cpp11 | 0.4.3 |
| giz de cera | 1.5.2 | credenciais | 1.3.2 | encurvar | 4.3.3 |
| Tabela de Dados | 1.14.4 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | Descrição | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | hash | 0.6.30 | iluminação para baixo | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| reticências | 0.3.2 | avaliar | 0.18 | fansi | 1.0.3 |
| cores | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
| para gatos | 0.5.2 | para cada | 1.5.2 | estrangeiro | 0.8-82 |
| forja | 0.2.0 | Fs | 1.5.2 | futuro | 1.29.0 |
| future.apply | 1.10.0 | gargarejar | 1.2.1 | genéricos | 0.1.3 |
| Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-4 | globais | 0.16.1 |
| cola | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | elemento gráfico | 4.2.2 | grDevices | 4.2.2 |
| grade | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | capacete de segurança | 1.2.0 | refúgio | 2.5.1 |
| mais alto | 0,9 | Hms | 1.1.2 | ferramentas HTML | 0.5.3 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.6 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2.23-20 | malhador | 1.40 |
| rotulagem | 0.4.2 | posterior | 1.3.0 | treliça | 0.20-45 |
| lava vulcânica | 1.7.0 | ciclo de vida | 1.0.3 | ouça | 0.8.0 |
| lubrificado | 1.9.0 | magrittr | 2.0.3 | redução de preço | 1,3 |
| MISSA | 7.3-58 | Matriz | 1.5-1 | memorizar | 2.0.1 |
| Métodos | 4.2.2 | mgcv | 1.8-41 | mímica | 0,12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelador | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.4 | paralelo | 4.2.2 |
| paralelamente | 1.32.1 | coluna | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| plogr | 0.2.0 | plyr | 1.8.7 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | profvis | 0.3.7 | progresso | 1.2.2 |
| progressador | 0.11.0 | Promessas | 1.2.0.1 | proto | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.2 | purrr | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| Readr | 2.1.3 | readxl | 1.4.1 | Receitas | 1.0.3 |
| jogo de revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
| exemplo reprodutível (reprex) | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.2 | escamas | 1.2.1 |
| Seletor | 0.4-2 | informações de sessão | 1.2.2 | forma | 1.4.6 |
| brilhante | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
| SparkR | 3.3.1 | espacial | 7.3-11 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.2.2 |
| estatísticas4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
| sobrevivência | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.5 | formatação de texto | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | mudança de horário | 0.1.1 | data e hora | 4021.106 |
| tinytex | 0,42 | Ferramentas | 4.2.2 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
| utilitários | 4.2.2 | identificador único universal (UUID) | 1.1-0 | vctrs | 0.5.0 |
| viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
| vibrissa | 0,4 | murchar | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.3.6 | zíper | 2.2.2 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-libraryes | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java-natives | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1,1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Sininho | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.ning | compress-lzf | 1,1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.2 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | Netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | Netty Resolver | 4.1.74.Final |
| io.netty | Netty Tcnative Classes | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-comum | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1,2 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 7.0.0 |
| org.apache.arrow | seta-memória-core | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | vetor de seta | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | api de cliente hadoop | 3.3.4-databricks |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orc-calços | 1.7.6 |
| org.apache.parquet | coluna parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-comum | 1.12.3-databricks-0002 |
| org.apache.parquet | codificação-parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | estruturas-do-formato-parquet | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | comentários da audiência | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | segurança do jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | servidor jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Webapp | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | jersey-comum | 2.36 |
| org.glassfish.jersey.core | jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenésia | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | Calços | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,2 |
| org.scalanlp | breeze_2.12 | 1,2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |