Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
O Databricks lançou esta versão em novembro de 2020.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 7.4, da Apache Spark 3.0.
Novos recursos
Nesta seção:
- Recursos e aprimoramentos do Delta Lake
- O Carregador Automático agora dá suporte à configuração de recursos de notificação de arquivo aos administradores
-
O novo
USAGEprivilégio dá aos administradores maior controle sobre privilégios de acesso a dados - O FUSE do DBFS agora está habilitado para clusters habilitados para passagem
Recursos e melhorias do Delta Lake
Esta versão fornece os seguintes recursos e aprimoramentos do Delta Lake:
- A nova API permite que o Delta Lake verifique se os dados adicionados a uma tabela atendem às restrições
- A nova API permite reverter uma tabela Delta para uma versão mais antiga da tabela
- A nova versão inicial permite retornar apenas as alterações mais recentes em uma fonte de fluxo do Delta Lake
-
Estabilidade aprimorada do
OPTIMIZE
A nova API permite que o Delta Lake verifique se os dados adicionados a uma tabela atendem às restrições
O Delta Lake agora dá suporte a restrições CHECK. Quando fornecido, o Delta Lake verifica automaticamente se os dados adicionados a uma tabela atendem à expressão especificada.
Para adicionar as restrições CHECK, use o comando ALTER TABLE ADD CONSTRAINTS. Para obter detalhes, confira Restrições no Azure Databricks.
A nova API permite reverter uma tabela Delta para uma versão mais antiga da tabela
Agora você pode reverter suas tabelas Delta para versões mais antigas usando o comando RESTORE:
SQL
RESTORE <table> TO VERSION AS OF n;
RESTORE <table> TO TIMESTAMP AS OF 'yyyy-MM-dd HH:mm:ss';
Python
from delta.tables import DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp('yyyy-MM-dd')
Scala (linguagem de programação)
import io.delta.tables.DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp("yyyy-MM-dd")
RESTORE cria uma nova confirmação que reverte de todas as alterações feitas na tabela desde a versão que você deseja restaurar. Todos os dados e metadados existentes são restaurados, o que inclui o esquema, as restrições, as IDs de transação de fluxo, os metadados COPY INTO e a versão do protocolo de tabela. Para obter detalhes, confira Restaurar uma tabela Delta.
A nova versão inicial permite retornar apenas as alterações mais recentes em uma fonte de fluxo do Delta Lake
Para retornar apenas as alterações mais recentes, especifique startingVersion como latest. Para obter detalhes, confira Especificar a posição inicial.
Estabilidade aprimorada do OPTIMIZE
OPTIMIZE (sem nenhum predicado de partição) pode ser dimensionada para executar em tabelas com dezenas de milhões de arquivos pequenos. Anteriormente, o driver do Apache Spark podia ficar sem memória e OPTIMIZE não seria concluído.
OPTIMIZE agora lida com tabelas muito grandes com dezenas de milhões de arquivos.
O Carregador Automático agora dá suporte à configuração de recursos de notificação de arquivo aos administradores
Uma nova API Scala permite que os administradores configurarem recursos de notificação de arquivo para o Carregador Automático. Os engenheiros de dados agora podem operar seus fluxos do Carregador Automático com menos permissões delegando a configuração inicial do recurso aos administradores. Consulte Configurar ou gerenciar manualmente os recursos de notificação de arquivo.
O novo USAGE privilégio dá aos administradores maior controle sobre privilégios de acesso a dados
Para executar uma ação em um objeto USAGE em um banco de dados, agora você deve receber o privilégio nesse banco de dados, além dos privilégios necessários para executar a ação. O privilégio USAGE é concedido para um banco de dados ou um catálogo. Com a introdução do privilégio USAGE, um proprietário de tabela não pode mais decidir compartilhá-lo com outro usuário, pois ele também deve ter o privilégio USAGE no banco de dados que contém a tabela.
Em espaços de trabalho que têm o controle de acesso de tabela habilitado, o grupo users tem automaticamente o privilégio USAGE para a raiz CATALOG.
Para obter detalhes, consulte USAGE privilégio.
O FUSE do DBFS agora está habilitado para clusters habilitados para passagem
Agora você pode ler e gravar no DBFS usando a montagem FUSE em /dbfs/ quando estiver usando um cluster de Alta Simultaneidade habilitado para passagem de credencial. Há suporte para montagens regulares. Não há suporte para montagens que exigem credenciais de passagem.
Aprimoramentos
O SQL Spark dá suporte a IFF e CHARINDEX como sinônimos para IF ePOSITION
No Databricks Runtime IF() é um sinônimo de CASE WHEN <cond> THEN <expr1> ELSE <expr2> END
O Databricks Runtime agora dá suporte a IFF() como sinônimo de IF()
SELECT IFF(c1 = 1, 'Hello', 'World'), c1 FROM (VALUES (1), (2)) AS T(c1)
=> (Hello, 1)
(World, 2)
CHARINDEX é um nome alternativo para a função POSITION.
CHARINDEX localiza a posição da primeira ocorrência de uma cadeia de caracteres dentro de outra cadeia de caracteres com um índice inicial opcional.
VALUES(CHARINDEX('he', 'hello from hell', 2))
=> 12
Várias saídas por célula habilitadas para notebooks Python por padrão
O Databricks Runtime 7.1 introduziu suporte para várias saídas por célula em notebooks Python (e células %python em notebooks não Python), mas era necessário habilitar o recurso para seu notebook. Esse recurso é habilitado por padrão no Databricks Runtime 7.4. Confira Exibir várias saídas por célula.
Aprimoramentos de preenchimento automático para notebooks Python
O preenchimento automático para Python mostra informações de tipo adicionais geradas por meio da análise estática do código usando a biblioteca Jedi. Você pode pressionar a tecla Tab para ver uma lista de opções.
Melhoria dos vetores display do ML Spark na versão prévia do Spark DataFrame
O formato display agora mostra rótulos para o tipo de vetor (esparso ou denso), comprimento, índices (para vetores esparsos) e valores.
Outras correções
- Corrigido um problema de selagem com
collections.namedtupleem notebooks. - Corrigido um problema de selagem com métodos e classes definidas interativamente.
- Corrigido um bug que causava falha nas chamadas para
mlflow.start_run()na passagem ou clusters habilitados para controle de acesso à tabela.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- jedi atualizado de 0.14.1 para 0.17.2.
- koalas atualizado de 1.2.0 para 1.3.0.
- parso atualizado de 0.5.2 para 0.7.0.
- Atualização de várias bibliotecas do R instaladas. Confira Bibliotecas do R instaladas.
Apache Spark
O Databricks Runtime 7.4 inclui o Apache Spark 3.0.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 7.3 LTS (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-33170] [SQL] Adicionar a configuração do SQL para controlar o comportamento de falha rápida no FileFormatWriter
- [SPARK-33136] [SQL] Correção do parâmetro trocado por engano em V2WriteCommand.outputResolved
- [SPARK-33134] [SQL] Retornar resultados parciais somente para objetos JSON raiz
- [SPARK-33038] [SQL] Combinar o plano inicial e atual do AQE...
- [SPARK-33118] [SQL] CREATE TEMPORARY TABLE falha com a localização
- [SPARK-33101] [ML] Fazer com que o formato LibSVM propague a configuração do Hadoop de opções de DS para o sistema de arquivos HDFS subjacente
- [SPARK-33035] [SQL] Atualiza as entradas obsoletas do mapeamento de atributo em QueryPlan#transformUpWithNewOutput
- [SPARK-33091] [SQL] Evite usar o mapa em vez de foreach para evitar o possível efeito colateral em chamadores de OrcUtils.readCatalystSchema
- [SPARK-33073] [PYTHON] Melhorar o tratamento de erros no Pandas para falhas de conversão de Seta
- [SPARK-33043] [ML] Manipular spark.driver.maxResultSize=0 na computação heurística do RowMatrix
- [SPARK-29358] [SQL] Fazer com que o unionByName preencha opcionalmente colunas ausentes com nulos
- [SPARK-32996] [WEB-UI] Manipular ExecutorMetrics vazio em ExecutorMetricsJsonSerializer
- [SPARK-32585][SQL] Suporta enumeração do scala em ScalaReflection
- [SPARK-33019] [CORE] Usar spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version=1 por padrão
- [SPARK-33018] [SQL] Corrigir o problema de estatísticas de estimativa se o filho tiver 0 bytes
- [SPARK-32901] [CORE] Não alocar memória durante o vazamento de UnsafeExternalSorter
- [SPARK-33015] [SQL] Usar millisToDays() na regra ComputeCurrentTime
- [SPARK-33015] [SQL] Computar a data atual apenas uma vez
- [SPARK-32999][SQL] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
- [SPARK-32659] [SQL] Matriz de Transmissão em vez de Definir em InSubqueryExec
- [SPARK-32718][SQL] Remover palavras-chave desnecessárias nas unidades de intervalo
- [SPARK-32886] [WEBUI] corrigir link 'indefinido' na visualização da linha do tempo de eventos
- [SPARK-32898] [CORE] Corrigir executorRunTime errado quando a tarefa foi morta antes do início real
- [SPARK-32635] [SQL] Adicionar um novo caso de teste no módulo do catalyst
- [SPARK-32930] [CORE] Substituir métodos isFile/isDirectory preteridos
- [SPARK-32906] [SQL] Os nomes de campo struct não devem mudar depois de normalizar floats
- [SPARK-24994] [SQL] Adicionar otimizador UnwrapCastInBinaryComparison para simplificar o literal integral
- [SPARK-32635][SQL] Corrigir a propagação dobrável
-
[SPARK-32738] [CORE] Deve reduzir o número de threads ativos se ocorrer um erro fatal em
Inbox.process - [SPARK-32900] [CORE] Permitir que UnsafeExternalSorter despeje quando houver nulos
- [SPARK-32897] [PYTHON] Não mostre um aviso de desaprovação em SparkSession.builder.getOrCreate
- [SPARK-32715] [CORE] Correção do vazamento de memória durante falha ao armazenar partes da transmissão
- [SPARK-32715] [CORE] Correção do vazamento de memória durante falha ao armazenar partes da transmissão
- [SPARK-32872] [CORE] Impedir que BytesToBytesMap MAX_CAPACITY exceda o limite de crescimento
- [SPARK-32876] [SQL] Alterar as versões de fallback padrão para 3.0.1 e 2.4.7 em HiveExternalCatalogVersionsSuite
- [SPARK-32840] [SQL] O valor de intervalo inválido pode estar simplesmente colado à unidade
- [SPARK-32819] [SQL] O parâmetro ignoreNullability deve ser eficaz recursivamente
- [SPARK-32832] [SS] Usar CaseInsensitiveMap para opções do DataStreamReader/Gravador
- [SPARK-32794] [SS] Correção de erro de caso de canto raro no mecanismo de microlotes com algumas consultas com estado + sem lotes de dados + fontes V1
- [SPARK-32813] [SQL] Obter a configuração padrão do leitor vetorizado ParquetSource se nenhuma SparkSession estiver ativa
- [SPARK-32823] [interface do usuário da WEB] Corrigir o relatório de recursos da interface do usuário mestre
- [SPARK-32824] [CORE] Melhorar a mensagem de erro quando o usuário esquecer o valor .amount em uma configuração de recurso
- [SPARK-32614] [SQL] Não aplique o processamento de comentários se 'comment' não for definido para CSV
- [SPARK-32638] [SQL] Corrige referências ao adicionar aliases em WidenSetOperationTypes
- [SPARK-32810] [SQL] Fontes de dados CSV/JSON devem evitar caminhos de glob ao inferir esquema
- [SPARK-32815] [ML] Correção do erro de carregamento da fonte de dados LibSVM em caminhos de arquivo com metacaracteres glob
- [SPARK-32753] [SQL] Copiar somente marcas para o nó sem marcas
- [SPARK-32785] [SQL] O intervalo com partes pendentes não deve resultar em nulo
- [SPARK-32764][SQL] -0,0 deve ser igual a 0,0
- [SPARK-32810] [SQL] Fontes de dados CSV/JSON devem evitar caminhos de glob ao inferir esquema
- [SPARK-32779] [SQL] Evite usar a API sincronizada de SessionCatalog no fluxo withClient, pois isso gera DeadLock
- [SPARK-32791] [SQL] A métrica de tabela não particionada não deve ter tempo de remoção de partição dinâmica
- [SPARK-32767] [SQL] A junção de bucket deverá funcionar se spark.sql.shuffle.partitions for maior que o número do bucket
- [SPARK-32788] [SQL] A verificação de tabela não particionada não deve ter filtro de partição
- [SPARK-32776] [SS] O limite no fluxo não deve ser otimizado pelo PropagateEmptyRelation
- [SPARK-32624] [SQL] Corrigir regressão em CodegenContext.addReferenceObj em tipos de Scala aninhados
- [SPARK-32659] [SQL] Melhorar o teste para remoção de DPP em tipo não atômico
- [SPARK-31511] [SQL] Tornar os iteradores BytesToBytesMap thread-safe
- [SPARK-32693] [SQL] Comparar dois dataframes com o mesmo esquema, exceto a propriedade que pode ser anulada
- [SPARK-28612] [SQL] Documento de método correto de DataFrameWriterV2.replace()
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 7.4.
Ambiente do sistema
- Sistema operacional: Ubuntu 18.04.5 LTS
- Java: Zulu 8.48.0.53-CA-linux64 (build 1.8.0_265-b11)
- Scala: 2.12.10
- Python: 3.7.5
- R: R versão 3.6.3 (29-02-2020)
- Delta Lake 0.7.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| asn1crypto | 1.3.0 | chamada de retorno | 0.1.0 | boto3 | 1.12.0 |
| botocore | 1.15.0 | certificação | 2020.6.20 | cffi | 1.14.0 |
| chardet | 3.0.4 | criptografia | 2.8 | ciclista | 0.10.0 |
| Cython | 0.29.15 | decorador | 4.4.1 | docutils | 0.15.2 |
| pontos de entrada | 0,3 | IDNA | 2.8 | ipykernel | 5.1.4 |
| ipython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.17.2 |
| jmespath | 0.10.0 | joblib | 0.14.1 | Cliente Jupyter | 5.3.4 |
| jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | Coalas | 1.3.0 |
| matplotlib | 3.1.3 | numpy | 1.18.1 | Pandas | 1.0.1 |
| parso | 0.7.0 | Patsy | 0.5.1 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | caroço | 20.0.2 | kit de ferramentas de prompt | 3.0.3 |
| psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | Pyarrow | 1.0.1 |
| pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
| pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
| python-apt | 1.6.5+ubuntu0.3 | python-dateutil | 2.8.1 | Pytz | 2019.3 |
| pyzmq | 18.1.1 | solicitações | 2.22.0 | s3transfer | 0.3.3 |
| scikit-aprender | 0.22.1 | Scipy | 1.4.1 | seaborn (biblioteca de visualização em Python) | 0.10.0 |
| Ferramentas de configuração | 45.2.0 | seis | 1.14.0 | ssh-import-id | 5.7 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.11.0 | tornado | 6.0.3 | traitlets | 4.3.3 |
| atualizações não supervisionadas | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
| wcwidth | 0.1.8 | wheel | 0.34.2 |
Bibliotecas R instaladas
As bibliotecas do R são instaladas a partir do instantâneo do CRAN da Microsoft em XXXX-XX-XX.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1,1 | afirme isso | 0.2.1 | backports | 1.1.8 |
| base | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
| bit | 1.1-15.2 | bit64 | 0.9-7 | blob | 1.2.1 |
| ciar | 1.3-25 | Fabricação de cerveja | 1.0-6 | vassoura | 0.7.0 |
| chamador | 3.4.3 | sinal de interpolação | 6.0-86 | Cellranger | 1.1.0 |
| crono | 2.3-55 | classe | 7.3-17 | Interface de Linha de Comando (CLI) | 2.0.2 |
| clipr | 0.7.0 | cluster | 2.1.0 | codetools | 0.2-16 |
| espaço de cores | 1.4-1 | commonmark | 1,7 | compilador | 3.6.3 |
| configuração | 0,3 | cobertor | 3.5.0 | giz de cera | 1.3.4 |
| diafonia | 1.1.0.1 | encurvar | 4.3 | Tabela de Dados | 1.12.8 |
| conjuntos de dados | 3.6.3 | DBI | 1.1.0 | dbplyr | 1.4.4 |
| Descrição | 1.2.0 | devtools | 2.3.0 | hash | 0.6.25 |
| dplyr | 0.8.5 | DT | 0,14 | reticências | 0.3.1 |
| avaliar | 0,14 | fansi | 0.4.1 | cores | 2.0.3 |
| fastmap | 1.0.1 | para gatos | 0.5.0 | para cada | 1.5.0 |
| estrangeiro | 0.8-76 | forja | 0.2.0 | Fs | 1.4.2 |
| genéricos | 0.0.2 | ggplot2 | 3.3.2 | Gh | 1.1.0 |
| git2r | 0.27.1 | glmnet | 3.0-2 | globais | 0.12.5 |
| cola | 1.4.1 | Gower | 0.2.2 | elemento gráfico | 3.6.3 |
| grDevices | 3.6.3 | grade | 3.6.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtable | 0.3.0 | refúgio | 2.3.1 |
| mais alto | 0,8 | Hms | 0.5.3 | ferramentas HTML | 0.5.0 |
| htmlwidgets | 1.5.1 | httpuv | 1.5.4 | httr | 1.4.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| ipred | 0.9-9 | isoband | 0.2.2 | Iteradores | 1.0.12 |
| jsonlite | 1.7.0 | KernSmooth | 2.23-17 | malhador | 1.29 |
| rotulagem | 0,3 | posterior | 1.1.0.1 | treliça | 0.20-41 |
| lava vulcânica | 1.6.7 | lazyeval | 0.2.2 | ciclo de vida | 0.2.0 |
| lubrificado | 1.7.9 | magrittr | 1.5 | redução de preço | 1,1 |
| MISSA | 7.3-53 | Matriz | 1.2-18 | memorizar | 1.1.0 |
| Métodos | 3.6.3 | mgcv | 1.8-33 | mímica | 0,9 |
| ModelMetrics | 1.2.2.2 | modelador | 0.1.8 | munsell | 0.5.0 |
| nlme | 3.1-149 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
| openssl | 1.4.2 | paralelo | 3.6.3 | coluna | 1.4.6 |
| pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
| plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.16.2 | processx | 3.4.3 |
| Prodlim | 2019.11.13 | progresso | 1.2.2 | Promessas | 1.1.1 |
| proto | 1.0.0 | P.S. | 1.3.3 | purrr | 0.3.4 |
| r2d3 | 0.2.3 | R6 | 2.4.1 | randomForest | 4.6-14 |
| rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
| Rcpp | 1.0.5 | Readr | 1.3.1 | readxl | 1.3.1 |
| Receitas | 0.1.13 | jogo de revanche | 1.0.1 | revanche2 | 2.1.2 |
| Controles remotos | 2.1.1 | exemplo reprodutível (reprex) | 0.3.0 | remodelar2 | 1.4.4 |
| Rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.7 |
| rmarkdown | 2.3 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
| rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
| RSQLite | 2.2.0 | rstudioapi | 0,11 | rversions | 2.0.2 |
| rvest | 0.3.5 | escamas | 1.1.1 | Seletor | 0.4-2 |
| informações de sessão | 1.1.1 | forma | 1.4.4 | brilhante | 1.5.0 |
| sourcetools | 0.1.7 | sparklyr | 1.3.1 | SparkR | 3.0.0 |
| espacial | 7.3-11 | Splines | 3.6.3 | sqldf | 0.4-11 |
| SQUAREM | 2020.3 | estatísticas | 3.6.3 | estatísticas4 | 3.6.3 |
| stringi | 1.4.6 | stringr | 1.4.0 | sobrevivência | 3.2-7 |
| sys | 3.3 | tcltk | 3.6.3 | TeachingDemos | 2,10 |
| testthat | 2.3.2 | tibble | 3.0.3 | tidyr | 1.1.0 |
| tidyselect | 1.1.0 | tidyverse | 1.3.0 | data e hora | 3043.102 |
| tinytex | 0,24 | Ferramentas | 3.6.3 | usethis | 1.6.1 |
| utf8 | 1.1.4 | utilitários | 3.6.3 | identificador único universal (UUID) | 0.1-4 |
| vctrs | 0.3.1 | viridisLite | 0.3.0 | vibrissa | 0,4 |
| murchar | 2.2.0 | xfun | 0.15 | xml2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | YAML | 2.2.1 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraryes | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java-natives | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1,1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.4-3 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers | 2.9.0 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1,10 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.10 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | Netty-all | 4.1.47.Final |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | pirolito | 4,30 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.12.8 |
| net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.7.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 0.15.1 |
| org.apache.arrow | memória de seta | 0.15.1 |
| org.apache.arrow | vetor de seta | 0.15.1 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.9 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | Texto Comum | 1.6 |
| org.apache.curator | curador-cliente | 2.7.1 |
| org.apache.curator | estrutura do curador | 2.7.1 |
| org.apache.curator | curador de receitas | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop-annotations | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | cliente Hadoop | 2.7.4 |
| org.apache.hadoop | hadoop-common (componente comum do Hadoop) | 2.7.4 |
| org.apache.hadoop | hadoop-hdfs | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-app (aplicativo cliente do hadoop-mapreduce) | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-common | 2.3.7 |
| org.apache.hive | hive-exec-core | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | hive-llap-client | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | hive-metastore | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | hive-shims | 2.3.7 |
| org.apache.hive | API de armazenamento do Hive | 2.7.1 |
| org.apache.hive | hive-vector-code-gen | 2.3.7 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | hive-shims-common | 2.3.7 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0-em incubação |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | hera | 2.4.0 |
| org.apache.orc | orc-core | 1.5.10 |
| org.apache.orc | orc-mapreduce | 1.5.10 |
| org.apache.orc | orc-calços | 1.5.10 |
| org.apache.parquet | coluna parquet | 1.10.1-databricks6 |
| org.apache.parquet | parquet-comum | 1.10.1-databricks6 |
| org.apache.parquet | codificação-parquet | 1.10.1-databricks6 |
| org.apache.parquet | formato parquet | 2.4.0 |
| org.apache.parquet | parquet-hadoop | 1.10.1-databricks6 |
| org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | velocidade | 1.5 |
| org.apache.xbean | xbean-asm7-shaded | 4,15 |
| org.apache.yetus | comentários da audiência | 0.5.0 |
| org.apache.zookeeper | zelador de zoológico | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
| org.eclipse.jetty | segurança do jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | servidor jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty Webapp | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
| org.glassfish.jersey.core | jersey-client | 2.30 |
| org.glassfish.jersey.core | jersey-comum | 2.30 |
| org.glassfish.jersey.core | jersey-server | 2.30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.6.6 |
| org.json4s | json4s-core_2.12 | 3.6.6 |
| org.json4s | json4s-jackson_2.12 | 3.6.6 |
| org.json4s | json4s-scalap_2.12 | 3.6.6 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.1.2 |
| org.objenesis | objenésia | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | Calços | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.springframework | spring-core | 4.1.4.LANÇAMENTO |
| org.springframework | teste de primavera | 4.1.4.LANÇAMENTO |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.5 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0.52 |