Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
O Databricks lançou esta versão em dezembro de 2020.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 7.5, da plataforma do Apache Spark 3.0.
Novos recursos
Recursos e melhorias do Delta Lake
Esta versão fornece os seguintes recursos e melhorias do Delta Lake:
- O ponto de verificação assíncrono elimina picos de duração do micros batch de streaming
- As informações mais recentes da tabela agora são propagadas para catálogos
-
MERGE INTOA operação agora dá suporte à evolução de esquema de colunas aninhadas -
MERGE INTOA operação agora usa automaticamente gravações otimizadas -
MERGE INTOeUPDATEoperações e agora resolvem colunas de struct aninhadas por nome -
CLONEé GA e agora você pode substituir as propriedades da tabela -
RESTOREé GA - As implícitas do Scala simplificam as APIs de leitura e gravação do Spark
-
Melhorar a taxa de transferência de streaming com a opção de
fetchParallelismconector - Acompanhar o progresso do fluxo com novas métricas do Carregador Automático
O ponto de verificação assíncrono elimina picos de duração do micros batch de streaming
O Delta Lake executa pontos de verificação a cada 10 confirmações por padrão. Em cargas de trabalho de streaming, o ponto de verificação pode causar pequenos picos na duração do micros batch a cada 10 confirmações. O ponto de verificação assíncrono elimina esses picos.
O ponto de verificação assíncrono é habilitado por padrão para todas as cargas de trabalho que não são gatilho após o streaming. Com o ponto de verificação assíncrono, os gravadores de streaming também gravam pontos de verificação aprimorados para que você não precise aceitar explicitamente pontos de verificação aprimorados.
Para desabilitar o ponto de verificação assíncrono, de definido o SQL configuração spark.databricks.delta.checkpoint.async.enabled false.
As cargas de trabalho em lote continuam a gravar pontos de verificação de forma síncrona e recomendamos não habilitar o ponto de verificação assíncrono para cargas de trabalho em lote.
As informações mais recentes da tabela agora são propagadas para catálogos
O Delta Lake agora propaga as informações mais recentes da tabela, como propriedades de esquema e tabela, para catálogos como o metastore do Hive, com o melhor esforço. Essas informações podem ajudá-lo a aproveitar as ferramentas de catalogação para entender o esquema das tabelas Delta.
O Delta Lake não depende internamente dessa informação, mas tenta mantê-la atualizada. Além disso, o Delta Lake armazena propriedades de tabela delta.lastUpdateVersion e delta.lastCommitTimestamp para indicar a versão e o carimbo de data/hora da confirmação que por último efetuou push em uma alteração para o metastore. O metastore é atualizado somente quando o esquema da tabela ou as propriedades na tabela não corresponderem.
Portanto, as propriedades da tabela acima não refletem necessariamente a versão mais recente da tabela.
Se as informações da tabela e as informações de metastore estão fora de sincronia, você pode executar um comando como DESCRIBE <table> para atualizar o metastore.
Observação
Como o Hive não permite a alteração das colunas de partição, mas as tabelas Delta podem alterar seu particionamento, as tabelas Delta não aparecem como particionadas no Hive.
MERGE INTOA operação agora dá suporte à evolução de esquema de colunas aninhadas
A evolução do esquema de colunas aninhadas agora tem a mesma semântica que a das colunas de nível superior. Por exemplo, novas colunas aninhadas podem ser adicionadas automaticamente a uma coluna StructType. Consulte Evolução do esquema automático no Mesclar para obter detalhes.
MERGE INTOA operação agora usa automaticamente gravações otimizadas
Gravações otimizadas podem fornecer um desempenho muito melhor para MERGE INTO uso imediato, especialmente para MERGE INTO em tabelas particionadas. Para desabilitar gravações otimizadas, de definido a configuração spark.databricks.delta.optimizeWrite.enabled como false do Spark.
MERGE INTO e UPDATE operações e agora resolvem colunas de struct aninhadas por nome
As operações UPDATE e comandos MERGE INTO de atualização agora resolvem colunas de struct aninhadas por nome. Ou seja, ao comparar ou atribuir colunas do tipo StructType, a ordem das colunas aninhadas não importa (exatamente da mesma maneira que a ordem das colunas de nível superior). Para reverter para a resolução por posição, de definir a configuração spark.databricks.delta.resolveMergeUpdateStructsByName.enabled como false do Spark.
CLONE é GA e agora você pode substituir as propriedades da tabela
O comando CLONE já está disponível ao público em geral. Consulte CREATE TABLE CLONE. Além disso, agora você pode especificar substituições de propriedade de tabela ao usar CLONE. Para ver exemplos, consulte Clonar uma tabela no Azure Databricks.
RESTORE é GA
O comando RESTORE já está disponível ao público em geral. Consulte RESTORE.
As implícitas do Scala simplificam as APIs de leitura e gravação do Spark
Você pode importar para io.delta.implicits._ usar o método delta com APIs de leitura e gravação do Spark.
import io.delta.implicits._
spark.read.delta("/my/table/path")
df.write.delta("/my/table/path")
spark.readStream.delta("/my/table/path")
df.writeStream.delta("/my/table/path")
Melhorar a taxa de transferência de streaming com a opção de conector fetchParallelism
O conector do AQS agora dá suporte a uma nova opção fetchParallelism para especificar o paralelismo para buscar mensagens do serviço de fila.
Acompanhar o progresso do fluxo com novas métricas do Carregador Automático
O Carregador Automático agora relata quantos arquivos existem na pendência e o tamanho da pendência após cada lote. É possível usar essas métricas para acompanhar o progresso do fluxo. Para ver detalhes sobre como exibir as métricas, confira O que é o Carregador Automático?.
Aprimoramentos
Suporte mais amplo para bibliotecas no escopo do notebook usando comandos magic %pip e %conda
Agora você pode instalar bibliotecas no escopo do notebook usando comandos magic %pip e %conda em clusters de Alta simultaneidade com ACLs de tabela ou passagem de credencial habilitada.
Exibição precisa DECIMAL SQL do Spark
O tipo SQL DECIMAL dados do Spark agora é exibido em tabelas sem perda de precisão e escala.
Conector de armazenamento do ADLS Gen 2 baseado no Hadoop 3.3 para ABFS
Uma versão atualizada do conector de armazenamento do ADLS Gen 2 é baseada no Hadoop 3.3 para ABFS. O conector atualizado contém muitas melhorias de estabilidade (confira Estabilidade do Hadoop) e inclui suporte para autenticação de token SAS.
Outras correções
O conector do Databricks Kafka para Streaming do Spark foi removido. Use o conector do Apache Spark.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- koalas atualizado do 1.3.0 para o 1.4.0.
- Várias bibliotecas do R instaladas foram atualizadas. Confira Bibliotecas do R instaladas.
- Build do OpenJDK 8 atualizado para Zulu 8.50.0.51-CA-linux64 (build 1.8.0_275-b01).
Apache Spark
O Databricks Runtime 7.5 inclui o Apache Spark 3.0.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 7.4 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-33611] [UI] Evite codificação duas vezes no parâmetro de consulta da URL de proxy reescrito
- [SPARK-33587][CORE] Encerra o executor em erros fatais aninhados (7.x)
- [SPARK-33140] [SQL] Reverter código que não usa SparkSession passado para obter SQLConf.
- [SPARK-33472] [SQL] Ajustar a ordem de regra RemoveRedundantSorts
- [SPARK-33422] [DOC] Corrigir a exibição correta do item de menu à esquerda
- [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
- [SPARK-33483] [INFRA][testes] Corrigir padrões de exclusão de rato e adicionar uma LICENÇA
- [SPARK-33464] [INFRA] Adicionar/remover (não)necessário cache e reestruturação GitHub Actions yaml
- [SPARK-33407] [PYTHON][7.x] Simplifique a mensagem de exceção de UDFs do Python (desabilitado por padrão)
- [SPARK-33435] [SQL] DSv2: REFRESHREFRESH TABLE deve invalidar caches que fazem referência à tabela
- [SPARK-33358] [SQL] Código de retorno quando o processo de comando falhou
- [SPARK-33183] [DBCONNECT] Adicionar RemoveRedundantSorts.scala ao ALLOW_LIST.txt
- [SPARK-33290] [SQL] REFRESHREFRESH TABLE deve invalidar o cache mesmo que a tabela em si não possa ser armazenada em cache
- [SPARK-33140] [SQL] Corrigir compilação delta
- [SPARK-33316] [SQL] Adicionar testes de unidade para from_avro e to_avro com o Registro de Esquema e o usuário forneceu um esquema Avro anulável
-
[SPARK-33404] [SQL] Corrige os resultados incorretos na expressão
date_trunc - [SPARK-33339] [PYTHON] O aplicativo Pyspark será interrompido devido a um erro de não exceção
- [SPARK-33412] [SQL] OverwriteByExpression deve resolver sua condição de exclusão com base na relação de tabela, não na consulta de entrada
- [SPARK-33391][SQL] O element_at com o CreateArray não respeita um índice baseado.
- [SPARK-33316] [SQL] Usuário de suporte forneceu o esquema Avro anulável para o esquema de catalisador não anulável na gravação do Avro
- [SPARK-33372] [SQL] Corrigir a remoção de bucket InSet
- [SPARK-33371] [PYTHON] Atualiza o setup.py e testes para o Python 3.9
- [SPARK-33140] [SQL] remover SQLConf e SparkSession em todas as sub-classes de Rule[QueryPlan]
- [SPARK-33338] [SQL] GROUP BY usando o mapa literal não deve falhar
- [SPARK-33306] [SQL] O fuso horário é necessário ao converter uma data para uma cadeia de caracteres
- [SPARK-33284] [WEB-UI] Na página da interface do usuário do Armazenamento, clicar em qualquer campo para classificar a tabela fará com que o conteúdo do título seja perdido
- [SPARK-33362] [SQL] skipSchemaResolution ainda deve exigir que a consulta seja resolvida
- [SPARK-32257] [SQL] Relata erros explícitos para uso inválido do comando SET/RESET
- [SPARK-32406] [SQL] Fazer RESET com que a sintaxe dê suporte à redefinição de configuração única
- [SPARK-32376] [SQL] Fazer com que o comportamento de preenchimento nulo unionByName funcione com colunas struct
- [SPARK-32308] [SQL] Mover lógica de resolução por nome de unionByName do código de API para a fase de análise
- [SPARK-20044] [UI] Suporta a interface do usuário do Spark por trás do proxy reverso de front-end usando um prefixo de caminho URL do proxy de reversão
- [SPARK-33268] [SQL][python] Corrigir bugs para a conversão de dados de/para PythonUserDefinedType
- [SPARK-33292] [SQL] Tornar a representação de cadeia de caracteres ArrayBasedMapData literal desambigua
- [SPARK-33183] [SQL] Corrige a regra EliminateSorts do otimizador e adiciona uma regra física para remover as classificações redundantes
- [SPARK-33272] [SQL] Remove o mapeamento de atributos em QueryPlan.transformUpWithNewOutput
- [SPARK-32090] [SQL] Melhorar UserDefinedType.equal() para torná-lo simétrico
- [SPARK-33267] [SQL] Corrigir problema de NPE no filtro 'In' quando um dos valores contiver nulo
- [SPARK-33208] [SQL] Atualizar o documento de SparkSession#sql
- [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
- [SPARK-33230] [SQL] Confirmadores do Hadoop para obter a ID de trabalho exclusiva em "spark.sql.sources.writeJobUUID"
- [SPARK-33197] [SQL] Fazer alterações em spark.sql.analyzer.maxIterations tem efeito em runtime
- [SPARK-33228] [SQL] Não remover dados ao substituir uma exibição com o mesmo plano lógico
- [SPARK-32557] [CORE] Registro em log e reação da exceção por entrada no servidor de histórico
- [SPARK-32436] [CORE] Inicializar numNonEmptyBlocks em HighlyCompressedMapStatus.readExternal
- [SPARK-33131] [SQL] Corrigir conjuntos de grupos com cláusula havendo não pode resolver o nome da coluna qualificada
- [SPARK-32761] [SQL] Permitir agregar várias expressões distintas dobráveis
- [SPARK-33094] [SQL] Fazer com que o formato ORC propague a configuração do Hadoop de opções de DS para o sistema de arquivos HDFS subjacente
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 7.5.
Ambiente do sistema
- Sistema operacional: Ubuntu 18.04.5 LTS
- Java: Zulu 8.50.0.51-CA-linux64 (build 1.8.0_275-b01)
- Scala: 2.12.10
- Python: 3.7.5
- R: R versão 3.6.3 (29-02-2020)
- Delta Lake 0.7.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| asn1crypto | 1.3.0 | chamada de retorno | 0.1.0 | boto3 | 1.12.0 |
| botocore | 1.15.0 | certificação | 2020.6.20 | cffi | 1.14.0 |
| chardet | 3.0.4 | criptografia | 2.8 | ciclista | 0.10.0 |
| Cython | 0.29.15 | decorador | 4.4.1 | docutils | 0.15.2 |
| pontos de entrada | 0,3 | IDNA | 2.8 | ipykernel | 5.1.4 |
| ipython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.17.2 |
| jmespath | 0.10.0 | joblib | 0.14.1 | Cliente Jupyter | 5.3.4 |
| jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | Coalas | 1.4.0 |
| matplotlib | 3.1.3 | numpy | 1.18.1 | Pandas | 1.0.1 |
| parso | 0.7.0 | Patsy | 0.5.1 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | caroço | 20.0.2 | kit de ferramentas de prompt | 3.0.3 |
| psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | Pyarrow | 1.0.1 |
| pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
| pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
| python-apt | 1.6.5+ubuntu0.3 | python-dateutil | 2.8.1 | Pytz | 2019.3 |
| pyzmq | 18.1.1 | solicitações | 2.22.0 | s3transfer | 0.3.3 |
| scikit-aprender | 0.22.1 | Scipy | 1.4.1 | seaborn (biblioteca de visualização em Python) | 0.10.0 |
| Ferramentas de configuração | 45.2.0 | seis | 1.14.0 | ssh-import-id | 5.7 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.11.0 | tornado | 6.0.3 | traitlets | 4.3.3 |
| atualizações não supervisionadas | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
| wcwidth | 0.1.8 | wheel | 0.34.2 |
Bibliotecas R instaladas
As bibliotecas do R foram instaladas por meio do instantâneo do Microsoft CRAN em 02-11-2020.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1,1 | afirme isso | 0.2.1 | backports | 1.1.10 |
| base | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
| bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.1 |
| ciar | 1.3-25 | Fabricação de cerveja | 1.0-6 | Brio | 1.1.0 |
| vassoura | 0.7.2 | chamador | 3.5.1 | sinal de interpolação | 6.0-86 |
| Cellranger | 1.1.0 | crono | 2.3-56 | classe | 7.3-17 |
| Interface de Linha de Comando (CLI) | 2.1.0 | clipr | 0.7.1 | cluster | 2.1.0 |
| codetools | 0.2-18 | espaço de cores | 1.4-1 | commonmark | 1,7 |
| compilador | 3.6.3 | configuração | 0,3 | cobertor | 3.5.1 |
| cpp11 | 0.2.3 | giz de cera | 1.3.4 | diafonia | 1.1.0.1 |
| encurvar | 4.3 | Tabela de Dados | 1.13.2 | conjuntos de dados | 3.6.3 |
| DBI | 1.1.0 | dbplyr | 1.4.4 | Descrição | 1.2.0 |
| devtools | 2.3.2 | diffobj | 0.3.2 | hash | 0.6.27 |
| dplyr | 0.8.5 | DT | 0.16 | reticências | 0.3.1 |
| avaliar | 0,14 | fansi | 0.4.1 | cores | 2.0.3 |
| fastmap | 1.0.1 | para gatos | 0.5.0 | para cada | 1.5.1 |
| estrangeiro | 0.8-76 | forja | 0.2.0 | Fs | 1.5.0 |
| genéricos | 0.1.0 | ggplot2 | 3.3.2 | Gh | 1.1.0 |
| git2r | 0.27.1 | glmnet | 3.0-2 | globais | 0.13.1 |
| cola | 1.4.2 | Gower | 0.2.2 | elemento gráfico | 3.6.3 |
| grDevices | 3.6.3 | grade | 3.6.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtable | 0.3.0 | refúgio | 2.3.1 |
| mais alto | 0,8 | Hms | 0.5.3 | ferramentas HTML | 0.5.0 |
| htmlwidgets | 1.5.2 | httpuv | 1.5.4 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| ipred | 0.9-9 | isoband | 0.2.2 | Iteradores | 1.0.13 |
| jsonlite | 1.7.1 | KernSmooth | 2.23-18 | malhador | 1.30 |
| rotulagem | 0.4.2 | posterior | 1.1.0.1 | treliça | 0.20-41 |
| lava vulcânica | 1.6.8 | lazyeval | 0.2.2 | ciclo de vida | 0.2.0 |
| lubrificado | 1.7.9 | magrittr | 1.5 | redução de preço | 1,1 |
| MISSA | 7.3-53 | Matriz | 1.2-18 | memorizar | 1.1.0 |
| Métodos | 3.6.3 | mgcv | 1.8-33 | mímica | 0,9 |
| ModelMetrics | 1.2.2.2 | modelador | 0.1.8 | munsell | 0.5.0 |
| nlme | 3.1-150 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
| openssl | 1.4.3 | paralelo | 3.6.3 | coluna | 1.4.6 |
| pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
| plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.16.2 | processx | 3.4.4 |
| Prodlim | 2019.11.13 | progresso | 1.2.2 | Promessas | 1.1.1 |
| proto | 1.0.0 | P.S. | 1.4.0 | purrr | 0.3.4 |
| r2d3 | 0.2.3 | R6 | 2.5.0 | randomForest | 4.6-14 |
| rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
| Rcpp | 1.0.5 | Readr | 1.4.0 | readxl | 1.3.1 |
| Receitas | 0.1.14 | jogo de revanche | 1.0.1 | revanche2 | 2.1.2 |
| Controles remotos | 2.2.0 | exemplo reprodutível (reprex) | 0.3.0 | remodelar2 | 1.4.4 |
| Rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.8 |
| rmarkdown | 2,5 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
| rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
| RSQLite | 2.2.1 | rstudioapi | 0,11 | rversions | 2.0.2 |
| rvest | 0.3.6 | escamas | 1.1.1 | Seletor | 0.4-2 |
| informações de sessão | 1.1.1 | forma | 1.4.4 | brilhante | 1.5.0 |
| sourcetools | 0.1.7 | sparklyr | 1.4.0 | SparkR | 3.0.0 |
| espacial | 7.3-11 | Splines | 3.6.3 | sqldf | 0.4-11 |
| SQUAREM | 2020.5 | estatísticas | 3.6.3 | estatísticas4 | 3.6.3 |
| stringi | 1.5.3 | stringr | 1.4.0 | sobrevivência | 3.2-7 |
| sys | 3.4 | tcltk | 3.6.3 | TeachingDemos | 2,10 |
| testthat | 3.0.0 | tibble | 3.0.4 | tidyr | 1.1.2 |
| tidyselect | 1.1.0 | tidyverse | 1.3.0 | data e hora | 3043.102 |
| tinytex | 0.27 | Ferramentas | 3.6.3 | usethis | 1.6.3 |
| utf8 | 1.1.4 | utilitários | 3.6.3 | identificador único universal (UUID) | 0.1-4 |
| vctrs | 0.3.4 | viridisLite | 0.3.0 | Waldo | 0.2.2 |
| vibrissa | 0,4 | murchar | 2.3.0 | xfun | 0,19 |
| xml2 | 1.3.2 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.2.1 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraryes | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java-natives | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1,1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.4-3 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers | 2.9.0 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1,10 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.10 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | Netty-all | 4.1.47.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | pirolito | 4,30 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.12.8 |
| net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.7.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 0.15.1 |
| org.apache.arrow | memória de seta | 0.15.1 |
| org.apache.arrow | vetor de seta | 0.15.1 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.9 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | Texto Comum | 1.6 |
| org.apache.curator | curador-cliente | 2.7.1 |
| org.apache.curator | estrutura do curador | 2.7.1 |
| org.apache.curator | curador de receitas | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop-annotations | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | cliente Hadoop | 2.7.4 |
| org.apache.hadoop | hadoop-common (componente comum do Hadoop) | 2.7.4 |
| org.apache.hadoop | hadoop-hdfs | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-app (aplicativo cliente do hadoop-mapreduce) | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-common | 2.3.7 |
| org.apache.hive | hive-exec-core | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | hive-llap-client | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | hive-metastore | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | hive-shims | 2.3.7 |
| org.apache.hive | API de armazenamento do Hive | 2.7.1 |
| org.apache.hive | hive-vector-code-gen | 2.3.7 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | hive-shims-common | 2.3.7 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0-em incubação |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | hera | 2.4.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.5.10 |
| org.apache.orc | orc-mapreduce | 1.5.10 |
| org.apache.orc | orc-calços | 1.5.10 |
| org.apache.parquet | coluna parquet | 1.10.1-databricks6 |
| org.apache.parquet | parquet-comum | 1.10.1-databricks6 |
| org.apache.parquet | codificação-parquet | 1.10.1-databricks6 |
| org.apache.parquet | formato parquet | 2.4.0 |
| org.apache.parquet | parquet-hadoop | 1.10.1-databricks6 |
| org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | velocidade | 1.5 |
| org.apache.xbean | xbean-asm7-shaded | 4,15 |
| org.apache.yetus | comentários da audiência | 0.5.0 |
| org.apache.zookeeper | zelador de zoológico | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
| org.eclipse.jetty | segurança do jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | servidor jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty Webapp | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
| org.glassfish.jersey.core | jersey-client | 2.30 |
| org.glassfish.jersey.core | jersey-comum | 2.30 |
| org.glassfish.jersey.core | jersey-server | 2.30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.6.6 |
| org.json4s | json4s-core_2.12 | 3.6.6 |
| org.json4s | json4s-jackson_2.12 | 3.6.6 |
| org.json4s | json4s-scalap_2.12 | 3.6.6 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.1.2 |
| org.objenesis | objenésia | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | Calços | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.springframework | spring-core | 4.1.4.LANÇAMENTO |
| org.springframework | teste de primavera | 4.1.4.LANÇAMENTO |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.5 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0.52 |