Compartilhar via


Databricks Runtime 6.0 (EoS)

Observação

O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.

O Databricks lançou essa versão em outubro de 2019.

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 6.0, da plataforma do Apache Spark.

Novos recursos

Ambiente do Python

O Databricks Runtime 6.0 inclui alterações importantes no Python e a maneira como os ambientes do Python são configurados, incluindo a atualização do Python para o 3.7.3, o refinamento da lista de pacotes do Python instalados e a atualização desses pacotes instalados para versões mais recentes. Para obter detalhes, consulte Bibliotecas do Python instaladas.

Além disso, como foi anunciado anteriormente, o Databricks Runtime 6.0 não dá suporte ao Python 2.

As principais alterações incluem:

  • Atualização do Python de 3.5.2 para 3.7.3. Algumas versões antigas de pacotes do Python podem não ser compatíveis com o Python 3.7 porque dependem de versões antigas do Cython que não são compatíveis com o Python 3.7. Instalar um pacote desse tipo pode disparar erros semelhantes 'PyThreadState' {'struct _ts'} has no member named 'exc_type' a (consulte a edição 1978 do GitHub para obter detalhes). Em vez disso, instale versões compatíveis com Python 3.7 de pacotes do Python.
  • Atualizações de pacote principais:
    • boto3 para 1.9.162
    • ipython para 7.4.0
    • matplotlib para 3.0.3
    • numpy para 1.16.2
    • pandas para 0.24.2
    • pyarrow para 0.13.0
  • Em comparação com o Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python são incluídos recentemente: asn1crypto, backcall, jedi, kiwisolver, parso e PySocks.
  • Em comparação com Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python não estão instalados: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson e singledispatch.
  • Não há mais suporte para a função display em objetos ggplot do Python porque o pacote ggplot não é compatível com a versão mais recente do Pandas.
  • Não há suporte à configuração PYSPARK_PYTHON como /databricks/python2/bin/python porque o Databricks Runtime 6.0 não dá suporte ao Python 2. Um cluster com essa configuração ainda pode ser iniciado. No entanto, os notebooks do Python e os comandos do Python não funcionarão, ou seja, as células de comando do Python falharão com um erro "Cancelado" e um erro Python shell failed to start aparecerá nos logs do driver.
  • Se PYSPARK_PYTHON aponta para um executável do Python que está em um ambiente gerenciado pelo Virtualenv, esse ambiente será ativado para os scripts de inicialização e os notebooks. É possível usar os comandos pythonpip definidos no ambiente ativado diretamente sem precisar especificar os locais absolutos desses comandos. Por padrão, PYSPARK_PYTHON é definido como /databricks/python3/bin/python. Portanto, por padrão, python aponta para /databricks/python3/bin/python e pip aponta /databricks/python3/bin/pip para os scripts de inicialização e os notebooks. Se o PYSPARK_PYTHON aponta para um executável do Python que não está em um ambiente gerenciado pelo Virtualenv ou se você estiver escrevendo um script de inicialização para criar o Python especificado por PYSPARK_PYTHON, você precisará usar caminhos absolutos para acessar o python e o pip corretos. Quando o isolamento da biblioteca do Python está habilitado (ele está habilitado por padrão), o ambiente ativado ainda é o ambiente ao qual PYSPARK_PYTHON está associado. Recomendamos que você use o Utilitário de biblioteca (dbutils.library) (herdado) para modificar o ambiente isolado associado a um notebook Python.

APIs do Scala e Java para comandos DML do Delta Lake

Agora é possível modificar dados em tabelas Delta usando as APIs programáticas para exclusão, atualização e mesclagem. Essas APIs espelham a sintaxe e a semântica de seus comandos do SQL correspondentes e são ótimas para muitas cargas de trabalho, por exemplo, operações de SCD (dimensão de alteração lenta), mesclagem de dados de alteração para replicação e upserts de consultas de streaming.

Para obter detalhes, consulte o que é o Delta Lake no Azure Databricks?.

APIs do Scala e Java para comandos do utilitário do Delta Lake

Databricks Runtime agora tem APIs programáticas para os comandos vacuum e history do utilitário. Essas APIs espelham a sintaxe e a semântica de seus SQL correspondentes disponíveis em versões anteriores do Databricks Runtime.

É possível limpar arquivos que não são mais referenciados por uma tabela Delta e são mais antigos do que o limite de retenção executando vacuum na tabela. Executar o comando vacuum na tabela limpa recursivamente os diretórios associados à tabela Delta. O limite de retenção padrão para os arquivos é de 7 dias. A capacidade de viajar no tempo de volta para uma versão anterior ao período de retenção é perdida após a execução de vacuum. vacuum não é disparado automaticamente.

Você pode recuperar informações de operações, usuário, carimbo de data/hora e assim por diante relativas a cada gravação em uma tabela do Delta com o comando history. As operações são retornadas em ordem cronológica inversa. Por padrão, o histórico de tabela é mantido por 30 dias.

Para obter detalhes, consulte o que é o Delta Lake no Azure Databricks?.

Cache de disco disponível para instâncias do Azure Lsv2

O cache de disco já está habilitado por padrão para todas as instâncias Lsv2.

Armazenamento otimizado usando as APIs de arquivo local

As APIs de arquivo local são úteis, pois permitem que você acesse arquivos do armazenamento de objetos distribuídos subjacente como arquivos locais. No Databricks Runtime 6.0, melhoramos a montagem FUSE que permite que as APIs de arquivo local adquiram limitações de chave. O Databricks Runtime 6.0 melhora significativamente a velocidade de leitura e gravação e dá suporte a arquivos maiores que 2 GB. Se você precisar de leituras e gravações mais rápidas e confiáveis, como para treinamento de modelo distribuído, é possível achar esse melhoramento particularmente útil. Além disso, você não precisaria carregar dados em um armazenamento local para suas cargas de trabalho, economizando custos e melhorando a produtividade.

Para obter mais detalhes, confira O que é DBFS?.

Vários gráficos matplotlib por célula de notebook

Agora é possível exibir vários gráficos matplotlib por célula do notebook:

Diversos gráficos matplotlib na célula

Credenciais de serviço para várias contas do Azure Data Lake Storage Gen1

Agora você pode configurar as credenciais de serviço para várias contas de armazenamento do Azure para uso em uma única sessão do Apache Spark. Para fazer isso, adicione account.<account-name> às chaves de configuração. Por exemplo, se você quiser configurar credenciais para que as contas acessem adl://example1.azuredatalakestore.net e adl://example2.azuredatalakestore.net, você poderá fazer isso da seguinte forma:

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Aprimoramentos

  • SDK do AWS atualizado para 1.11.596.
  • Atualização do SDK do Armazenamento do Microsoft Azure no driver WASB para 7.0.
  • OPTIMIZE agora fornece um resumo das métricas, como o número de arquivos adicionados, o número de arquivos removidos e o tamanho máximo e mínimo do arquivo. Otimizar o layout do arquivo de dados.

Remoção

A exportação de modelo do Databricks do ML foi removida. A partir de agora, use MLeap para importar e exportar modelos.

Apache Spark

Observação

Este artigo contém referências ao termo escravo, que o Azure Databricks não usa mais. Quando o termo for removido do software, também o removeremos deste artigo.

O Databricks Runtime 6.0 inclui o Apache Spark 2.4.3. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados aoDatabricks Runtime 5.5 LTS (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-27992][SPARK-28881][PYTHON] Permitir que o Python participe com o thread de conexão para propagar erros
  • [SPARK-27330][SS] Suporte a interrupção da tarefa no gravador de foreach (6.0, 5.x)
  • [SPARK-28642][SQL] Ocultar credenciais em SHOW CREATE TABLE
  • [SPARK-28699][CORE] Corrige um caso fora do padrão ao anular o estágio indeterminado
  • [SPARK-28647][WEBUI] Recuperar recurso de métrica adicional
  • [SPARK-28766][R][DOC] Correção do aviso de viabilidade de entrada CRAN em UMA URL inválida
  • [SPARK-28486][CORE][PYTHON] Mapear o arquivo de dados do PythonBroadcast para um BroadcastBlock para evitar a exclusão pelo GC
  • [SPARK-25035][CORE] Evitar o mapeamento de memória na replicação de blocos armazenados em disco
  • [SPARK-27234][SS][PYTHON] Usar InheritableThreadLocal para a época atual no EpochTracker (para dar suporte a UDFs do Python)
  • [SPARK-28638][WEBUI] O resumo da tarefa deve conter apenas as métricas das tarefas bem-sucedidas
  • [SPARK-28153][PYTHON] Usar AtomicReference em InputFileBlockHolder (para dar suporte input_file_name com o Python UDF)
  • [SPARK-28564][CORE] O aplicativo de histórico de acesso assume como padrão a ID da última tentativa
  • [SPARK-28260] O cluster pode ser encerrado automaticamente enquanto a consulta thriftserver ainda está buscando resultados
  • [SPARK-26152][CORE] Sincronizar a limpeza do trabalho com o desligamento do trabalho
  • [SPARK-28545][SQL] Adicione o tamanho do mapa de hash ao log direcional de ObjectAggregationIterator
  • [SPARK-28489][SS] Correção de um bug em que KafkaOffsetRangeCalculator.getRanges pode soltar deslocamentos
  • [SPARK-28421][ML] Otimização de desempenho SparseVector.apply
  • [SPARK-28156][SQL] A união automática não deve perder a exibição armazenada em cache
  • [SPARK-28152][SQL] ShortType é mapeado para SMALLINT e FloatType para REAL para MsSqlServerDialect
  • [SPARK-28054][SQL] Corrige o erro ao inserir a tabela particionada do Hive dinamicamente em que o nome da partição é maiúscula
  • [SPARK-27159][SQL] Atualizar o dialeto do servidor mssql para dar suporte ao tipo binário
  • [SPARK-28355][CORE][PYTHON] Usar a configuração do Spark para o limite no qual com...
  • [SPARK-27989][CORE] Adicionadas novas tentativas de conexão com o driver para k8s
  • [SPARK-27416][SQL] Serialização UnsafeMapData e UnsafeArrayData Kryo...
  • [SPARK-28430][Interface do usuário] Correção da renderização da tabela de estágio quando algumas métricas de tarefas estão ausentes
  • [SPARK-27485] EnsureRequirements.reorder deve tratar expressões duplicadas normalmente
  • [SPARK-28404][SS] Corrigir o valor de tempo limite negativo em RateStreamContinuousPartitionReader
  • [SPARK-28378][PYTHON] Remover o uso de cgi.escape
  • [SPARK-28371][SQL] Tornar o filtro Parquet "StartsWith" nulo
  • [SPARK-28015][SQL] Verifica se o stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
  • [SPARK-28302][CORE] Certifique-se de gerar um arquivo de saída exclusivo para SparkLauncher Windows
  • [SPARK-28308][CORE] A parte do subsegundo de CalendarInterval deve ser preenchida antes da análise
  • [SPARK-28170][ML][PYTHON] Documentação de Matriz e vetores uniformes
  • [SPARK-28160][CORE] Correção de um bug que a função de retorno de chamada pode travar quando a exceção desmarcada é perdida
  • [SPARK-27839][SQL] Alterar UTF8String.replace() para operar em bytes UTF8
  • [SPARK-28157][CORE] Limpar SHS KVStore LogInfo para as entradas na lista de blacklist
  • [SPARK-28128][PYTHON][SQL] Pandas UDFs agrupadas ignoram partições vazias
  • [SPARK-28012][SQL] O UDF do Hive dá suporte à expressão dobrável do tipo struct
  • [SPARK-28164] Corrigir a descrição de uso start-slave.sh
  • [SPARK-27100][SQL] Usar a Matriz em vez de Seq em FilePartition para evitar StackOverflowError
  • [SPARK-28154][ML] Correção de cache duplo do GMM

Atualizações de manutenção

Confira Atualizações de manutenção do Databricks Runtime 6.0.

Ambiente do sistema

  • Sistema operacional: Ubuntu 16.04.6 LTS
  • Java: 1.8.0_232
  • Scala: 2.11.12
  • Python: 3.7.3
  • R: R versão 3.6.1 (05/07/2019)
  • Delta Lake: 0.3.0

Observação

Embora o Scala 2.12 esteja disponível como um recurso experimental no Apache Spark 2.4, ele não tem suporte no Databricks Runtime 6.0.

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
asn1crypto 0.24.0 chamada de retorno 0.1.0 boto 2.49.0
boto3 1.9.162 botocore 1.12.163 certificação 2019.3.9
cffi 1.12.2 chardet 3.0.4 criptografia 2.6.1
ciclista 0.10.0 Cython 0.29.6 decorador 4.4.0
docutils 0,14 IDNA 2.8 ipython 7.4.0
ipython-genutils 0.2.0 Jedi 0.13.3 jmespath 0.9.4
kiwisolver 1.1.0 matplotlib 3.0.3 numpy 1.16.2
Pandas 0.24.2 parso 0.3.4 Patsy 0.5.1
pexpect 4.6.0 pickleshare 0.7.5 caroço 19.0.3
kit de ferramentas de prompt 2.0.9 psycopg2 2.7.6.1 ptyprocess 0.6.0
Pyarrow 0.13.0 pycparser 2.19 pycurl 7.43.0
Pygments 2.3.1 PyGObject 3.20.0 pyOpenSSL 19.0.0
pyparsing 2.4.2 PySocks 1.6.8 python-apt 1.1.0.b1+ubuntu0.16.04.5
python-dateutil 2.8.0 Pytz 2018.9 solicitações 2.21.0
s3transfer 0.2.1 scikit-aprender 0.20.3 Scipy 1.2.1
seaborn (biblioteca de visualização em Python) 0.9.0 Ferramentas de configuração 40.8.0 seis 1.12.0
ssh-import-id 5.5 statsmodels (biblioteca para modelos estatísticos em Python) 0.9.0 traitlets 4.3.2
atualizações não supervisionadas 0,1 urllib3 1.24.1 virtualenv 16.4.1
wcwidth 0.1.7 wheel 0.33.1

Bibliotecas R instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
abind 1.4-5 AskPass 1,1 afirme isso 0.2.1
retrocessão de funcionalidades 1.1.3 base 3.6.1 base64enc 0.1-3
BH 1.69.0-1 bit 1.1-14 bit64 0.9-7
bitops 1.0-6 blob 1.1.1 ciar 1.3-23
Fabricação de cerveja 1.0-6 chamador 3.2.0 carro 3.0-2
dadosDoCarro 3.0-2 sinal de interpolação 6.0-82 Cellranger 1.1.0
crono 2.3-53 classe 7.3-15 Interface de Linha de Comando (CLI) 1.1.0
clipr 0.5.0 clisymbols 1.2.0 cluster 2.1.0
codetools 0.2-16 espaço de cores 1.4-1 commonmark 1,7
compilador 3.6.1 configuração 0,3 giz de cera 1.3.4
encurvar 3.3 Tabela de Dados 1.12.0 conjuntos de dados 3.6.1
DBI 1.0.0 dbplyr 1.3.0 Descrição 1.2.0
devtools 2.0.1 hash 0.6.18 doMC 1.3.5
dplyr 0.8.0.1 reticências 0.1.0 fansi 0.4.0
para gatos 0.4.0 para cada 1.4.4 estrangeiro 0.8-72
forja 0.2.0 Fs 1.2.7 Gbm 2.1.5
genéricos 0.0.2 ggplot2 3.1.0 Gh 1.0.1
git2r 0.25.2 glmnet 2.0-16 cola 1.3.1
Gower 0.2.0 elemento gráfico 3.6.1 grDevices 3.6.1
grade 3.6.1 gridExtra 2.3 gsubfn 0,7
gtable 0.3.0 H₂O 3.22.1.1 refúgio 2.1.0
Hms 0.4.2 ferramentas HTML 0.3.6 htmlwidgets 1,3
httr 1.4.0 hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 ipred 0.9-8 Iteradores 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 rotulagem 0,3
treliça 0.20-38 lava vulcânica 1.6.5 lazyeval 0.2.2
menor 0.3.7 lme4 1.1-21 lubrificado 1.7.4
magrittr 1.5 mapproj 1.2.6 mapas 3.3.0
maptools 0.9-5 MISSA 7.3-51.4 Matriz 1.2-17
MatrixModels 0.4-1 memorizar 1.1.0 Métodos 3.6.1
mgcv 1.8-28 mímica 0,6 minqa 1.2.4
ModelMetrics 1.2.2 munsell 0.5.0 mvtnorm 1.0-10
nlme 3.1-141 nloptr 1.2.1 nnet 7.3-12
numDeriv 2016.8-1 openssl 1,3 openxlsx 4.1.0
paralelo 3.6.1 pbkrtest 0.4-7 coluna 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.2 plogr 0.2.0 plyr 1.8.4
elogio 1.0.0 prettyunits 1.0.2 Proc 1.14.0
processx 3.3.0 Prodlim 2018.04.18 progresso 1.2.0
proto 1.0.0 P.S. 1.3.0 purrr 0.3.2
quantreg 5.38 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
randomForest 4.6-14 rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrewer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 Readr 1.3.1
readxl 1.3.1 Receitas 0.1.5 jogo de revanche 1.0.1
Controles remotos 2.0.2 remodelar2 1.4.3 rio 0.5.16
rlang 0.3.3 RODBC 1.3-15 roxygen2 6.1.1
rpart 4.1-15 rprojroot 1.3-2 Rserve 1.8-6
RSQLite 2.1.1 rstudioapi 0.10 escamas 1.0.0
informações de sessão 1.1.1 São Paulo 1.3-1 sparklyr 1.0.0
SparkR 2.4.4 Esparso 1.77 espacial 7.3-11
Splines 3.6.1 sqldf 0.4-11 SQUAREM 2017.10-1
statmod 1.4.30 estatísticas 3.6.1 estatísticas4 3.6.1
stringi 1.4.3 stringr 1.4.0 sobrevivência 2.44-1.1
sys 3.1 tcltk 3.6.1 TeachingDemos 2,10
testthat 2.0.1 tibble 2.1.1 tidyr 0.8.3
tidyselect 0.2.5 data e hora 3043.102 Ferramentas 3.6.1
usethis 1.4.0 utf8 1.1.4 utilitários 3.6.1
viridisLite 0.3.0 vibrissa 0.3-2 murchar 2.1.2
xml2 1.2.0 xopen 1.0.0 YAML 2.2.0
zíper 2.0.1

Instaladas as bibliotecas do Java e Scala (versão de cluster do Scala 2.11)

ID do Grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.8.10
com.amazonaws aws-java-sdk-autoscaling 1.11.595
com.amazonaws aws-java-sdk-cloudformation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm 1.11.595
com.amazonaws aws-java-sdk-cloudsearch 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws aws-java-sdk-config 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.11.595
com.amazonaws aws-java-sdk-directory 1.11.595
com.amazonaws aws-java-sdk-dynamodb 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws SDK Java para o ECS da AWS 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder 1.11.595
com.amazonaws aws-java-sdk-emr 1.11.595
com.amazonaws aws-java-sdk-glacier 1.11.595
com.amazonaws aws-java-sdk-glue 1.11.595
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.11.595
com.amazonaws aws-java-sdk-importexport 1.11.595
com.amazonaws aws-java-sdk-kinesis 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-logs 1.11.595
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-route53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws aws-java-sdk-ses 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway 1.11.595
com.amazonaws aws-java-sdk-sts 1.11.595
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.11.595
com.amazonaws aws-java-sdk-swf-libraryes 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics fluxo 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db8-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db8-spark2.4
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.0.0
com.fasterxml.jackson.core jackson-annotations 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.datatype jackson-module-paranamer 2.6.7
com.fasterxml.jackson.datatype jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1,1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib sistema_nativo-java 1,1
com.github.fommil.netlib sistema_nativo-java-nativos 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox bonecp VERSÃO.0.8.0.
com.microsoft.azure azure-data-lake-store-sdk 2.2.8
com.microsoft.azure azure-storage (armazenamento em nuvem) 7.0.0
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-app_2.11 6.23.0
com.twitter util-app_2.11 6.23.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity univocity-parsers 2.7.3
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1,2
commons-codec commons-codec 1,10
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift compressor de ar 0.10
io.dropwizard.metrics metrics-core 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics métricas-verificações de saúde 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json (métricas em JSON) 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics metrics-servlets 3.1.5
io.netty Netty 3.9.9.Final
io.netty Netty-all 4.1.17.Final
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1,2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1,1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.9.3
junit junit 4.12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-properties 1.1.5
net.razorvine pirolito 4.13
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.5
net.snowflake snowflake-jdbc 3.6.15
net.snowflake spark-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4.7
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de seta 0.10.0
org.apache.arrow memória de seta 0.10.0
org.apache.arrow vetor de seta 0.10.0
org.apache.avro Avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica 1.2.0-incubação
org.apache.calcite calcite-core 1.2.0-incubação
org.apache.calcite calcite-linq4j 1.2.0-incubação
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3,5
org.apache.commons commons-math3 3.4.1
org.apache.curator curador-cliente 2.7.1
org.apache.curator estrutura do curador 2.7.1
org.apache.curator curador de receitas 2.7.1
org.apache.derby Derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop cliente Hadoop 2.7.3
org.apache.hadoop hadoop-common (componente comum do Hadoop) 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app (aplicativo cliente do hadoop-mapreduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0-em incubação
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.10
org.apache.ivy hera 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc orc-calços 1.5.5
org.apache.parquet coluna parquet 1.10.1.2-databricks3
org.apache.parquet parquet-comum 1.10.1.2-databricks3
org.apache.parquet codificação-parquet 1.10.1.2-databricks3
org.apache.parquet formato parquet 2.4.0
org.apache.parquet parquet-hadoop 1.10.1.2-databricks3
org.apache.parquet parquet-jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-shaded 4.8
org.apache.zookeeper zelador de zoológico 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.10
org.codehaus.janino janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.27.v20190418
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.3.27.v20190418
org.eclipse.jetty jetty-http 9.3.27.v20190418
org.eclipse.jetty jetty-io 9.3.27.v20190418
org.eclipse.jetty jetty-jndi 9.3.27.v20190418
org.eclipse.jetty jetty-plus 9.3.27.v20190418
org.eclipse.jetty jetty-proxy 9.3.27.v20190418
org.eclipse.jetty segurança do jetty 9.3.27.v20190418
org.eclipse.jetty servidor jetty 9.3.27.v20190418
org.eclipse.jetty jetty-servlet 9.3.27.v20190418
org.eclipse.jetty jetty-servlets 9.3.27.v20190418
org.eclipse.jetty jetty-util 9.3.27.v20190418
org.eclipse.jetty Jetty Webapp 9.3.27.v20190418
org.eclipse.jetty jetty-xml 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-locator 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.1
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core jersey-comum 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hamcrest hamcrest-core 1,3
org.hamcrest Biblioteca Hamcrest 1,3
org.hibernate hibernate-validator 5.1.1.Final
org.iq80.snappy Rápido 0,2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc cliente Java do MariaDB 2.1.2
org.mockito mockito-core 1.10.19
org.objenesis objenésia 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap Calços 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.12
org.scala-lang scala-library_2.11 2.11.12
org.scala-lang scala-reflect_2.11 2.11.12
org.scala-lang.modules scala-parser-combinators_2.11 1.1.0
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark não utilizado 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.LANÇAMENTO
org.springframework teste de primavera 4.1.4.LANÇAMENTO
org.tukaani xz 1.5
org.typelevel mecânico_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.3
org.yaml snakeyaml 1.16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1
xmlenc xmlenc 0.52