Partilhar via


Tempo de execução do Databricks 6.0 (EoS)

Nota

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.

A Databricks lançou esta versão em outubro de 2019.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 6.0, desenvolvido pelo Apache Spark.

Novos recursos

Ambiente Python

O Databricks Runtime 6.0 inclui grandes mudanças no Python e na forma como os ambientes Python são configurados, incluindo a atualização do Python para 3.7.3, o refinamento da lista de pacotes Python instalados e a atualização desses pacotes instalados para versões mais recentes. Para obter detalhes, consulte Bibliotecas Python instaladas.

Além disso, como foi anunciado anteriormente, o Databricks Runtime 6.0 não suporta Python 2.

As principais alterações incluem:

  • Python atualizado de 3.5.2 para 3.7.3. Algumas versões antigas de pacotes Python podem não ser compatíveis com o Python 3.7 porque dependem de versões antigas do Cython que não são compatíveis com o Python 3.7. A instalação de tal pacote pode desencadear erros semelhantes a 'PyThreadState' {'struct _ts'} has no member named 'exc_type' (veja a edição do GitHub de 1978 para obter detalhes). Instale, em vez disso, versões de pacotes Python compatíveis com Python 3.7.
  • Principais atualizações de pacotes:
    • boto3 a 1.9.162
    • Atualizar ipython para 7.4.0
    • matplotlib para 3.0.3
    • numpy para a versão 1.16.2
    • pandas versão 0.24.2
    • Pyarrow para 0.13.0
  • Em comparação com o Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python foram recentemente incluídos: asn1crypto, backcall, jedi, kiwisolver, parso e PySocks.
  • Em comparação com Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python não estão instalados: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson e singledispatch.
  • A função display em objetos ggplot do Python deixou de ser suportada porque o pacote ggplot não é compatível com as versões mais recentes da Panda.
  • A configuração PYSPARK_PYTHON como /databricks/python2/bin/python não é suportada porque o Databricks Runtime 6.0 não suporta Python 2. Um cluster com essa configuração ainda pode ser iniciado. No entanto, os cadernos Python e os comandos Python não funcionarão, ou seja, as células de comando Python falharão com um erro "Cancelado" e um erro Python shell failed to start aparecerá nos logs do driver.
  • Se PYSPARK_PYTHON apontar para um executável Python que se encontra num ambiente gerido pelo Virtualenv, esse ambiente será ativado para scripts de inicialização e notebooks. Você pode usar python e pip comandos que são definidos no ambiente ativado diretamente sem ter que especificar os locais absolutos desses comandos. Por padrão, PYSPARK_PYTHON é definido como /databricks/python3/bin/python. Assim, por padrão, python aponta para /databricks/python3/bin/python e pip aponta para /databricks/python3/bin/pip para scripts de init e blocos de notas. Se o seu PYSPARK_PYTHON apontar para um executável Python que não está em um ambiente gerido pelo Virtualenv ou se estiver a escrever um script de inicialização para criar o Python especificado pelo PYSPARK_PYTHON, será necessário usar caminhos absolutos para aceder ao python e pip corretos. Quando o isolamento da biblioteca Python está ativado (é ativado por padrão), o ambiente ativado ainda é o ambiente ao qual PYSPARK_PYTHON está associado. Recomendamos que você use o utilitário Biblioteca (dbutils.library) (legado) para modificar o ambiente isolado associado a um bloco de anotações Python.

APIs Scala e Java para comandos Delta Lake DML

Agora você pode modificar dados em tabelas Delta usando APIs programáticas para excluir, atualizar e mesclar. Essas APIs espelham a sintaxe e a semântica de seus comandos SQL correspondentes e são ótimas para muitas cargas de trabalho, por exemplo, operações de dimensão de mudança lenta (SCD), mesclagem de dados de alteração para replicação e atualizações de consultas de streaming.

Para obter detalhes, consulte O que é Delta Lake no Azure Databricks?.

APIs Scala e Java para comandos do utilitário Delta Lake

O Databricks Runtime agora tem APIs programáticas para os comandos de utilitários vacuum e history. Essas APIs espelham a sintaxe e a semântica de seus comandos SQL correspondentes disponíveis em versões anteriores do Databricks Runtime.

Você pode limpar arquivos que não são mais referenciados por uma tabela Delta e são mais antigos do que o limite de retenção executando vacuum na tabela. A execução do vacuum comando na tabela aspira recursivamente os diretórios associados à tabela Delta. O limiar de retenção predefinido para os ficheiros é de 7 dias. A capacidade de regressar a uma versão mais antiga do que o período de retenção perde-se após a execução de vacuum. vacuum não é acionado automaticamente.

Você pode recuperar informações sobre as operações, o usuário, a data e hora, e assim por diante, para cada gravação numa tabela Delta ao executar o comando history. As operações são retornadas em ordem cronológica inversa. Por padrão, o histórico da tabela é mantido por 30 dias.

Para obter detalhes, consulte O que é Delta Lake no Azure Databricks?.

Cache de disco disponível para instâncias do Azure Lsv2

Caching de disco agora está ativado por padrão para todas as instâncias Lsv2.

Armazenamento otimizado usando APIs de arquivos locais

As APIs de arquivo local são úteis, pois permitem que você acesse arquivos do armazenamento de objetos distribuídos subjacente como arquivos locais. No Databricks Runtime 6.0, aprimorámos o sistema de montagem FUSE que possibilita que as APIs de ficheiros locais resolvam as principais limitações. O Databricks Runtime 6.0 melhora significativamente a velocidade de leitura e gravação e suporta arquivos maiores que 2 GB. Se você precisar de leituras e gravações mais rápidas e confiáveis, como para treinamento de modelo distribuído, você achará esse aprimoramento particularmente útil. Além disso, você não precisaria carregar dados em um armazenamento local para suas cargas de trabalho, economizando custos e melhorando a produtividade.

Para obter detalhes, consulte O que é DBFS?.

Vários gráficos matplotlib por célula do bloco de anotações

Agora você pode exibir vários gráficos matplotlib por célula do bloco de anotações:

Vários gráficos matplotlib na célula

Credenciais de serviço para várias contas do Azure Data Lake Storage Gen1

Agora você pode configurar credenciais de serviço para várias contas de armazenamento do Azure para uso em uma única sessão do Apache Spark. Para fazer isso, adicione account.<account-name> às chaves de configuração. Por exemplo, se pretender configurar credenciais para as contas acederem a ambas as adl://example1.azuredatalakestore.net e adl://example2.azuredatalakestore.net, pode fazê-lo da seguinte forma:

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Melhorias

  • AWS SDK atualizado para 1.11.596.
  • SDK de armazenamento do Azure atualizado no driver WASB para a versão 7.0.
  • OPTIMIZE Agora fornece um resumo de métricas como número de arquivos adicionados, número de arquivos removidos e tamanho máximo e mínimo do arquivo. Consulte Otimizar o formato do arquivo de dados.

Remoção

O Databricks ML Model Export foi removido. Em vez disso, use MLeap para importar e exportar modelos.

Apache Spark

Nota

Este artigo contém referências ao termo slave, um termo que o Azure Databricks não usa. Quando o termo for removido do software, iremos removê-lo deste artigo.

O Databricks Runtime 6.0 inclui o Apache Spark 2.4.3. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 5.5 LTS (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [SPARK-27992][SPARK-28881][PYTHON] Permitir que o Python se conecte ao thread de conexão para propagar erros
  • [SPARK-27330][SS]suporte a abortar a tarefa no writer foreach (6.0, 5.x)
  • [SPARK-28642][SQL] Ocultar credenciais no SHOW CREATE TABLE
  • [SPARK-28699][CORE] Corrigir um caso extremo para abortar estágio indeterminado
  • [SPARK-28647][WEBUI] Recuperar funcionalidade de métrica adicional
  • [SPARK-28766][R][DOC] Corrigir aviso de viabilidade de entrada do CRAN em URL inválido
  • [SPARK-28486][CORE][PYTHON] Mapeie o arquivo de dados do PythonBroadcast para um BroadcastBlock para evitar a exclusão por GC
  • [SPARK-25035][CORE] Evitando o mapeamento de memória na replicação de blocos armazenados no disco
  • [SPARK-27234][SS][PYTHON] Use InheritableThreadLocal para o período atual no EpochTracker (para suportar UDFs Python)
  • [SPARK-28638][WEBUI] O resumo da tarefa deve conter apenas as métricas das tarefas bem-sucedidas
  • [FAÍSCA-28153][PYTHON] Use AtomicReference em InputFileBlockHolder (para suportar o input_file_name com Python UDF)
  • [FAÍSCA-28564][CORE] A aplicação de histórico de acessos usa como padrão o identificador da última tentativa
  • [SPARK-28260] O cluster pode ser encerrado automaticamente enquanto a consulta thriftserver ainda está a obter resultados
  • [SPARK-26152][CORE] Sincronizar a limpeza do Worker com o encerramento do Worker
  • [SPARK-28545][SQL] Adicionar o tamanho do mapa de hash ao registo direcional de ObjectAggregationIterator
  • [FAÍSCA-28489][SS] Corrigir um erro em que o KafkaOffsetRangeCalculator.getRanges pode omitir offsets
  • [SPARK-28421][ML] Otimização do desempenho de SparseVector.apply
  • [FAÍSCA-28156][SQL] A auto-junção não deve perder a vista em cache
  • [SPARK-28152][SQL] Mapeado ShortType para SMALLINT e FloatType para REAL para MsSqlServerDialect
  • [SPARK-28054][SQL] Corrigir erro ao inserir tabela particionada do Hive dinamicamente onde o nome da partição é maiúsculo
  • [SPARK-27159][SQL] atualizar o dialeto do servidor MSSQL para suportar o tipo binário
  • [SPARK-28355][CORE][PYTHON] Use a configuração do Spark para o limite em que com...
  • [FAÍSCA-27989][CORE] Adicionadas novas tentativas na conexão com o driver para k8s
  • [SPARK-27416][SQL] UnsafeMapData & UnsafeArrayData Kryo serialização ...
  • [SPARK-28430][UI] Corrigir a renderização da tabela de estágio quando algumas métricas de tarefas estão ausentes
  • [SPARK-27485] EnsureRequirements.reorder deve lidar com expressões duplicadas adequadamente
  • [SPARK-28404][SS] Corrigir valor de tempo limite negativo em RateStreamContinuousPartitionReader
  • [SPARK-28378][PYTHON] Remover o uso de cgi.escape
  • [SPARK-28371][SQL] Tornar o filtro Parquet "StartsWith" null-safe
  • [SPARK-28015][SQL] Verificar se stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
  • [SPARK-28302][CORE] Assegure-se de gerar um ficheiro de saída exclusivo para o SparkLauncher no Windows
  • [SPARK-28308][CORE] A parte subsegundo de CalendarInterval deve ser preenchida antes da análise
  • [SPARK-28170][ML][PYTHON] Vetores uniformes e documentação de matrizes
  • [SPARK-28160][CORE] Corrigir um bug em que a função de retorno de chamada pode travar quando uma exceção não verificada é ignorada.
  • [SPARK-27839][SQL] Altere UTF8String.replace() para operar em bytes UTF8
  • [FAÍSCA-28157][CORE] Tornar SHS limpo KVStore LogInfo para as entradas na lista de exclusão
  • [SPARK-28128][PYTHON][SQL] pandas UDFs agrupados ignoram partições vazias
  • [SPARK-28012][SQL] O Hive UDF suporta expressão do tipo struct avaliável
  • [SPARK-28164] Corrigir descrição de uso do start-slave.sh
  • [FAÍSCA-27100][SQL] Use Array em vez de Seq em FilePartition para evitar StackOverflowError
  • [SPARK-28154][ML] GMM corrigir a duplicação de cache

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 6.0.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 16.04.6 LTS
  • Java: 1.8.0_232
  • Escala: 2.11.12
  • Píton: 3.7.3
  • R: R versão 3.6.1 (2019-07-05)
  • Lago Delta: 0.3.0

Nota

Embora o Scala 2.12 esteja disponível como um recurso experimental no Apache Spark 2.4, ele não é suportado no Databricks Runtime 6.0.

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
asn1crypto 0.24.0 Retorno de Chamada 0.1.0 botão 2.49.0
Boto3 1.9.162 Botocore 1.12.163 certifi 2019.3.9
CFFI 1.12.2 Chardet 3.0.4 criptografia 2.6.1
ciclador 0.10.0 Cython 0.29.6 decorador 4.4.0
Docutils 0.14 IDNA 2.8 IPython 7.4.0
ipython-genutils 0.2.0 Jedi 0.13.3 JmesPath 0.9.4
Kiwisolver 1.1.0 Matplotlib 3.0.3 dormência 1.16.2
pandas 0.24.2 Parso 0.3.4 bode expiatório 0.5.1
Espere 4.6.0 pickleshare 0.7.5 pip (o gestor de pacotes do Python) 19.0.3
kit de ferramentas de prompt 2.0.9 PSYCOPG2 2.7.6.1 ptyprocess 0.6.0
Pyarrow 0.13.0 Pycparser 2.19 Pycurl 7.43.0
Pigmentos 2.3.1 PyGObject 3.20.0 pyOpenSSL 19.0.0
Pyparsing 2.4.2 Meias PySocks 1.6.8 python-apt 1.1.0.b1+ubuntu0.16.04.5
python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.8.0 Pytz 2018.9 pedidos 2.21.0
s3transferência 0.2.1 scikit-learn (biblioteca de aprendizado de máquina em Python) 0.20.3 SciPy 1.2.1
nascido no mar 0.9.0 Ferramentas de configuração 40.8.0 seis 1.12.0
ssh-import-id 5,5 statsmodels (uma biblioteca de Python para modelos estatísticos) 0.9.0 traços 4.3.2
Atualizações automáticas 0.1 urllib3 1.24.1 virtualenv 16.4.1
wcwidth 0.1.7 wheel 0.33.1

Bibliotecas R instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Abind 1.4-5 AskPass 1.1 asserçãoat 0.2.1
retro-adaptações 1.1.3 base 3.6.1 base64enc 0.1-3
Belo Horizonte 1.69.0-1 pouco 1.1-14 bit64 0.9-7
Bitops 1.0-6 blob 1.1.1 arranque 1.3-23
propor soluções: 1. Brew café: preparar café 2. Brew chá: preparar chá 3. Brew cerveja: produzir cerveja 1.0-6 Chamador 3.2.0 carro 3.0-2
dadosDoCarro 3.0-2 circunflexo 6.0-82 Cellranger 1.1.0
crono 2.3-53 classe 7.3-15 CLI 1.1.0
Clipr 0.5.0 clisímbolos 1.2.0 cluster 2.1.0
CodeTools 0,2-16 espaço de cores 1.4-1 marca comum 1.7
compilador 3.6.1 configuração 0,3 lápis de cor 1.3.4
encaracolar 3.3 data.table (pacote para manipulação de dados em R) 1.12.0 conjuntos de dados 3.6.1
DBI 1.0.0 DBPlyr 1.3.0 descrição 1.2.0
DevTools 2.0.1 resumo 0.6.18 doMC 1.3.5
DPLYR 0.8.0.1 reticências 0.1.0 Fãsi 0.4.0
FORCATS 0.4.0 para cada 1.4.4 externa 0.8-72
forjar 0.2.0 FS 1.2.7 GBM 2.1.5
genérico 0.0.2 GGPLOT2 3.1.0 GH 1.0.1
Git2R 0.25.2 GLMNET 2.0-16 cola 1.3.1
Gower 0.2.0 gráficos 3.6.1 grDispositivos 3.6.1
grelha 3.6.1 gridExtra 2.3 GSUBFN 0,7
tabela g 0.3.0 H₂O 3.22.1.1 Refúgio 2.1.0
HMS 0.4.2 htmltools 0.3.6 htmlwidgets (componentes HTML interativos) 1.3
HTTR 1.4.0 Hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 ipred 0.9-8 iteradores 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 etiquetagem 0,3
grelha 0.20-38 lave 1.6.5 preguiça 0.2.2
menor 0.3.7 LME4 1.1-21 lubridato 1.7.4
Magrittr 1.5 Mapproj 1.2.6 mapas 3.3.0
Ferramentas de mapa 0.9-5 MASSA 7.3-51.4 Matriz 1.2-17
Modelos Matriciais 0.4-1 memorização 1.1.0 métodos 3.6.1
MGCV 1.8-28 mímica 0,6 Minqa 1.2.4
ModelMetrics 1.2.2 Munsell 0.5.0 MVTnorm 1.0-10
NLME 3.1-141 NLOPTR 1.2.1 NNET 7.3-12
numDeriv 2016.8-1 openssl (conjunto de ferramentas para criptografia) 1.3 OpenXLSX 4.1.0
paralelo 3.6.1 pbkrtest 0.4-7 pilar 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgGatinho 0.1.4
pkgload 1.0.2 plogr 0.2.0 Plyr 1.8.4
elogiar 1.0.0 unidades bonitas 1.0.2 pROC 1.14.0
processx 3.3.0 Prodlim 2018.04.18 Progresso 1.2.0
prototipo 1.0.0 PS 1.3.0 ronronar 0.3.2
Quantreg 5,38 R.métodosS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
Floresta Aleatória 4.6-14 rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrewer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 Leitor 1.3.1
ReadXL 1.3.1 receitas 0.1.5 revanche 1.0.1
Controles remotos 2.0.2 remodelar2 1.4.3 Rio 0.5.16
Rlang 0.3.3 RODBC 1.3-15 oxigénio2 6.1.1
rpart (função de partição recursiva em R) 4.1-15 rprojroot 1.3-2 Reserva 1.8-6
RSQLite 2.1.1 rstudioapi 0.10 escalas 1.0.0
informações da sessão 1.1.1 SP 1.3-1 Brilho 1.0.0
Faísca 2.4.4 SparseM 1.77 espacial 7.3-11
estrias 3.6.1 sqldf 0.4-11 QUADRADO 2017.10-1
Statmod 1.4.30 estatísticas 3.6.1 estatísticas4 3.6.1
string 1.4.3 stringr 1.4.0 sobrevivência 2.44-1.1
Sistema 3.1 tcltk (uma linguagem de programação) 3.6.1 Demonstrações de Ensino 2.10
teste que 2.0.1 Tibble 2.1.1 Tidyr 0.8.3
arrumadoselecionar 0.2.5 data e hora 3043.102 ferramentas 3.6.1
usethis 1.4.0 UTF8 1.1.4 utilitários 3.6.1
viridisLite 0.3.0 vibrissas 0.3-2 murchar 2.1.2
XML2 1.2.0 xopen 1.0.0 yaml 2.2.0
ZIP 2.0.1

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)

ID do Grupo ID do Artefacto Versão
Antlr Antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.8.10
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.11.595
com.amazonaws AWS-Java-SDK-CloudFormation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm 1.11.595
com.amazonaws AWS Java SDK para CloudSearch 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect 1.11.595
com.amazonaws aws-java-sdk-diretório 1.11.595
com.amazonaws aws-java-sdk-dynamodb 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws aws-java-sdk-ecs 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder 1.11.595
com.amazonaws aws-java-sdk-emr 1.11.595
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.11.595
com.amazonaws aws-java-sdk-glue 1.11.595
com.amazonaws aws-java-sdk-iam 1.11.595
com.amazonaws aws-java-sdk-importexport 1.11.595
com.amazonaws aws-java-sdk-kinesis 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-logs 1.11.595
com.amazonaws aws-java-sdk-aprendizado de máquina 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-rota53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws AWS Java SDK para SES 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.11.595
com.amazonaws AWS-Java-SDK-STS 1.11.595
com.amazonaws aws-java-sdk-suporte 1.11.595
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.carrotsearch HPPC 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics fluxo 2.7.0
com.databricks Reserva 1.8-3
com.databricks DBML-local_2,11 0.5.0-db8-faísca2.4
com.databricks dbml-local_2.11-testes 0.5.0-db8-faísca2.4
com.databricks Jatos 3T 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb SCALAPB-runtime_2,11 0.4.15-9
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.0.0
com.fasterxml.jackson.core Jackson-Annotations 2.6.7
com.fasterxml.jackson.core Jackson-Core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module módulo-jackson-paranamer 2.6.7
com.fasterxml.jackson.module jackson-módulo-scala_2.11 2.6.7.1
com.github.fommil Jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-Java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib native_system-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-nativos 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-nativos 1.1
com.github.luben ZSTD-JNI 1.3.2-2
com.github.rwl Jtransforms 2.4.0
com.google.code.findbugs JSR305 2.0.1
com.google.code.gson Gson 2.2.4
com.google.goiaba Goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2banco de dados h2 1.3.174
com.jcraft JSCH 0.1.50
com.jolbox BoneCP 0.8.0.LANÇAMENTO
com.microsoft.azure azure-data-lake-store-sdk (SDK para Azure Data Lake Store) 2.2.8
com.microsoft.azure armazenamento Azure 7.0.0
com.microsoft.sqlserver MSSQL-JDBC 6.2.2.JRE8
com.ning compressa-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter Chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocidade analisadores de univocidade 2.7.3
com.vlkan flatbuffers 1.2.0-3F79E055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1.2
codec commons codec commons 1.10
Commons Collections Commons Collections 3.2.2
commons-configuração commons-configuração 1.6
commons-dbcp commons-dbcp 1.4
commons-digestor commons-digestor 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.ponte aérea compressor de ar 0.10
io.dropwizard.metrics métricas-base 3.1.5
io.dropwizard.metrics métricas-Ganglia 3.1.5
io.dropwizard.metrics métricas-grafite 3.1.5
io.dropwizard.metrics métricas-verificações de saúde 3.1.5
io.dropwizard.metrics métricas-jetty9 3.1.5
io.dropwizard.metrics métricas-json 3.1.5
io.dropwizard.metrics métricas do JVM 3.1.5
io.dropwizard.metrics métricas-log4j 3.1.5
io.dropwizard.metrics Métricas-Servlets 3.1.5
io.netty biblioteca Netty 3.9.9.Final
io.netty netty-tudo 4.1.17.Final
javax.ativação ativação 1.1.1
javax.anotação javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo JDO-API 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp JSP-API 2.1
javax.transaction JTA 1.1
javax.validação API de validação 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind JAXB-API 2.2.2
javax.xml.stream Stax-API 1.0-2
Javolution Javolution 5.5.1
Jline Jline 2.14.6
Joda-Time Joda-Time 2.9.3
JUNIT JUNIT 4.12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hidromática eigenbase-propriedades 1.1.5
net.razorvine pirolite 4.13
net.sf.jpam JPAM 1.1
net.sf.opencsv OpenCSV 2.3
net.sf.supercsv Super-CSV 2.2.0
net.floco de neve flocos de neve-ingestão-sdk 0.9.5
net.floco de neve Flocos de Neve-JDBC 3.6.15
net.floco de neve faísca-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt ONCRPC 1.0.7
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.4
org.antlr antlr4-tempo de execução 4.7
org.antlr modelo de string 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ANT-JSCH 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de seta 0.10.0
org.apache.arrow seta-memória 0.10.0
org.apache.arrow vetor de seta 0.10.0
org.apache.avro Avro 1.8.2
org.apache.avro AVRO-IPC 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcita-avatica 1.2.0 incubação
org.apache.calcite núcleo de calcita 1.2.0 incubação
org.apache.calcite calcita-linq4j 1.2.0 incubação
org.apache.commons commons-comprimir 1.8.1
org.apache.commons commons-cripto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-matemática3 3.4.1
org.apache.curador curador e cliente 2.7.1
org.apache.curador curador-framework 2.7.1
org.apache.curador curador de receitas 2.7.1
org.apache.derby dérbi 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api API-Util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations (anotações do hadoop) 2.7.3
org.apache.hadoop autenticação do Hadoop 2.7.3
org.apache.hadoop cliente Hadoop 2.7.3
org.apache.hadoop hadoop-comum 2.7.3
org.apache.hadoop Hadoop-HDFS 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-cliente-core 2.7.3
org.apache.hadoop Cliente de Trabalho Hadoop MapReduce 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-cliente 2.7.3
org.apache.hadoop hadoop-yarn-comum 2.7.3
org.apache.hadoop hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) 2.7.3
org.apache.htrace htrace-núcleo 3.1.0 incubação
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents Núcleo Http 4.4.10
org.apache.ivy hera 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc Orc-calços 1.5.5
org.apache.parquet parquet-coluna 1.10.1.2-databricks3
org.apache.parquet parquet-comum 1.10.1.2-databricks3
org.apache.parquet codificação parquet 1.10.1.2-databricks3
org.apache.parquet formato Parquet 2.4.0
org.apache.parquet Parquet-Hadoop 1.10.1.2-databricks3
org.apache.parquet Parquet-Jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-sombreado 4.8
org.apache.zookeeper tratador de animais 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson Jackson-Jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.jackson Jackson-XC 1.9.13
org.codehaus.janino compilador comum 3.0.10
org.codehaus.janino Janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus DataNucleus Core 3.2.10
org.datanucleus Datanucleus-RDBMS 3.2.9
org.eclipse.píer Jetty-Cliente 9.3.27.v20190418
org.eclipse.píer jetty-continuation (componente de software do Jetty) 9.3.27.v20190418
org.eclipse.píer Jetty-HTTP 9.3.27.v20190418
org.eclipse.píer Molhe IO 9.3.27.v20190418
org.eclipse.píer Cais-JNDI 9.3.27.v20190418
org.eclipse.píer Cais-Plus 9.3.27.v20190418
org.eclipse.píer Jetty-Proxy 9.3.27.v20190418
org.eclipse.píer Segurança do Jetty 9.3.27.v20190418
org.eclipse.píer servidor Jetty 9.3.27.v20190418
org.eclipse.píer Jetty-servlet 9.3.27.v20190418
org.eclipse.píer Jetty-servlets 9.3.27.v20190418
org.eclipse.píer Jetty-util 9.3.27.v20190418
org.eclipse.píer Aplicação web Jetty 9.3.27.v20190418
org.eclipse.píer Jetty-XML 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 HK2-API 2.4.0-B34
org.glassfish.hk2 localizador hk2 2.4.0-B34
org.glassfish.hk2 HK2-Utils 2.4.0-B34
org.glassfish.hk2 localizador de recursos OSGi 1.0.1
org.glassfish.hk2.externo aopalliance-reembalado 2.4.0-B34
org.glassfish.hk2.externo javax.injet 2.4.0-B34
org.glassfish.jersey.bundles.reembalado Jersey-Goiaba 2.22.2
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-cliente 2.22.2
org.glassfish.jersey.core Jersey comum 2.22.2
org.glassfish.jersey.core servidor Jersey 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hamcrest núcleo de hamcreste 1.3
org.hamcrest hamcrest-biblioteca 1.3
org.hibernate hibernate-validator (ferramenta de validação de dados de Java) 5.1.1.Final
org.iq80.snappy rápido / vivaz / elegante 0.2
org.javassist Javassist 3.18.1-GA
org.jboss.logging jboss-registro em log 3.1.3.GA
org.jdbi JDBI 2.63.1
org.joda joda-converter 1.7
org.jodd JODD-CORE 3.5.2
org.json4s JSON4S-ast_2.11 3.5.3
org.json4s JSON4S-core_2.11 3.5.3
org.json4s JSON4S-jackson_2.11 3.5.3
org.json4s JSON4S-scalap_2.11 3.5.3
org.lz4 LZ4-Java 1.4.0
org.mariadb.jdbc mariadb-java-cliente 2.1.2
org.mockito mockito-núcleo 1.10.19
org.objenesis objenese 2.5.1
org.postgresql PostgreSQL 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap calços 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2,11 2.11.12
org.scala-lang Escala-library_2,11 2.11.12
org.scala-lang Escala-reflect_2,11 2.11.12
org.scala-lang.modules scala-parser-combinators_2,11 1.1.0
org.scala-lang.modules Escala-xml_2.11 1.0.5
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp Brisa-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-compatível-com-slf4j 1.7.16
org.slf4j jul-para-slf4j 1.7.16
org.slf4j SLF4J-API 1.7.16
org.slf4j SLF4J-Log4J12 1.7.16
org.spark-project.hive colmeia-abelha 1.2.1.faísca2
org.spark-project.hive Hive-CLI 1.2.1.faísca2
org.spark-project.hive Hive-JDBC 1.2.1.faísca2
org.spark-project.hive sistema de metadados do Hive 1.2.1.faísca2
org.spark-project.spark não utilizado 1.0.0
org.spire-matemática torre-macros_2.11 0.13.0
org.spire-matemática spire_2.11 0.13.0
org.springframework spring-core (núcleo do Spring) 4.1.4.VERSÃO
org.springframework teste de primavera 4.1.4.VERSÃO
org.tukaani XZ 1.5
org.typelevel mecânico_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial SQLITE-JDBC 3.8.11.2
org.xerial.snappy Snappy-java 1.1.7.3
org.yaml Snakeyaml 1.16
ouro ouro 2.0.8
software.amazon.ion íon-java 1.0.2
Stax Stax-API 1.0.1
XMLENC XMLENC 0.52