Partilhar via


Tempo de execução do Databricks 4.0 (EoS)

Nota

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.

A Databricks lançou esta versão em março de 2018.

Importante

Esta versão foi preterida em 1º de novembro de 2018. Para obter mais informações sobre a política e o cronograma de substituição do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 4.0, desenvolvido pelo Apache Spark.

Alterações e melhorias

  • A fonte de dados JSON agora tenta detetar automaticamente a codificação em vez de assumir que seja UTF-8. Nos casos em que a deteção automática falha, os usuários podem especificar a opção charset para impor uma determinada codificação. Consulte Deteção automática de Charset.
  • A pontuação e a previsão usando pipelines do Spark MLlib no Streaming estruturado são totalmente suportadas.
  • O Databricks ML Model Export é totalmente suportado. Com esse recurso, você pode treinar um modelo Spark MLlib no Databricks, exportá-lo com uma chamada de função e usar uma biblioteca Databricks no sistema de sua escolha para importar o modelo e pontuar novos dados.
  • Uma nova implementação de fonte de dados do Spark oferece acesso escalável de leitura/gravação ao Azure Synapse Analytics. Consulte Spark - Synapse Analytics Connector.
  • O esquema da função from_json agora é sempre convertido para um tipo anulável. Em outras palavras, todos os campos, incluindo os aninhados, podem ter valor nulo. Isso garante que os dados sejam compatíveis com o esquema, evitando corrupção depois de gravar os dados no parquet quando um campo estiver ausente nos dados e o esquema fornecido pelo usuário declarar o campo como não anulável.
  • Atualizado algumas bibliotecas Python instaladas:
    • Futuros: de 3.1.1 a 3.2.0
    • Pandas: de 0.18.1 a 0.19.2
    • Pyarrow: de 0.4.1 a 0.8.0
    • setuptools: de 38.2.3 a 38.5.1
    • tornado: 4.5.2 a 4.5.3
  • Foram atualizadas várias bibliotecas R instaladas. Consulte Bibliotecas R instaladas.
  • AWS Java SDK atualizado de 1.11.126 para 1.11.253.
  • Driver JDBC do SQL Server atualizado de 6.1.0.jre8 para 6.2.2.jre8.
  • Driver JDBC PostgreSQL atualizado do 9.4-1204-jdbc41 para 42.1.4.

Apache Spark

O Databricks Runtime 4.0 inclui o Apache Spark 2.3.0.

Core, PySpark e Spark SQL

Principais características

  • Leitor ORC vetorizado: [SPARK-16060]: Adiciona suporte para o novo leitor ORC que melhora substancialmente a taxa de transferência de varredura ORC através da vetorização (2-5x). Para habilitar o leitor, os usuários podem definir spark.sql.orc.impl como native.
  • Spark History Server V2: [SPARK-18085]: Um novo back-end do spark history server (SHS) que fornece melhor escalabilidade para aplicativos de grande escala com um mecanismo de armazenamento de eventos mais eficiente.
  • API de fonte de dados V2: [SPARK-15689][SPARK-22386]: Uma API experimental para conectar novas fontes de dados no Spark. A nova API tenta abordar várias limitações da API V1 e visa facilitar o desenvolvimento de fontes de dados externas de alto desempenho, fáceis de manter e extensíveis. Esta API ainda está em desenvolvimento ativo e mudanças de quebra devem ser esperadas.
  • Aprimoramentos de desempenho do PySpark: [SPARK-22216][SPARK-21187]: Melhorias significativas no desempenho e interoperabilidade do Python por serialização rápida de dados e execução vetorizada.

Desempenho e estabilidade

Outras mudanças notáveis

Transmissão em Fluxo Estruturada

Processamento Contínuo

  • Um novo mecanismo de execução que pode executar consultas de streaming com latência de ponta a ponta inferior a milissegundos alterando apenas uma única linha de código do usuário. Para saber mais, consulte o guia de programação.

Stream-Stream junta-se

  • Capacidade de unir dois fluxos de dados, buffering linhas até que tuplas correspondentes cheguem no outro fluxo. Os predicados podem ser usados em colunas de tempo de evento para delimitar a quantidade de estado que precisa ser retida.

Streaming API V2

  • Uma API experimental para conectar novas fontes e coletores que funciona para execução em lote, microlote e contínua. Esta API ainda está em desenvolvimento ativo, e mudanças significativas devem ser esperadas.

MLlib

Destaques

  • O ML Prediction agora funciona com Structured Streaming, usando APIs atualizadas. Seguem-se os detalhes.

APIs novas e melhoradas

  • [SPARK-21866]: Suporte integrado para leitura de imagens em um DataFrame (Scala/Java/Python).
  • [SPARK-19634]: Funções DataFrame para estatísticas de resumo descritivo sobre colunas vetoriais (Scala/Java).
  • [SPARK-14516]: ClusteringEvaluator para ajustar algoritmos de clustering, suportando silhueta Cosine e métricas de silhueta Euclidiana quadrada (Scala/Java/Python).
  • [SPARK-3181]: Regressão linear robusta com perda de Huber (Scala/Java/Python).
  • [SPARK-13969]: FeatureHasher transformador (Scala/Java/Python).
  • Suporte de várias colunas para vários transformadores de funcionalidade:
  • [SPARK-21633] e SPARK-21542]: Suporte aprimorado para componentes de pipeline personalizados em Python.

Novas funcionalidades

  • [SPARK-21087]: CrossValidator e TrainValidationSplit podem coletar todos os modelos ao ajustar (Scala/Java). Isso permite que você inspecione ou salve todos os modelos instalados.
  • [SPARK-19357]: Meta-algoritmos , CrossValidator,TrainValidationSplit suportam um paralelismo Param para encaixar vários sub-modelos em trabalhos paralelos OneVsRestdo Spark.
  • [SPARK-17139]: Resumo do modelo para regressão logística multinomial (Scala/Java/Python)
  • [SPARK-18710]: Adicionar deslocamento no GLM.
  • [SPARK-20199]: Foi adicionado featureSubsetStrategy Param a GBTClassifier e GBTRegressor. Usar isso para subamostrar recursos pode melhorar significativamente a velocidade de treinamento; Esta opção tem sido um ponto forte da xgboost.

Outras mudanças notáveis

  • [SPARK-22156]: Escalonamento fixo Word2Vec da taxa de aprendizagem com num iterações. A nova taxa de aprendizagem está definida para corresponder ao código C original Word2Vec e deve dar melhores resultados do treinamento.
  • [SPARK-22289]: Adicionar JSON suporte para parâmetros de Matrix (Esta correção resolve um problema para a persistência de ML ao LogisticRegressionModel usar limites nos coeficientes.)
  • [SPARK-22700]: Bucketizer.transform descartam incorretamente a linha que contém NaN. Quando Param handleInvalid foi definido como "skip", Bucketizer removeria uma linha com um valor válido na coluna de entrada caso outra coluna (irrelevante) possuísse um valor NaN.
  • [SPARK-22446]: O otimizador do Catalyst às vezes fazia com que StringIndexerModel lançasse uma exceção incorreta de "rótulo invisível" quando handleInvalid estava definida como "erro". Isso pode acontecer para dados filtrados, devido ao deslocamento de predicados, causando erros mesmo após as linhas inválidas terem sido filtradas do conjunto de dados de entrada.
  • [SPARK-21681]: Corrigido um bug de caso de borda na regressão logística multinomial que resultava em coeficientes incorretos quando alguns recursos tinham variância zero.
  • Principais otimizações:
    • [SPARK-22707]: Consumo de memória reduzido para CrossValidator.
    • [SPARK-22949]: Consumo de memória reduzido para TrainValidationSplit.
    • [SPARK-21690]: Imputer deve treinar usando uma única passagem sobre os dados.
    • [SPARK-14371]: OnlineLDAOptimizer evita a recolha de estatísticas para o condutor para cada minilote.

Faísca

O foco principal do SparkR na versão 2.3.0 foi melhorar a estabilidade dos UDFs e adicionar vários novos wrappers SparkR em torno das APIs existentes:

Principais características

GraphX

Otimizações

  • [SPARK-5484]: Pregel agora faz pontos de verificação periodicamente para evitar StackOverflowErrors.
  • [SPARK-21491]: Pequena melhoria de desempenho em vários locais.

Preterições

Píton

  • [SPARK-23122]: Descontinuar o uso de register* para UDFs dentro de SQLContext e Catalog no PySpark

MLlib

  • [SPARK-13030]: OneHotEncoder foi preterido e será removido na versão 3.0. Foi substituído pelo novo OneHotEncoderEstimator. OneHotEncoderEstimator será renomeado para OneHotEncoder em 3.0 (mas OneHotEncoderEstimator será mantido como um alias).

Mudanças de comportamento

SparkSQL

  • [SPARK-22036]: Por padrão, as operações aritméticas entre decimais retornam um valor arredondado se uma representação exata não for possível (em vez de retornar NULL nas versões anteriores)
  • [SPARK-22937]: Quando todas as entradas são binárias, o SQL elt() retorna uma saída como binária. Caso contrário, ele retorna como uma cadeia de caracteres. Em versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada.
  • [SPARK-22895]: Os predicados determinísticos de Join/Filter que estão após os primeiros predicados não determinísticos também são empurrados para baixo/através dos operadores filho, se possível. Nas versões anteriores, esses filtros não eram elegíveis para pushdown de predicados.
  • [SPARK-22771]: Quando todas as entradas são binárias, functions.concat() retorna uma saída como binária. Caso contrário, ele retorna como uma cadeia de caracteres. Nas versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada.
  • [SPARK-22489]: Quando um dos lados da junção é passível de ser transmitido, preferimos difundir a tabela que é explicitamente especificada numa sugestão de difusão.
  • [SPARK-22165]: A inferência de coluna de partição encontrou anteriormente um tipo comum incorreto entre diferentes tipos inferidos. Por exemplo, anteriormente o tipo double acabava por se tornar o tipo comum para os tipos double e date. Agora encontra o tipo comum correto para tais conflitos. Para obter detalhes, consulte o guia de migração.
  • [SPARK-22100]: A função percentile_approx previamente aceitava entrada de tipo numeric e produzia resultados de tipo double. Agora ele suporta date tipo, timestamp tipo e numeric tipos como tipos de entrada. O tipo de resultado também é alterado para ser o mesmo que o tipo de entrada, o que é mais razoável para percentis.
  • [SPARK-21610]: as consultas de arquivos JSON/CSV brutos não são permitidas quando as colunas referenciadas incluem apenas a coluna de registro corrompido interna (nomeada _corrupt_record por padrão). Em vez disso, você pode armazenar em cache ou salvar os resultados analisados e, em seguida, enviar a mesma consulta.
  • [SPARK-23421]: Desde o Spark 2.2.1 e 2.3.0, o esquema é sempre inferido em tempo de execução quando as tabelas de fonte de dados têm as colunas que existem no esquema de partição e no esquema de dados. O esquema inferido não tem as colunas particionadas. Ao ler a tabela, o Spark respeita os valores de partição dessas colunas sobrepostas em vez dos valores armazenados nos arquivos de fonte de dados. Nas versões 2.2.0 e 2.1.x, o esquema inferido é particionado, mas os dados da tabela são invisíveis para os usuários (ou seja, o conjunto de resultados está vazio).

PySpark

  • [SPARK-19732]: na.fill() ou fillna também aceita booleanos e substitui nulos por booleanos. Em versões anteriores do Spark, o PySpark simplesmente o ignora e retorna o Dataset/DataFrame original.
  • [SPARK-22395]: É necessário usar pandas 0.19.2 ou superior para funcionalidades relacionadas, como toPandas, createDataFrame de pandas DataFrame, etc.
  • [SPARK-22395]: O comportamento dos valores de timestamp para funcionalidades relacionadas com pandas foi alterado de forma a respeitar o fuso horário da sessão, o que era ignorado nas versões anteriores.
  • [SPARK-23328]: df.replace não permite omitir value quando to_replace não é um dicionário. Anteriormente, value podia ser omitido nos outros casos e tinha None por defeito, o que é contraintuitivo e propenso a erros.

MLlib

  • Alterações importantes na API: A hierarquia de classes e traits para sumários de modelos de regressão logística foi alterada para ser mais limpa e acomodar melhor a adição do sumário de múltiplas classes. Esta é uma alteração significativa para o código do utilizador que faz o cast de um LogisticRegressionTrainingSummary para um BinaryLogisticRegressionTrainingSummary. Os usuários devem, em vez disso, usar o model.binarySummary método. Consulte [SPARK-17139]: para obter mais detalhes (observe que esta é uma @Experimental API). Isso não afeta o método de resumo do Python, que ainda funcionará corretamente para casos multinomiais e binários.
  • [SPARK-21806]: BinaryClassificationMetrics.pr()o primeiro ponto (0,0, 1,0) é enganoso e foi substituído por (0,0, p) em que a precisão p corresponde ao ponto de recolha mais baixo.
  • [SPARK-16957]: As árvores de decisão agora usam pontos médios ponderados ao escolher valores divididos. Isso poderá mudar os resultados do treino do modelo.
  • [SPARK-14657]: RFormula sem uma interseção agora produz a categoria de referência ao codificar variáveis de texto, a fim de corresponder ao comportamento R nativo. Isso poderá mudar os resultados do treino do modelo.
  • [SPARK-21027]: O paralelismo padrão usado agora OneVsRest está definido como 1 (ou seja, serial). Na versão 2.2 e versões anteriores, o nível de paralelismo foi definido como o tamanho padrão do threadpool no Scala. Isso pode alterar o desempenho.
  • [SPARK-21523]: Breeze atualizado para 0.13.2. Isso incluiu uma importante correção de bug na forte busca de linha Wolfe para L-BFGS.
  • [SPARK-15526]: A dependência JPMML agora está sombreada.
  • Consulte também a seção "Correções de bugs" para alterações de comportamento resultantes da correção de bugs.

Problemas conhecidos

  • [Spark-23523][SQL]: Resultado incorreto causado pela regra OptimizeMetadataOnlyQuery.
  • [SPARK-23406]: Bugs em auto-junções entre fluxos.

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 4.0.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 16.04.4 LTS
  • Java: 1.8.0_151
  • Escala: 2.11.8
  • Python: 2.7.12 (ou 3.5.2 se utilizar Python 3)
  • R: R versão 3.4.3 (2017-11-30)
  • Clusters GPU: As seguintes bibliotecas GPU NVIDIA estão instaladas
    • Piloto da Tesla 375.66
    • CUDA 8,0
    • CUDNN 6,0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
ansi2html 1.1.1 Argparse 1.2.1 backports-abc 0,5
botão 2.42.0 Boto3 1.4.1 Botocore 1.4.70
cervejeiro2mpl 1.4.1 certifi 2016.2.28 CFFI 1.7.0
Chardet 2.3.0 Colorama 0.3.7 configobj 5.0.6
criptografia 1.5 ciclista 0.10.0 Quisto 0.24.1
decorador 4.0.10 Docutils 0.14 ENUM34 1.1.6
et-xmlfile 1.0.1 freetype-py 1.0.2 funcsigs 1.0.2
fusepy 2.0.4 futuros 3.2.0 Ggplot 0.6.8
html5lib 0.999 IDNA 2.1 endereço IP 1.0.16
IPython 2.2.0 ipython-genutils 0.1.0 JDCAL 1.2
Jinja2 2.8 JmesPath 0.9.0 LLVMLITE 0.13.0
LXML 3.6.4 Marcação Segura 0.23 Matplotlib 1.5.3
MPLD3 0.2 msgpack-python 0.4.7 ndg-httpsclient 0.3.3
Dormência 0.28.1 dormência 1.11.1 openpyxl (biblioteca para manipular ficheiros Excel em Python) 2.3.2
pandas 0.19.2 Pathlib2 2.1.0 ingénuo 0.4.1
Espere 4.0.1 pickleshare 0.7.4 Almofada 3.3.1
pip (o gestor de pacotes do Python) 9.0.1 camada 3.9 kit de ferramentas de prompt 1.0.7
PSYCOPG2 2.6.2 ptyprocess 0.5.1 py4j 0.10.3
Pyarrow 0.8.0 Piasn1 0.1.9 Pycparser 2.14
Pigmentos 2.1.3 PyGObject 3.20.0 pyOpenSSL 16.0.0
Pyparsing 2.2.0 PYPNG 0.0.18 Python 2.7.12
python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.5.3 Python-Geohash 0.8.5 Pytz 1.6.2016
pedidos 2.11.1 s3transferir 0.1.9 scikit-learn (biblioteca de aprendizado de máquina em Python) 0.18.1
SciPy 0.18.1 vasculhar 0.32 nascido no mar 0.7.1
Ferramentas de configuração 38.5.1 simplejson 3.8.2 simples3 1.0
despacho único 3.4.0.3 seis 1.10.0 statsmodels (uma biblioteca de Python para modelos estatísticos) 0.6.1
tornado 4.5.3 traços 4.3.0 urllib3 1.19.1
virtualenv 15.0.1 largura de wc 0.1.7 wheel 0.30.0
WSGIREF 0.1.2

Bibliotecas R instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Abind 1.4-5 asserçãoat 0.2.0 Retroportagens 1.1.1
base 3.4.3 Belo Horizonte 1.65.0-1 Bindr 0.1
Bindrcpp 0.2 pouco 1.1-12 bit64 0.9-7
Bitops 1.0-6 blob 1.1.0 arranque 1.3-20
preparar 1.0-6 vassoura 0.4.3 carro 2.1-6
circunflexo 6.0-77 crono 2.3-51 classe 7.3-14
cluster 2.0.6 CodeTools 0.2-15 espaço em cores 1.3-2
marca comum 1.4 compilador 3.4.3 lápis de cor 1.3.4
encaracolar 3.0 Trombose do Seio Venoso Cerebral (CVST) 0.2-1 tabela de dados 1.10.4-3
conjuntos de dados 3.4.3 DBI 0,7 DDALPHA 1.3.1
DEoptimR 1.0-8 descrição 1.1.1 DevTools 1.13.4
dicromata 2.0-0 resumo 0.6.12 Vermelho escuro 0.1.0
doMC 1.3.4 DPLYR 0.7.4 Redução do Risco de Desastres (RRD) 0.0.2
para cada 1.4.3 externa 0.8-69 GBM 2.1.3
GGPLOT2 2.2.1 Git2R 0.19.0 GLMNET 2.0-13
colar 1.2.0 Gower 0.1.2 gráficos 3.4.3
grDispositivos 3.4.3 grelha 3.4.3 GSUBFN 0.6-6
tabela g 0.2.0 H2O 3.16.0.1 HTTR 1.3.1
Hwriter 1.3.2 hwriterPlus 1.0-3 ipred 0.9-6
iteradores 1.0.8 jsonlite 1.5 Kernlab 0.9-25
KernSmooth 2.23-15 etiquetagem 0,3 treliça 0.20-35
lave 1.5.1 preguiça 0.2.1 menor 0.3.2
LME4 1.1-14 lubridato 1.7.1 Magrittr 1.5
Mapproj 1.2-5 mapas 3.2.0 MASSA 7.3-48
Matriz 1.2-11 MatrizModels 0.4-1 memorização 1.1.0
métodos 3.4.3 MGCV 1.8-23 mímica 0,5
Minqa 1.2.4 Mnormt 1.5-5 ModelMetrics 1.1.0
Munsell 0.4.3 MVTnorm 1.0-6 NLME 3.1-131
NLOPTR 1.0.4 NNET 7.3-12 numDeriv 2016.8-1
openssl (conjunto de ferramentas para criptografia) 0.9.9 paralelo 3.4.3 pbkrtest 0.4-7
pkgconfig 2.0.1 pkgGatinho 0.1.4 plogr 0.1-1
Plyr 1.8.4 elogiar 1.0.0 pROC 1.10.0
Prodlim 1.6.1 prototipo 1.0.0 psique 1.7.8
ronronar 0.2.4 Quantreg 5.34 R.métodosS3 1.7.1
R.oo 1.21.0 R.utils 2.6.0 R6 2.2.2
Floresta Aleatória 4.6-12 RColorBrewer 1.1-2 Rcpp 0.12.14
RcppEigen 0.3.3.3.1 RcppRoll 0.2.2 RCurl 1.95-4.8
receitas 0.1.1 remodelar2 1.4.2 Rlang 0.1.4
base robusta 0.92-8 RODBC 1.3-15 oxigénio2 6.0.1
rpart (função de partição recursiva em R) 4.1-12 rprojroot 1.2 Reserva 1.7-3
RSQLite 2.0 rstudioapi 0,7 escalas 0.5.0
sfsmisc 1.1-1 SP 1.2-5 Faísca 2.3.0
SparseM 1.77 espacial 7.3-11 estrias 3.4.3
sqldf 0.4-11 estatmod 1.4.30 estatísticas 3.4.3
estatísticas4 3.4.3 string 1.1.6 stringr 1.2.0
sobrevivência 2.41-3 tcltk (uma linguagem de programação) 3.4.3 Demonstrações de Ensino 2.10
teste que 1.0.2 Tibble 1.3.4 Tidyr 0.7.2
arrumadoselecionar 0.2.3 data e hora 3042.101 ferramentas 3.4.3
utilitários 3.4.3 viridisLite 0.2.0 vibrissa 0.3-2
murchar 2.1.0 XML2 1.1.1

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)

ID do Grupo ID do Artefacto Versão
Antlr Antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.7.3
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.11.253
com.amazonaws AWS-Java-SDK-CloudFormation 1.11.253
com.amazonaws aws-java-sdk-cloudfront 1.11.253
com.amazonaws aws-java-sdk-cloudhsm 1.11.253
com.amazonaws AWS Java SDK para CloudSearch 1.11.253
com.amazonaws aws-java-sdk-cloudtrail 1.11.253
com.amazonaws aws-java-sdk-cloudwatch 1.11.253
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.253
com.amazonaws aws-java-sdk-codedeploy 1.11.253
com.amazonaws aws-java-sdk-cognitoidentity 1.11.253
com.amazonaws aws-java-sdk-cognitosync 1.11.253
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.11.253
com.amazonaws aws-java-sdk-core 1.11.253
com.amazonaws aws-java-sdk-datapipeline 1.11.253
com.amazonaws aws-java-sdk-directconnect 1.11.253
com.amazonaws aws-java-sdk-diretório 1.11.253
com.amazonaws aws-java-sdk-dynamodb 1.11.253
com.amazonaws aws-java-sdk-ec2 1.11.253
com.amazonaws aws-java-sdk-ecs 1.11.253
com.amazonaws aws-java-sdk-efs 1.11.253
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.11.253
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.11.253
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.11.253
com.amazonaws aws-java-sdk-elastictranscoder 1.11.253
com.amazonaws aws-java-sdk-emr 1.11.253
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.11.253
com.amazonaws aws-java-sdk-iam 1.11.253
com.amazonaws aws-java-sdk-importexport 1.11.253
com.amazonaws aws-java-sdk-kinesis 1.11.253
com.amazonaws aws-java-sdk-kms 1.11.253
com.amazonaws aws-java-sdk-lambda 1.11.253
com.amazonaws aws-java-sdk-logs 1.11.253
com.amazonaws aws-java-sdk-aprendizado de máquina 1.11.253
com.amazonaws aws-java-sdk-opsworks 1.11.253
com.amazonaws aws-java-sdk-rds 1.11.253
com.amazonaws aws-java-sdk-redshift 1.11.253
com.amazonaws aws-java-sdk-rota53 1.11.253
com.amazonaws aws-java-sdk-s3 1.11.253
com.amazonaws AWS Java SDK para SES 1.11.253
com.amazonaws aws-java-sdk-simpledb 1.11.253
com.amazonaws aws-java-sdk-simpleworkflow 1.11.253
com.amazonaws aws-java-sdk-sns 1.11.253
com.amazonaws aws-java-sdk-sqs 1.11.253
com.amazonaws aws-java-sdk-ssm 1.11.253
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.11.253
com.amazonaws AWS-Java-SDK-STS 1.11.253
com.amazonaws aws-java-sdk-suporte 1.11.253
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.253
com.amazonaws jmespath-java 1.11.253
com.carrotsearch HPPC 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics fluxo 2.7.0
com.databricks Reserva 1.8-3
com.databricks DBML-local_2,11 0.3.0-DB1-Faísca2.3
com.databricks dbml-local_2.11-testes 0.3.0-DB1-Faísca2.3
com.databricks Jatos 3T 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb SCALAPB-runtime_2,11 0.4.15-9
com.esotericsoftware sombreado de kryo 3.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.0.0
com.fasterxml.jackson.core jackson-anotações 2.6.7
com.fasterxml.jackson.core Jackson-Core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-módulo-paranamer 2.6.7
com.fasterxml.jackson.module jackson-módulo-scala_2.11 2.6.7.1
com.github.fommil Jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-Java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib sistema_nativo-Java 1.1
com.github.fommil.netlib native_system-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-nativos 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-nativos 1.1
com.github.luben ZSTD-JNI 1.3.2-2
com.github.rwl Jtransforms 2.4.0
com.google.code.findbugs JSR305 2.0.1
com.google.code.gson Gson 2.2.4
com.google.goiaba Goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2banco de dados h2 1.3.174
com.jamesmurty.utils Java-XmlBuilder 1.1
com.jcraft JSCH 0.1.50
com.jolbox BoneCP 0.8.0.LANÇAMENTO
com.mchange C3P0 0.9.5.1
com.mchange mchange-commons-java 0.2.10
com.microsoft.azure azure-data-lake-store-SDK 2.0.11
com.microsoft.sqlserver MSSQL-JDBC 6.2.2.JRE8
com.ning compressa-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter Chill-java 0.8.4
com.twitter chill_2.11 0.8.4
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocidade analisadores de univocidade 2.5.9
com.vlkan flatbuffers 1.2.0-3F79E055
com.zaxxer HikariCP 2.4.1
commons-beanutils commons-beanutils 1.7.0
commons-beanutils commons-beanutils-core 1.8.0
commons-cli commons-cli 1.2
codec commons codec commons 1.10
Commons Collections Commons Collections 3.2.2
commons-configuração commons-configuração 1.6
commons-dbcp commons-dbcp 1.4
commons-digestor commons-digestor 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-net commons-net 2.2
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.ponte aérea compressor de ar 0.8
io.dropwizard.metrics métricas-base 3.1.5
io.dropwizard.metrics métricas-Ganglia 3.1.5
io.dropwizard.metrics métricas-grafite 3.1.5
io.dropwizard.metrics métricas e verificações de saúde 3.1.5
io.dropwizard.metrics métricas-jetty9 3.1.5
io.dropwizard.metrics métricas-json 3.1.5
io.dropwizard.metrics métricas do JVM 3.1.5
io.dropwizard.metrics métricas-log4j 3.1.5
io.dropwizard.metrics Métricas-Servlets 3.1.5
io.netty biblioteca Netty 3.9.9.Final
io.netty netty-tudo 4.1.17.Final
io.prometeu cliente simples 0.0.16
io.prometeu simpleclient_comum 0.0.16
io.prometeu simpleclient_dropwizard 0.0.16
io.prometeu simpleclient_servlet 0.0.16
io.prometheus.jmx recoletor 0,7
javax.ativação ativação 1.1.1
javax.anotação javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo JDO-API 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp JSP-API 2.1
javax.transaction JTA 1.1
javax.validação API de validação 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind JAXB-API 2.2.2
javax.xml.stream Stax-API 1.0-2
Javolution Javolution 5.5.1
Jline Jline 2.11
Joda-Time Joda-Time 2.9.3
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hidromática eigenbase-propriedades 1.1.5
net.iharder base64 2.3.8
net.java.dev.jets3t Jatos 3T 0.9.4
net.razorvine pirolite 4.13
net.sf.jpam JPAM 1.1
net.sf.opencsv OpenCSV 2.3
net.sf.supercsv Super-CSV 2.2.0
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt ONCRPC 1.0.7
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.4
org.antlr antlr4-tempo de execução 4.7
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ANT-JSCH 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de seta 0.8.0
org.apache.arrow seta-memória 0.8.0
org.apache.arrow vetor de seta 0.8.0
org.apache.avro Avro 1.7.7
org.apache.avro AVRO-IPC 1.7.7
org.apache.avro avro-ipc-tests (testes de IPC do Avro) 1.7.7
org.apache.avro avro-mapred-hadoop2 1.7.7
org.apache.calcite calcita-avatica 1.2.0 incubação
org.apache.calcite núcleo de calcita 1.2.0 incubação
org.apache.calcite calcita-linq4j 1.2.0 incubação
org.apache.commons commons-comprimir 1.4.1
org.apache.commons commons-cripto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-matemática3 3.4.1
org.apache.curador curador-cliente 2.7.1
org.apache.curador curador-framework 2.7.1
org.apache.curador curador-de-receitas 2.7.1
org.apache.derby Dérbi 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api API-Util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations (anotações do hadoop) 2.7.3
org.apache.hadoop autenticação do Hadoop 2.7.3
org.apache.hadoop Cliente Hadoop 2.7.3
org.apache.hadoop hadoop-comum 2.7.3
org.apache.hadoop Hadoop-HDFS 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-cliente-core 2.7.3
org.apache.hadoop Cliente de Trabalho Hadoop MapReduce 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-cliente 2.7.3
org.apache.hadoop hadoop-yarn-comum 2.7.3
org.apache.hadoop hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) 2.7.3
org.apache.htrace htrace-núcleo 3.1.0 incubação
org.apache.httpcomponents httpclient 4.5.4
org.apache.httpcomponents Núcleo Http 4.4.8
org.apache.ivy hera 2.4.0
org.apache.orc orc-core-nohive 1.4.1
org.apache.orc orc-mapreduce-nohive 1.4.1
org.apache.parquet parquet-coluna 1.8.2-DATABRICKS1
org.apache.parquet parquet-comum 1.8.2-DATABRICKS1
org.apache.parquet codificação-parquet 1.8.2-DATABRICKS1
org.apache.parquet formato parquet 2.3.1
org.apache.parquet Parquet-Hadoop 1.8.2-DATABRICKS1
org.apache.parquet Parquet-Jackson 1.8.2-DATABRICKS1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm5-sombreado 4.4
org.apache.zookeeper tratador de animais 3.4.6
org.bouncycastle bcprov-jdk15on 1.58
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson Jackson-Jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.jackson Jackson-XC 1.9.13
org.codehaus.janino compilador comum 3.0.8
org.codehaus.janino Janino 3.0.8
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus DataNucleus Core 3.2.10
org.datanucleus Datanucleus-RDBMS 3.2.9
org.eclipse.píer Jetty-Cliente 9.3.20.v20170531
org.eclipse.píer jetty-continuation (componente de software do Jetty) 9.3.20.v20170531
org.eclipse.píer Jetty-HTTP 9.3.20.v20170531
org.eclipse.píer Molhe IO 9.3.20.v20170531
org.eclipse.píer Cais-JNDI 9.3.20.v20170531
org.eclipse.píer Cais-Plus 9.3.20.v20170531
org.eclipse.píer Jetty-Proxy 9.3.20.v20170531
org.eclipse.píer Segurança do Jetty 9.3.20.v20170531
org.eclipse.píer servidor jetty 9.3.20.v20170531
org.eclipse.píer Jetty-servlet 9.3.20.v20170531
org.eclipse.píer Jetty-servlets 9.3.20.v20170531
org.eclipse.píer Jetty-util 9.3.20.v20170531
org.eclipse.píer Aplicação web Jetty 9.3.20.v20170531
org.eclipse.píer Jetty-XML 9.3.20.v20170531
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 HK2-API 2.4.0-B34
org.glassfish.hk2 localizador hk2 2.4.0-B34
org.glassfish.hk2 HK2-Utils 2.4.0-B34
org.glassfish.hk2 localizador de recursos OSGi 1.0.1
org.glassfish.hk2.externo aopalliance-reembalado 2.4.0-B34
org.glassfish.hk2.externo javax.injet 2.4.0-B34
org.glassfish.jersey.bundles.reembalado Jersey-Goiaba 2.22.2
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-cliente 2.22.2
org.glassfish.jersey.core Jersey comum 2.22.2
org.glassfish.jersey.core servidor de jersey 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hibernate hibernate-validator (ferramenta de validação de dados de Java) 5.1.1.Final
org.iq80.snappy rápido 0.2
org.javassist Javassist 3.18.1-GA
org.jboss.logging jboss-registro em log 3.1.3.GA
org.jdbi JDBI 2.63.1
org.joda joda-converter 1.7
org.jodd JODD-CORE 3.5.2
org.json4s JSON4S-ast_2.11 3.2.11
org.json4s JSON4S-core_2.11 3.2.11
org.json4s JSON4S-jackson_2.11 3.2.11
org.lz4 LZ4-Java 1.4.0
org.mariadb.jdbc mariadb-java-cliente 2.1.2
org.mockito mockito-tudo 1.9.5
org.objenesis objenese 2.1
org.postgresql PostgreSQL 42.1.4
org.roaringbitmap RoaringBitmap 0.5.11
org.rocksdb rocksdbjni 5.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2,11 2.11.8
org.scala-lang Escala-library_2,11 2.11.8
org.scala-lang Escala-reflect_2,11 2.11.8
org.scala-lang scalap_2.11 2.11.8
org.scala-lang.modules scala-parser-combinators_2,11 1.0.2
org.scala-lang.modules Escala-xml_2.11 1.0.5
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalanlp Brisa-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 2.2.6
org.slf4j jcl-compatível-com-slf4j 1.7.16
org.slf4j jul-para-slf4j 1.7.16
org.slf4j SLF4J-API 1.7.16
org.slf4j SLF4J-Log4J12 1.7.16
org.spark-project.hive colmeia-abelha 1.2.1.faísca2
org.spark-project.hive Hive-CLI 1.2.1.faísca2
org.spark-project.hive hive-exec 1.2.1.faísca2
org.spark-project.hive Hive-JDBC 1.2.1.faísca2
org.spark-project.hive sistema de metadados do Hive 1.2.1.faísca2
org.spark-project.spark não utilizado 1.0.0
org.spire-matemática torre-macros_2.11 0.13.0
org.spire-matemática spire_2.11 0.13.0
org.springframework spring-core (núcleo do Spring) 4.1.4.VERSÃO
org.springframework teste de primavera 4.1.4.VERSÃO
org.tukaani XZ 1.0
org.typelevel mecânico_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial SQLITE-JDBC 3.8.11.2
org.xerial.snappy Snappy-java 1.1.2.6
org.yaml Snakeyaml 1.16
ouro ouro 2.0.8
software.amazon.ion íon-java 1.0.2
Stax Stax-API 1.0.1
XMLENC XMLENC 0.52