Partilhar via


Databricks Runtime 4.3 (EoS)

Nota

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.

A Databricks lançou esta versão em agosto de 2018.

Importante

Esta versão foi preterida em 9 de abril de 2019. Para obter mais informações sobre a política e o cronograma de substituição do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 4.3, desenvolvido pelo Apache Spark.

Novas funcionalidades

  • Lago Delta
    • TRUNCATE TABLE command: exclua todas as linhas de uma tabela. Ao contrário de sua contraparte para tabelas Spark, as tabelas Delta não suportam a exclusão de partições específicas.
    • ALTER TABLE REPLACE COLUMNS command: Substitua colunas em uma tabela Delta. Ele suporta alterar o comentário de uma coluna e reordenar várias colunas.
    • FSCK REPAIR TABLE comando: remova as entradas de ficheiro do log de transações de uma tabela Delta que não podem mais ser encontradas no sistema de ficheiros subjacente. Isso pode acontecer quando esses arquivos foram excluídos manualmente.
    • Suporte para consultas em tabelas Delta obsoletas para melhorar a experiência de consulta interativa: as consultas em tabelas Delta agora podem ser executadas em uma versão obsoleta da tabela quando resultados atualizados não são necessários. Esse recurso reduz a latência das consultas, especialmente quando as tabelas Delta subjacentes são atualizadas continuamente por meio de fluxos.
  • Streaming estruturado
    • Suporte de gravação de streaming escalável para o Azure Synapse Analytics Connector.
    • Suporte para foreachBatch() em Python (já disponível em Scala). Consulte a documentação de foreach e foreachBatch para obter mais detalhes.
    • Suporte para escolher a marca d'água mínima ou máxima quando há vários fluxos de entrada numa consulta. Anteriormente, usava-se sempre o carimbo de data/hora mínimo. Consulte a política de marcas de água múltiplas para obter mais detalhes.
    • O suporte para o operador LIMIT para fluxos nos modos de saída Append e Complete. Para minimizar erros OOM no driver, LIMIT é aplicado automaticamente quando você usa display() em fluxos não limitados.

Melhorias

  • Lago Delta

    • Visualização privada da nova implementação escalável do comando MERGE INTO que não tem o limite de inserção de 10000 linhas. Entre em contato com o suporte se quiser experimentar isso.
    • Melhor desempenho e escalabilidade do OPTIMIZE comando, especialmente em clusters maiores.
    • O comando OPTIMIZE agora se confirma na tabela incrementalmente, o que significa que, se o comando falhar, uma nova tentativa não precisará processar todo o conjunto de dados.
    • Reduziu o número de RPCs do sistema de arquivos necessárias para descobrir novos dados quando se usa o Delta Lake como fonte de streaming.
    • Adicionado suporte para df.writeStream.table(table-name) em Python para criar uma tabela Delta a partir de um fluxo.
  • Desempenho melhorado para consultas com várias junções, agregações ou janelas.

  • Melhor eficiência na eliminação ao nível da partição em consultas com associações hash de difusão.

  • Melhorias na geração de código de estágio inteiro para detetar expressões duplicadas, reduzir a quantidade de código gerado e melhorar o desempenho para determinados tipos de expressão.

  • Clusters de alta simultaneidade agora permitem a execução de %fs em notebooks.

  • Foi atualizado para 0.10.7 o Py4J usado pelo PySpark.

  • Melhor desempenho do cache de disco nas instâncias da série Ls do Azure. O cache agora está habilitado por padrão nessas instâncias, acelerando cargas de trabalho que lêem repetidamente arquivos do Parquet.

Funcionalidades descontinuadas

  • Data Skipping fora do Databricks Delta foi descontinuado. Uma versão aprimorada do esquema de omissão de dados continuará disponível como parte do Delta Lake. Recomendamos que você mude para usar o Delta Lake para continuar a aproveitar esse recurso. Consulte Databricks Delta Data Skipping para obter detalhes.

Correções de erros

  • Foi corrigida a instrução de pushdown MERGE INTO de predicado incorreta para Delta quando a condição ON continha predicados que referenciavam apenas a tabela de destino.
  • Corrigido bug em mapGroupsWithState e flatMapGroupsWithState que impedia a definição de timeouts quando o estado foi removido (SPARK-22187).
  • Corrigido o bug que impedia a marca d'água de funcionar corretamente com Trigger.Once (SPARK-24699).
  • O comando Update agora valida as colunas na cláusula SET para garantir que todas as colunas realmente existam e nenhuma coluna seja definida mais de uma vez.
  • Corrigida uma condição de corrida potencial que poderia causar bloqueios para confirmação de diretório.
  • Corrigido um bug que fazia com que uma versão preterida do cliente DBFS fosse usada ao atualizar montagens.

Problemas conhecidos

  • As opções de configuração do Delta Lake para uma tabela entram em vigor somente no primeiro bloco de anotações que carrega a tabela.

Apache Spark

O Databricks Runtime 4.3 inclui o Apache Spark 2.3.1. Esta versão inclui todas as correções e melhorias incluídas no Databricks Runtime 4.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [SPARK-24934][SQL] Permitir explicitamente tipos suportados nos limites superiores/inferiores para otimização de partições na memória
    • Quando tipos de dados complexos são usados em filtros de consulta em dados armazenados em cache, o Spark sempre retorna um conjunto de resultados vazio. A poda baseada em estatísticas na memória gera resultados incorretos, porque o valor null é atribuído aos limites superior/inferior para tipos complexos. A correção é não usar a remoção baseada em estatísticas na memória para tipos complexos.
  • [SPARK-24957][SQL] Média de valores decimais seguida por agregação retorna resultado incorreto
    • Os resultados incorretos de AVERAGE podem ser retornados. O CAST adicionado no operador Average será ignorado se o resultado de Divide for do mesmo tipo para o qual foi convertido.
  • [SPARK-24867][SQL] Adicionar AnalysisBarrier ao DataFrameWriter
    • O cache SQL não está sendo usado ao usar DataFrameWriter para gravar um DataFrame com UDF. Esta é uma regressão causada pelas alterações que fizemos no AnalysisBarrier, uma vez que nem todas as regras do Analyzer são idempotentes.
  • [SPARK-24790][SQL] Permitir expressões agregadas complexas no Pivot
    • Relaxe a verificação para permitir expressões agregadas complexas, como ceil(sum(col1)) ou sum(col1) + 1, o que significa, de forma aproximada, qualquer expressão agregada que possa surgir num plano de Agregação, exceto pandas UDF.
  • [SPARK-24870][SQL] O cache não pode funcionar normalmente se houver letras maiúsculas e minúsculas no SQL
    • Corrige um problema de canonicalização do plano.
  • [SPARK-24852]Fazer com que o treinamento do spark.ml use as APIs de Instrumentação atualizadas.
  • [SPARK-24891][SQL] Corrigir regra HandleNullInputsForUDF
    • Torne a regra HandleNullInputsForUDF idempotente, para evitar incompatibilidade de planos no gerenciador de cache quando um plano é analisado mais de uma vez.
  • [SPARK-24878][SQL] Corrige a função inversa para o tipo de matriz primitiva que contém null.
  • [SPARK-24871][SQL] Refatore Concat e MapConcat para evitar a criação de objeto concatenador para cada linha.
  • [SPARK-24802][SQL] Adicionar uma nova configuração para Exclusão de Regra de Otimização
    • Fornece uma configuração aos usuários para excluir algumas regras do otimizador.
  • [SPARK-24879][SQL] Corrigir o NPE no pushdown do filtro de poda de partições do Hive
    • Quando o predicado da partição é algo como col IN (1, null), será gerado um NPE. Este patch corrige-o.
  • [SPARK-23731][SQL] Tornar o FileSourceScanExec passível de canonização depois de estar (des)serializado
  • [SPARK-24755][CORE] A perda do executor pode fazer com que a tarefa não seja reenviada
    • Corrige um bug que o Spark pode não reenviar tarefas falhadas por perda do executor. Este bug foi introduzido no Spark 2.3.
  • [SPARK-24677][CORE] Evitar NoSuchElementException do MedianHeap
    • Corrige um bug relacionado a tarefas especulativas ao coletar métricas de duração da tarefa.
  • [SPARK-24868][PYTHON] adicionar função de sequência em Python
  • [SPARK-21811][SPARK-24012][SPARK-24737][SPARK-24165][SPARK-24734][SPARK-24840][SQL] Corrigir coerções de tipo e anulabilidades.
  • [SPARK-24699][SS] Faça com que as marcas d'água funcionem com o Trigger.Once, salvando a marca d'água atualizada no registo de confirmação
  • [SPARK-24537][R] Adicionar array_remove / array_zip / map_from_arrays / array_distinct
  • [SPARK-22187][SS] Atualização do formato unsaferow para o estado salvo em flatMapGroupsWithState para permitir tempos limite quando o estado é eliminado (4.x)
  • [SPARK-24681][SQL] Verificar nomes de colunas aninhadas no metastore do Hive
    • Certifique-se de que os nomes das colunas aninhadas não contenham ',', ':' ou ';' no metastore do Hive.
  • [SPARK-23486] armazenar em cache o nome da função do catálogo externo para lookupFunctions
    • Para acelerar as pesquisas de funções.
  • [SPARK-24781][SQL] Usar uma referência do Dataset em Filtro/Ordenar pode não funcionar
  • [SPARK-24208][SQL] Corrigir a desduplicação de atributos para FlatMapGroupsInPandas
    • Corrigir falha de associação automática em um conjunto de dados que contém um FlatMapGroupsInPandas devido a atributos duplicados
  • [FAÍSCA-24530][PYTHON] Adicione um controle para forçar a versão Python na Sphinx via variável de ambiente, SPHINXPYTHON
  • [SPARK-24250] suporte ao acesso do SQLConf dentro de tarefas
    • Salve todas as configurações SQL nas propriedades do trabalho quando uma execução SQL for acionada. No lado do executor, reconstruímos o SQLConf a partir das propriedades do trabalho.
  • [SPARK-23936][SQL] Implementar map_concat
  • [SPARK-23914][SQL] Adicionar função array_union
  • [SPARK-24732][SQL] Coerção de tipo entre MapTypes.
    • Adiciona suporte para coerção de tipo entre MapTypes onde os tipos de chave e os tipos de valor são compatíveis. Por exemplo, os tipos MapType(IntegerType, FloatType) e MapType(LongType, DoubleType) podem ser coagidos a digitar MapType(LongType, DoubleType)
  • [SPARK-24662][SQL][SS] Suporte a limite em streaming estruturado
  • [SPARK-24730][SS] Adicionar política para escolher o máximo como marco de água global quando a consulta de streaming tiver múltiplos marcos de água (branch-4.x)
  • [SPARK-24596][SQL] Invalidação de Cache sem Cascata
    • Ao desarmazenar em cache ou soltar a visualização temporária, é desnecessário desarmazenar em cascata todos os planos que dependem da exibição, pois os dados subjacentes não são alterados.
  • [SPARK-23927][SQL] Adicionar expressão "sequência"
  • [SPARK-24636][SQL] Coerção de tipos de vetores para a função array_join
  • [SPARK-22384][SQL] Refinar a poda de partições quando o atributo está encapsulado em Cast
    • Melhore a poda de partição, capaz de empurrar predicados de partição para baixo com elenco de tipo seguro (int para longo, não longo para int).
  • [SPARK-24385][SQL] Resolver a ambiguidade da condição de auto-junção para EqualNullSafe
    • Implementa EqualNullSafe para resolver a ambiguidade da condição de auto junção.
  • [SPARK-24696][SQL] A regra ColumnPruning não consegue remover o Project extra
    • Corrige um erro na regra ColumnPruning que causava um erro de loop infinito no Otimizador.
  • [SPARK-24603][SQL] Corrigir referência findTightestCommonType nos comentários
  • [SPARK-24613][SQL] O cache com UDF não pôde ser correspondido com caches subsequentes dependentes
    • Encapsula o plano lógico com um AnalysisBarrier para compilação do plano de execução no CacheManager, a fim de evitar que o plano seja analisado novamente. Esta é também uma regressão do Spark 2.3.
  • [SPARK-24017][SQL] Refatorar ExternalCatalog para ser uma interface
  • [FAÍSCA-24324][PYTHON] pandas Mapa Agrupado UDF deve atribuir colunas de resultado por nome
    • Atribui colunas de resultado por nome de esquema se o utilizador estiver rotulado com cadeias de caracteres, caso contrário, por posição.
  • [SPARK-23778][CORE] Evite redistribuição desnecessária quando união tem um RDD vazio
    • Ignora RDDs vazios de entrada no método union para evitar um embaralhamento adicional desnecessário quando todos os outros RDDs têm o mesmo particionamento.
  • [FAÍSCA-24552][CORE][SQL] Utilizar identificador único em vez de número de tentativa para gravações.
    • Passa o ID exclusivo da tentativa de tarefa em vez do número de tentativas para fontes de dados v2, porque o número de tentativas é reutilizado quando os estágios são tentados novamente. Isto afeta as APIs da fonte de dados V1 e V2, mas as APIs de formato de ficheiro não serão afetadas porque o Databricks usa um protocolo de commit diferente.
  • [SPARK-24588][SS] a junção de streaming deve exigir HashClusteredPartitioning dos filhos.
  • [SPARK-24589][CORE] Identificar corretamente as tarefas no coordenador de confirmação de saída.
    • Adiciona mais informações ao estado do estágio controlado pelo coordenador, para que apenas uma tarefa tenha permissão para confirmar a saída. Essa correção também remove as alterações de código inúteis introduzidas pelo SPARK-18113.
  • [SPARK-23933][SQL] Adicionar função map_from_arrays
  • [SPARK-24583][SQL] Tipo de esquema errado em InsertIntoDataSourceCommand
    • Ao criar uma tabela Delta com restrições NOT NULL, podemos descartar a anulabilidade e inserir os valores NULL sem verificar a violação.
  • [FAÍSCA-24542][SQL] A série UDF UDFXPathXXXX permite que os utilizadores passem XML cuidadosamente elaborados para acessar arquivos arbitrários
    • Este é um patch de segurança relatado pela comunidade. A série UDF UDFXPathXXXX permite que os usuários passem XML cuidadosamente criados para acessar arquivos arbitrários. Quando os usuários usam a biblioteca de controle de acesso externo, os usuários podem ignorá-los e acessar o conteúdo do arquivo.
  • [SPARK-23934][SQL] Adicionando a função map_from_entries
  • [SPARK-23912][SQL] Adicionar array_distinct
  • [FAÍSCA-24574][SQL] As funções array_contains, array_position, array_remove e element_at lidam com o tipo de coluna

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 4.3.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 16.04.4 LTS
  • Java: 1.8.0_162
  • Escala: 2.11.8
  • Python: 2.7.12 para clusters Python 2 e 3.5.2 para clusters Python 3.
  • R: R versão 3.4.4 (2018-03-15)
  • Clusters de GPU: As seguintes bibliotecas de GPU NVIDIA estão instaladas.
    • Piloto da Tesla 375.66
    • CUDA 9,0
    • cuDNN 7,0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
ansi2html 1.1.1 Argparse 1.2.1 backports-abc 0,5
botão 2.42.0 Boto3 1.4.1 Botocore 1.4.70
cervejeiro2mpl 1.4.1 certifi 2016.2.28 CFFI 1.7.0
Chardet 2.3.0 Colorama 0.3.7 configobj 5.0.6
criptografia 1.5 ciclador 0.10.0 Cython 0.24.1
decorador 4.0.10 Docutils 0.14 ENUM34 1.1.6
et-xmlfile 1.0.1 freetype-py 1.0.2 funcsigs 1.0.2
fusepy 2.0.4 futuros 3.2.0 Ggplot 0.6.8
html5lib 0.999 IDNA 2.1 endereço IP 1.0.16
IPython 2.2.0 ipython-genutils 0.1.0 JDCAL 1.2
Jinja2 2.8 JmesPath 0.9.0 LLVMLITE 0.13.0
LXML 3.6.4 Marcação Segura 0.23 Matplotlib 1.5.3
MPLD3 0.2 msgpack-python 0.4.7 ndg-httpsclient 0.3.3
Dormência 0.28.1 dormência 1.11.1 openpyxl (biblioteca para manipular ficheiros Excel em Python) 2.3.2
pandas 0.19.2 Pathlib2 2.1.0 bode expiatório 0.4.1
Espere 4.0.1 pickleshare 0.7.4 Almofada 3.3.1
pip (o gestor de pacotes do Python) 10.0.1 camada 3.9 kit de ferramentas de prompt 1.0.7
PSYCOPG2 2.6.2 ptyprocess 0.5.1 py4j 0.10.3
Pyarrow 0.8.0 Piasn1 0.1.9 Pycparser 2.14
Pigmentos 2.1.3 PyGObject 3.20.0 pyOpenSSL 16.0.0
Pyparsing 2.2.0 PYPNG 0.0.18 Python 2.7.12
python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.5.3 Python-Geohash 0.8.5 Pytz 01/06/2016
pedidos 2.11.1 s3transferência 0.1.9 scikit-learn (biblioteca de aprendizado de máquina em Python) 0.18.1
SciPy 0.18.1 esfregar 0.32 nascido no mar 0.7.1
Ferramentas de configuração 39.2.0 simplejson 3.8.2 simples3 1.0
despacho único 3.4.0.3 seis 1.10.0 statsmodels (uma biblioteca de Python para modelos estatísticos) 0.6.1
tornado 5.0.2 traços 4.3.0 urllib3 1.19.1
virtualenv 15.0.1 wcwidth 0.1.7 wheel 0.31.1
WSGIREF 0.1.2

Bibliotecas R instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Abind 1.4-5 assegurar 0.2.0 retroportes 1.1.2
base 3.4.4 Belo Horizonte 1.66.0-1 Bindr 0.1.1
Bindrcpp 0.2.2 pouco 1.1-12 bit64 0.9-7
Bitops 1.0-6 blob 1.1.1 arranque 1.3-20
preparar 1.0-6 vassoura 0.4.4 carro 3.0-0
dadosDoCarro 3.0-1 cursor de texto 6.0-79 CellRanger 1.1.0
crono 2.3-52 classe 7.3-14 CLI 1.0.0
cluster 2.0.7-1 CodeTools 0.2-15 espaço em cores 1.3-2
marca comum 1.4 compilador 3.4.4 lápis de cor 1.3.4
encaracolar 3.2 Trombose do Seio Venoso Cerebral (CVST) 0.2-1 tabela de dados 1.10.4-3
conjuntos de dados 3.4.4 DBI 0.8 DDALPHA 1.3.1.1
DEoptimR 1.0-8 descrição 1.1.1 DevTools 1.13.5
dicromata 2.0-0 resumo 0.6.15 Vermelho escuro 0.1.0
doMC 1.3.5 DPLYR 0.7.4 Redução do Risco de Desastres (RRD) 0.0.3
forçados 0.3.0 para cada 1.4.4 estrangeiro/a 0.8-70
GBM 2.1.3 GGPLOT2 2.2.1 Git2R 0.21.0
GLMNET 2.0-16 cola 1.2.0 Gower 0.1.2
gráficos 3.4.4 grDispositivos 3.4.4 grelha 3.4.4
GSUBFN 0,7 tabela g 0.2.0 H2O 3.16.0.2
Refúgio 1.1.1 HMS 0.4.2 HTTR 1.3.1
Hwriter 1.3.2 hwriterPlus 1.0-3 ipred 0.9-6
iteradores 1.0.9 jsonlite 1.5 Kernlab 0.9-25
KernSmooth 2.23-15 etiquetagem 0,3 grelha 0.20-35
lave 1.6.1 preguiça 0.2.1 menor 0.3.3
LME4 1.1-17 lubridato 1.7.3 Magrittr 1.5
Mapproj 1.2.6 mapas 3.3.0 Ferramentas de mapa 0.9-2
MASSA 7.3-50 Matriz 1.2-14 Modelos de Matriz 0.4-1
memorizar 1.1.0 métodos 3.4.4 MGCV 1.8-24
mímica 0,5 Minqa 1.2.4 Mnormt 1.5-5
ModelMetrics 1.1.0 Munsell 0.4.3 MVTnorm 1.0-7
NLME 3.1-137 NLOPTR 1.0.4 NNET 7.3-12
numDeriv 2016.8-1 openssl (conjunto de ferramentas para criptografia) 1.0.1 OpenXLSX 4.0.17
paralelo 3.4.4 pbkrtest 0.4-7 pilar 1.2.1
pkgconfig 2.0.1 pkgGatinho 0.1.4 plogr 0.2.0
Plyr 1.8.4 elogiar 1.0.0 unidades elegantes 1.0.2
pROC 1.11.0 Prodlim 1.6.1 prototipo 1.0.0
psique 1.8.3.3 ronronar 0.2.4 Quantreg 5,35
R.métodosS3 1.7.1 R.oo 1.21.0 R.utils 2.6.0
R6 2.2.2 Floresta Aleatória 4.6-14 RColorBrewer 1.1-2
Rcpp 0.12.16 RcppEigen 0.3.3.4.0 RcppRoll 0.2.2
RCurl 1.95-4.10 Leitor 1.1.1 ReadXL 1.0.0
receitas 0.1.2 revanche 1.0.1 remodelar2 1.4.3
Rio 0.5.10 Rlang 0.2.0 base robusta 0.92-8
RODBC 1.3-15 oxigénio2 6.0.1 rpart (função de partição recursiva em R) 4.1-13
rprojroot 1.3-2 Reserva 1.7-3 RSQLite 2.1.0
rstudioapi 0,7 escalas 0.5.0 sfsmisc 1.1-2
SP 1.2-7 Faísca 2.3.1 SparseM 1.77
espacial 7.3-11 estrias 3.4.4 sqldf 0.4-11
QUADRADO 2017.10-1 Statmod 1.4.30 estatísticas 3.4.4
estatísticas4 3.4.4 string 1.1.7 stringr 1.3.0
sobrevivência 2.42-3 tcltk (uma linguagem de programação) 3.4.4 Demonstrações de Ensino 2.10
teste que 2.0.0 Tibble 1.4.2 Tidyr 0.8.0
arrumadoselecionar 0.2.4 tempoData 3043.102 ferramentas 3.4.4
UTF8 1.1.3 utilitários 3.4.4 viridisLite 0.3.0
vibrissas 0.3-2 N/A (awaiting context clarification or correction for "withr") 2.1.2 XML2 1.2.0

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)

ID do Grupo ID do Artefacto Versão
Antlr Antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.7.3
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.11.313
com.amazonaws AWS-Java-SDK-CloudFormation 1.11.313
com.amazonaws aws-java-sdk-cloudfront 1.11.313
com.amazonaws aws-java-sdk-cloudhsm 1.11.313
com.amazonaws AWS Java SDK para CloudSearch 1.11.313
com.amazonaws aws-java-sdk-cloudtrail 1.11.313
com.amazonaws aws-java-sdk-cloudwatch 1.11.313
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.313
com.amazonaws aws-java-sdk-codedeploy 1.11.313
com.amazonaws aws-java-sdk-cognitoidentity 1.11.313
com.amazonaws aws-java-sdk-cognitosync 1.11.313
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.11.313
com.amazonaws aws-java-sdk-core 1.11.313
com.amazonaws aws-java-sdk-datapipeline 1.11.313
com.amazonaws aws-java-sdk-directconnect 1.11.313
com.amazonaws aws-java-sdk-diretório 1.11.313
com.amazonaws aws-java-sdk-dynamodb 1.11.313
com.amazonaws aws-java-sdk-ec2 1.11.313
com.amazonaws aws-java-sdk-ecs 1.11.313
com.amazonaws aws-java-sdk-efs 1.11.313
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.11.313
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.11.313
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.11.313
com.amazonaws aws-java-sdk-elastictranscoder 1.11.313
com.amazonaws aws-java-sdk-emr 1.11.313
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.11.313
com.amazonaws aws-java-sdk-iam 1.11.313
com.amazonaws aws-java-sdk-importexport 1.11.313
com.amazonaws aws-java-sdk-kinesis 1.11.313
com.amazonaws aws-java-sdk-kms 1.11.313
com.amazonaws aws-java-sdk-lambda 1.11.313
com.amazonaws aws-java-sdk-logs 1.11.313
com.amazonaws aws-java-sdk-machinelearning (SDK de Aprendizagem Automática para Java da AWS) 1.11.313
com.amazonaws aws-java-sdk-opsworks 1.11.313
com.amazonaws aws-java-sdk-rds 1.11.313
com.amazonaws aws-java-sdk-redshift 1.11.313
com.amazonaws aws-java-sdk-rota53 1.11.313
com.amazonaws aws-java-sdk-s3 1.11.313
com.amazonaws AWS Java SDK para SES 1.11.313
com.amazonaws aws-java-sdk-simpledb 1.11.313
com.amazonaws aws-java-sdk-simpleworkflow 1.11.313
com.amazonaws aws-java-sdk-sns 1.11.313
com.amazonaws aws-java-sdk-sqs 1.11.313
com.amazonaws aws-java-sdk-ssm 1.11.313
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.11.313
com.amazonaws AWS-Java-SDK-STS 1.11.313
com.amazonaws aws-java-sdk-suporte 1.11.313
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.313
com.amazonaws jmespath-java 1.11.313
com.carrotsearch HPPC 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics fluxo 2.7.0
com.databricks Reserva 1.8-3
com.databricks DBML-local_2,11 0.4.1-db1-faísca2.3
com.databricks dbml-local_2.11-testes 0.4.1-db1-faísca2.3
com.databricks Jatos 3T 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb SCALAPB-runtime_2,11 0.4.15-9
com.esotericsoftware sombreado de kryo 3.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.0.0
com.fasterxml.jackson.core Jackson-Annotations 2.6.7
com.fasterxml.jackson.core Jackson-Core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-módulo-paranamer 2.6.7
com.fasterxml.jackson.module jackson-módulo-scala_2.11 2.6.7.1
com.github.fommil Jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-Java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib sistema_nativo-Java 1.1
com.github.fommil.netlib sistema_nativo-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-nativos 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-nativos 1.1
com.github.luben ZSTD-JNI 1.3.2-2
com.github.rwl Jtransforms 2.4.0
com.google.code.findbugs JSR305 2.0.1
com.google.code.gson Gson 2.2.4
com.google.goiaba Goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2banco de dados h2 1.3.174
com.jamesmurty.utils Java-XmlBuilder 1.1
com.jcraft JSCH 0.1.50
com.jolbox BoneCP 0.8.0.LANÇAMENTO
com.mchange C3P0 0.9.5.1
com.mchange mchange-commons-java 0.2.10
com.microsoft.azure azure-data-lake-store-sdk (biblioteca de desenvolvimento do Azure Data Lake Store) 2.2.8
com.microsoft.sqlserver MSSQL-JDBC 6.2.2.JRE8
com.ning compressa-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter Chill-java 0.8.4
com.twitter chill_2.11 0.8.4
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocidade Estudos de analisadores de univocidade 2.5.9
com.vlkan flatbuffers 1.2.0-3F79E055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.7.0
commons-beanutils commons-beanutils-core 1.8.0
commons-cli commons-cli 1.2
codec commons codec commons 1.10
Commons Collections Commons Collections 3.2.2
commons-configuração commons-configuração 1.6
commons-dbcp commons-dbcp 1.4
commons-digestor commons-digestor 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-net commons-net 2.2
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.ponte aérea compressor de ar 0.8
io.dropwizard.metrics métricas-base 3.1.5
io.dropwizard.metrics métricas-Ganglia 3.1.5
io.dropwizard.metrics métricas-grafite 3.1.5
io.dropwizard.metrics métricas-verificações de saúde 3.1.5
io.dropwizard.metrics métricas-jetty9 3.1.5
io.dropwizard.metrics métricas-json 3.1.5
io.dropwizard.metrics métricas do JVM 3.1.5
io.dropwizard.metrics métricas-log4j 3.1.5
io.dropwizard.metrics Métricas-Servlets 3.1.5
io.netty biblioteca Netty 3.9.9.Final
io.netty netty-tudo 4.1.17.Final
io.prometeu cliente simples 0.0.16
io.prometeu simpleclient_comum 0.0.16
io.prometeu simpleclient_dropwizard 0.0.16
io.prometeu simpleclient_servlet 0.0.16
io.prometheus.jmx recoletor 0,7
javax.ativação ativação 1.1.1
javax.anotação javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo JDO-API 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp JSP-API 2.1
javax.transaction JTA 1.1
javax.validação validação-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind JAXB-API 2.2.2
javax.xml.stream Stax-API 1.0-2
Javolution Javolution 5.5.1
Jline Jline 2.11
Joda-Time Joda-Time 2.9.3
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hidromática eigenbase-propriedades 1.1.5
net.iharder base64 2.3.8
net.java.dev.jets3t Jatos 3T 0.9.4
net.razorvine pirolite 4.13
net.sf.jpam JPAM 1.1
net.sf.opencsv OpenCSV 2.3
net.sf.supercsv Super-CSV 2.2.0
net.floco de neve Flocos de Neve-JDBC 3.6.3
net.floco de neve faísca-snowflake_2.11 2.4.1
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt ONCRPC 1.0.7
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.4
org.antlr antlr4-tempo de execução 4.7
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ANT-JSCH 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de seta 0.8.0
org.apache.arrow seta-memória 0.8.0
org.apache.arrow vetor de seta 0.8.0
org.apache.avro Avro 1.7.7
org.apache.avro AVRO-IPC 1.7.7
org.apache.avro Conjunto de testes avro-ipc 1.7.7
org.apache.avro avro-mapred-hadoop2 1.7.7
org.apache.calcite calcita-avatica 1.2.0 em incubação
org.apache.calcite núcleo-calcita 1.2.0 em incubação
org.apache.calcite calcita-linq4j 1.2.0 em incubação
org.apache.commons commons-comprimir 1.4.1
org.apache.commons commons-cripto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-matemática3 3.4.1
org.apache.curador curador-cliente 2.7.1
org.apache.curador curador-framework 2.7.1
org.apache.curador curador-receitas 2.7.1
org.apache.derby Dérbi 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api API-Util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-anotações 2.7.3
org.apache.hadoop autenticação do Hadoop 2.7.3
org.apache.hadoop Cliente Hadoop 2.7.3
org.apache.hadoop hadoop-comum 2.7.3
org.apache.hadoop Hadoop-HDFS 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-cliente-core 2.7.3
org.apache.hadoop Cliente de Trabalho Hadoop MapReduce 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-cliente 2.7.3
org.apache.hadoop hadoop-yarn-comum 2.7.3
org.apache.hadoop hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) 2.7.3
org.apache.htrace htrace-núcleo 3.1.0-Incubação
org.apache.httpcomponents httpclient 4.5.4
org.apache.httpcomponents Núcleo Http 4.4.8
org.apache.ivy hera 2.4.0
org.apache.orc orc-core-nohive 1.4.3
org.apache.orc orc-mapreduce-nohive 1.4.3
org.apache.parquet coluna de parquet 1.8.3-DATABRICKS2
org.apache.parquet parquet-comum 1.8.3-DATABRICKS2
org.apache.parquet codificação-parquet 1.8.3-DATABRICKS2
org.apache.parquet formato parquet 2.3.1
org.apache.parquet Parquet-Hadoop 1.8.3-DATABRICKS2
org.apache.parquet Parquet-Jackson 1.8.3-DATABRICKS2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm5-sombreado 4.4
org.apache.zookeeper cuidador de zoológico 3.4.6
org.bouncycastle bcprov-jdk15on 1.58
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson Jackson-Jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.jackson Jackson-XC 1.9.13
org.codehaus.janino compilador comum 3.0.8
org.codehaus.janino Janino 3.0.8
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus DataNucleus Core 3.2.10
org.datanucleus Datanucleus-RDBMS 3.2.9
org.eclipse.píer Jetty-Cliente 9.3.20.v20170531
org.eclipse.píer jetty-continuation (componente de software do Jetty) 9.3.20.v20170531
org.eclipse.píer Jetty-HTTP 9.3.20.v20170531
org.eclipse.píer Molhe IO 9.3.20.v20170531
org.eclipse.píer Cais-JNDI 9.3.20.v20170531
org.eclipse.píer Cais-Plus 9.3.20.v20170531
org.eclipse.píer Jetty-Proxy 9.3.20.v20170531
org.eclipse.píer Segurança do Jetty 9.3.20.v20170531
org.eclipse.píer servidor Jetty 9.3.20.v20170531
org.eclipse.píer cais-servlet 9.3.20.v20170531
org.eclipse.píer Jetty-servlets 9.3.20.v20170531
org.eclipse.píer Jetty-util 9.3.20.v20170531
org.eclipse.píer Aplicação web Jetty 9.3.20.v20170531
org.eclipse.píer Jetty-XML 9.3.20.v20170531
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 HK2-API 2.4.0-B34
org.glassfish.hk2 localizador hk2 2.4.0-B34
org.glassfish.hk2 HK2-Utils 2.4.0-B34
org.glassfish.hk2 osgi-localizador-de-recursos 1.0.1
org.glassfish.hk2.externo aopalliance-reembalado 2.4.0-B34
org.glassfish.hk2.externo javax.injet 2.4.0-B34
org.glassfish.jersey.bundles.reembalado Jersey-Goiaba 2.22.2
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-cliente 2.22.2
org.glassfish.jersey.core Jersey comum 2.22.2
org.glassfish.jersey.core servidor Jersey 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hibernate hibernate-validator (ferramenta de validação de dados de Java) 5.1.1.Final
org.iq80.snappy rápido 0.2
org.javassist Javassist 3.18.1-GA
org.jboss.logging jboss-registro em log 3.1.3.GA
org.jdbi JDBI 2.63.1
org.joda joda-converter 1.7
org.jodd JODD-CORE 3.5.2
org.json4s JSON4S-ast_2.11 3.2.11
org.json4s JSON4S-core_2.11 3.2.11
org.json4s JSON4S-jackson_2.11 3.2.11
org.lz4 LZ4-Java 1.4.0
org.mariadb.jdbc mariadb-java-cliente 2.1.2
org.mockito mockito-tudo 1.9.5
org.objenesis objenese 2.1
org.postgresql PostgreSQL 42.1.4
org.roaringbitmap RoaringBitmap 0.5.11
org.rocksdb rocksdbjni 5.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2,11 2.11.8
org.scala-lang Escala-library_2,11 2.11.8
org.scala-lang Escala-reflect_2,11 2.11.8
org.scala-lang scalap_2.11 2.11.8
org.scala-lang.modules scala-parser-combinators_2,11 1.0.2
org.scala-lang.modules Escala-xml_2.11 1.0.5
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalanlp Brisa-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 2.2.6
org.slf4j jcl-compatível-com-slf4j 1.7.16
org.slf4j jul-para-slf4j 1.7.16
org.slf4j SLF4J-API 1.7.16
org.slf4j SLF4J-Log4J12 1.7.16
org.spark-project.hive colmeia-abelha 1.2.1.faísca2
org.spark-project.hive Hive-CLI 1.2.1.faísca2
org.spark-project.hive hive-exec 1.2.1.faísca2
org.spark-project.hive Hive-JDBC 1.2.1.faísca2
org.spark-project.hive sistema de metadados do Hive 1.2.1.faísca2
org.spark-project.spark não utilizado 1.0.0
org.spire-matemática torre-macros_2.11 0.13.0
org.spire-matemática spire_2.11 0.13.0
org.springframework spring-core (núcleo do Spring) 4.1.4.VERSÃO
org.springframework teste de primavera 4.1.4.VERSÃO
org.tukaani XZ 1.0
org.typelevel mecânico_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial SQLITE-JDBC 3.8.11.2
org.xerial.snappy Snappy-java 1.1.2.6
org.yaml Snakeyaml 1.16
ORO ORO 2.0.8
software.amazon.ion íon-java 1.0.2
Stax Stax-API 1.0.1
XMLENC XMLENC 0.52