Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
A Databricks lançou esta versão em novembro de 2018.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 5.0, desenvolvido pelo Apache Spark.
Novos recursos
- Lago Delta
- As subconsultas são agora suportadas na cláusula
WHEREpara os comandosDELETEeUPDATE. - Nova implementação escalável para
MERGEcomandos.- Sem limite no número de inserções e atualizações.
- Pode ser usado para consultas SCD Tipo 1 e Tipo 2.
- Pode-se realizar upserts de consultas de streaming no modo "update" (por exemplo, gravar a saída agregada de streaming numa tabela Delta). Veja o exemplo Escrevendo fluxos de agregação no Databricks Delta usando o notebook MERGE e foreachBatch.
- As subconsultas são agora suportadas na cláusula
- Streaming estruturado
- Fonte de transmissão baseada em notificação de ficheiros do armazenamento Blob do Azure. Isso pode reduzir significativamente os custos de listagem ao executar uma consulta de Streaming Estruturado em arquivos no armazenamento de Blob do Azure. Em vez de usar a listagem para encontrar novos arquivos para processamento, essa fonte de streaming pode ler diretamente notificações de eventos de arquivo para localizar novos arquivos. Consulte Origem do arquivo de armazenamento de Blob do Azure com o Armazenamento de Filas do Azure (legado).
- Adicionado suporte para TensorBoard para monitoramento de trabalhos de aprendizagem profunda. Consulte TensorBoard.
Melhorias
- Lago Delta
-
OPTIMIZEdesempenho e estabilidade.- O
OPTIMIZEcomando confirma lotes o mais rápido possível, em vez de no final. - Reduzido o número padrão de threads
OPTIMIZEexecutados em paralelo. Este é um aumento significativo de desempenho para tabelas grandes. - Aceleração das
OPTIMIZEgravações ao evitar a classificação desnecessária dos dados ao escrever para uma tabela particionada. - Acelerou
OPTIMIZE ZORDER BYtornando-o incremental. Isso significa que o comando agora evita a regravação de arquivos de dados que já foram ordenados por Z pela(s) mesma(s) coluna(s). Consulte Salto de dados para Delta Lake.
- O
- Isolamento instantâneo ao consultar tabelas Delta. Qualquer consulta com múltiplas referências a uma tabela Delta (por exemplo, auto-junção) lê a partir do mesmo instantâneo da tabela, mesmo que haja atualizações simultâneas na tabela.
- Melhoria na latência de consulta ao ler de tabelas Delta pequenas (menos de 2000 ficheiros) através do armazenamento em cache de metadados no driver.
-
- Melhoria no desempenho da regressão logística do MLlib.
- Melhor desempenho do algoritmo da árvore MLlib.
- Atualização de várias bibliotecas Java e Scala. Consulte Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11).
- Atualizado algumas bibliotecas Python instaladas:
- PIP: 10.0.1 a 18.0
- setuptools: 39.2.0 a 40.4.1
- tornado: 5.0.2 a 5.1.1
- Melhoradas várias bibliotecas R instaladas. Consulte Bibliotecas R instaladas.
Correções de Erros
- Lago Delta
- As configurações definidas no conf SQL agora se aplicam corretamente às operações Delta Lake que foram carregadas pela primeira vez em um bloco de anotações diferente.
- Corrigido um bug no comando
DELETEque excluía incorretamente as linhas em que a condição é avaliada como nula. - Os fluxos que levam mais de dois dias para processar o lote inicial (ou seja, os dados que estavam na tabela quando o fluxo começou) não falham mais com
FileNotFoundExceptionao tentar recuperar de um ponto de verificação. - Evita uma condição de corrida que leva a
NoClassDefErrorao carregar uma nova tabela. - Correção para
VACUUMonde a operação pode falhar com um AssertionError informando: “Não deveria haver caminhos absolutos para exclusão aqui.” - Comando fixo
SHOW CREATE TABLEpara não incluir propriedades de armazenamento geradas pelo Hive.
- Os executores que lançam muitos
NoClassDefFoundErrorerros para classes internas do Spark agora são reiniciados automaticamente para corrigir o problema.
Problemas Conhecidos
- Os nomes de coluna especificados na opção
replaceWherepara o modooverwriteno Delta Lake diferenciam maiúsculas de minúsculas, mesmo que a distinção entre maiúsculas e minúsculas esteja desativada (que é a configuração padrão). - O conector Snowflake para Databricks Runtime 5.0 está em versão preliminar.
- Se você cancelar uma célula de streaming em execução em um bloco de anotações conectado a um cluster do Databricks Runtime 5.0, não poderá executar nenhum comando subsequente no bloco de anotações, a menos que limpe o estado do bloco de anotações ou reinicie o cluster. Para obter uma solução alternativa, consulte a Base de Dados de Conhecimento.
Apache Spark
O Databricks Runtime 5.0 inclui o Apache Spark 2.4.0.
Core e Spark SQL
Nota
Este artigo contém referências ao termo slave, um termo que o Azure Databricks não usa. Quando o termo for removido do software, iremos removê-lo deste artigo.
Principais características
- Modo de Execução de Barreira: [SPARK-24374] Suporte ao Modo de Execução de Barreira no agendador, para melhor integração com estruturas de aprendizagem profunda.
- Suporte ao Scala 2.12: [SPARK-14220] Adicione suporte experimental ao Scala 2.12. Agora você pode criar o Spark com o Scala 2.12 e escrever aplicativos do Spark no Scala 2.12.
- Funções de ordem superior: [SPARK-23899] Adicione muitas novas funções integradas, incluindo funções de ordem elevada, para facilitar o trabalho com tipos de dados complexos. Consulte Funções integradas do Apache Spark.
- Fonte de dados Avro integrada: [SPARK-24768] Pacote Inline Spark-Avro com suporte a tipo lógico, melhor desempenho e usabilidade.
API
- [SPARK-24035] sintaxe SQL para Pivot
- [SPARK-24940] Coalesce e Repartition Hint para consultas SQL
- [SPARK-19602] Suportar a resolução de nomes de colunas totalmente qualificados
- [SPARK-21274] Implementar EXCEPT ALL e INTERSEÇÃO ALL
Desempenho e estabilidade
- [SPARK-16406] Resolução de referência para um grande número de colunas deve ser mais rápida
- [SPARK-23486] Armazenar em cache o nome da função do catálogo externo para lookupFunctions
- [SPARK-23803] Suporte a Redução de Bucket
- [SPARK-24802] Exclusão de regra de otimização
- [SPARK-4502] Poda de esquema aninhado para tabelas Parquet
- [SPARK-24296] Suporte para replicar blocos maiores que 2 GB
- [SPARK-24307] Suporte ao envio de mensagens superiores a 2GB a partir da memória
- [SPARK-23243] Embaralhamento+Repartição em um RDD pode levar a respostas incorretas
- [SPARK-25181] Limitado o tamanho dos conjuntos de threads principal e secundário do BlockManager, reduzindo a sobrecarga de memória quando a rede está lenta
Conectores
- [SPARK-23972] Atualizar Parquet de 1.8.2 para 1.10.0
- [SPARK-25419] Melhoria no pushdown de predicados Parquet
- [SPARK-23456] O leitor ORC nativo está ativado por defeito
- [SPARK-22279] Use o leitor ORC nativo para ler tabelas de serde do Hive por padrão
- [SPARK-21783] Ativar o filtro ORC push-down por defeito
- [SPARK-24959] Acelerar count() para JSON e CSV
- [SPARK-24244] Analisar apenas colunas necessárias para o analisador CSV
- [SPARK-23786] validação do esquema de CSV - os nomes das colunas não são verificados
- [SPARK-24423] Opção de consulta para especificar a consulta para leitura do JDBC
- [SPARK-22814] Suporte para Data/Carimbo de Hora na coluna de partição JDBC
- [SPARK-24771] Atualizar Avro de 1.7.7 para 1.8
PySpark
- [SPARK-24215] Implemente uma avaliação imediata para APIs de DataFrame
- [SPARK-22274] - [SPARK-22239] Funções de agregação definidas pelo utilizador com pandas udf
- [SPARK-24396] Adicionar Structured Streaming ForeachWriter para Python
- [SPARK-23874] Atualizar o Apache Arrow para 0.10.0
- [SPARK-25004] Adicionar limite para spark.executor.pyspark.memory
- [SPARK-23030] Usar o formato de fluxo Arrow para criar e coletar pandas DataFrames
- [FAÍSCA-24624] Suportar a combinação de Python UDF e pandas UDF escalares
Outras mudanças notáveis
- [SPARK-24596] Invalidação de Cache Não Cascata
- [SPARK-23880] Não acione nenhum trabalho ao armazenar dados em cache
- [SPARK-23510][SPARK-24312] Suporte ao metastore do Hive 2.2 e Hive 2.3
- [FAÍSCA-23711] Adicionar gerador de fallback para UnsafeProjection
- [SPARK-24626] Paralelizar o cálculo do tamanho de localização no comando Analisar Tabela
Transmissão em Fluxo Estruturada
Principais características
- [SPARK-24565] Expôs as linhas de saída de cada microlote como um DataFrame usando foreachBatch (Python, Scala e Java)
- [SPARK-24396] Adicionada a API Python para foreach e ForeachWriter
- [FAÍSCA-25005] Suporte "kafka.isolation.level" para ler apenas registros confirmados de tópicos Kafka que são escritos usando um produtor transacional.
Outras mudanças notáveis
- [SPARK-24662] Suporte ao operador LIMIT para fluxos no modo Acrescentar ou Concluir
- [SPARK-24763] Remover dados de chave redundantes do valor na agregação de streaming
- [SPARK-24156] Geração mais rápida de resultados de saída e/ou limpeza de estado com operações stateful (mapGroupsWithState, stream-stream join, streaming aggregation, streaming dropDuplicates) quando não há dados no fluxo de entrada.
- [SPARK-24730] Suporte para escolher a marca d'água mínima ou máxima quando há vários fluxos de entrada em uma consulta
- [SPARK-25399] Corrigido um bug onde a reutilização de threads de execução do processamento contínuo para streaming de microlote pode causar um problema de exatidão
- [SPARK-18057] Versão atualizada do cliente Kafka de 0.10.0.1 para 2.0.0
MLlib
Principais características
- [SPARK-22666] Fonte de dados do Spark para o formato de imagem
Outras mudanças notáveis
- [SPARK-22119][SPARK-23412][SPARK-23217] Adicionar a medida de distância do cosseno ao avaliador de KMeans/BisectingKMeans/Clustering
- [SPARK-10697] Cálculo de elevação na mineração de regras de associação
- [SPARK-14682][SPARK-24231] Fornecer o método evaluateEachIteration ou equivalente para spark.ml GBTs
- [SPARK-7132][SPARK-24333] Adicionar ajuste com validação definida como spark.ml GBT
- [SPARK-15784][SPARK-19826] Adicionar Power Iteration Clustering ao spark.ml
- [SPARK-15064] Suporte de localização no StopWordsRemover
- [SPARK-21741] API Python para resumos multivariados baseados em DataFrame
- [SPARK-21898][SPARK-23751] Paridade de recursos para KolmogorovSmirnovTest no MLlib
- [FAÍSCA-10884] Suporte à previsão em instância única para modelos relacionados a regressão e classificação
- [SPARK-23783] Adicionar novo atributo genérico de exportação para pipelines de ML
- [SPARK-11239] Exportação de PMML para regressão linear de Aprendizagem Automática
Faísca
- [SPARK-25393] Adicionando nova função from_csv()
- [FAÍSCA-21291] adicionar partição RPor API no DataFrame
- [SPARK-25007] Adicionar array_intersect/array_except/array_union/shuffle ao SparkR
- [SPARK-25234] evitar overflow de inteiros durante a paralelização
- [SPARK-25117] Adicionar suporte a EXCEPT ALL e INTERSECT ALL em R
- [SPARK-24537] Adicionar array_remove / array_zip / map_from_arrays / array_distinct
- [SPARK-24187] Adicionar a função array_join ao SparkR
- [SPARK-24331] Adicionando arrays_overlap, array_repeat, map_entries ao SparkR
- [SPARK-24198] Adicionando função slice ao SparkR
- [SPARK-24197] Adicionar a função array_sort ao SparkR
- [SPARK-24185] adicionar função flatten ao SparkR
- [SPARK-24069] Adicionar funções array_min / array_max
- [SPARK-24054] Adicionar funções array_position e element_at
- [SPARK-23770] Adicionar a API repartitionByRange no SparkR
GraphX
- [SPARK-25268] executa Parallel Personalized PageRank lança Exceção de serialização
Preterições
- [SPARK-23451] Obsoletar KMeans computeCost
- [FAÍSCA-25345] Descontinuar APIs readImages do ImageSchema
Mudanças de comportamento
- [SPARK-23549] Fazer cast para timestamp ao comparar timestamp com data
- [SPARK-24324] pandas Mapa agrupado UDF deve atribuir colunas de resultado por nome
- [SPARK-25088] Servidor REST padrão e atualizações de documentação
- [SPARK-23425] Carregar dados para o caminho do ficheiro HDFS com uso de curinga não está a funcionar corretamente
- [SPARK-23173] from_json pode produzir valores nulos para campos marcados como não anuláveis
- [SPARK-24966] Implementar regras de precedência para operações definidas
- [SPARK-25708]HAVING sem GROUP BY deve ser uma agregação global
- [SPARK-24341] Manipular corretamente a subconsulta IN com múltiplos valores
- [SPARK-19724] Criar uma tabela gerenciada com um local padrão existente deve gerar uma exceção
Problemas Conhecidos
- [SPARK-25793] Erro no carregamento do modelo em BisectingKMeans
- [SPARK-25271] CTAS com mesas de parquet Hive devem aproveitar a fonte de parquet nativa
- [SPARK-24935] Problema com a execução das UDAFs do Hive a partir do Spark 2.2
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 5.0.
Ambiente do Sistema
- Sistema Operacional: Ubuntu 16.04.5 LTS
- Java: 1.8.0_162
- Escala: 2.11.8
- Python: 2.7.12 para clusters Python 2 e 3.5.2 para clusters Python 3.
- R: R versão 3.4.4 (2018-03-15)
-
Clusters GPU: As bibliotecas de GPU NVIDIA seguintes estão instaladas:
- Piloto da Tesla 375.66
- CUDA 9,0
- cuDNN 7,0
Nota
Embora o Scala 2.12 seja suportado no Apache Spark 2.4, ele não é suportado no Databricks Runtime 5.0.
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | Argparse | 1.2.1 | backports-abc | 0,5 |
| botão | 2.42.0 | Boto3 | 1.4.1 | Botocore | 1.4.70 |
| cervejeiro2mpl | 1.4.1 | certifi | 2016.2.28 | CFFI | 1.7.0 |
| Chardet | 2.3.0 | Colorama | 0.3.7 | configobj | 5.0.6 |
| criptografia | 1.5 | ciclador | 0.10.0 | Cython | 0.24.1 |
| decorador | 4.0.10 | Docutils | 0.14 | ENUM34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | futuros | 3.2.0 | Ggplot | 0.6.8 |
| html5lib | 0.999 | IDNA | 2.1 | endereço IP | 1.0.16 |
| IPython | 2.2.0 | ipython-genutils | 0.1.0 | JDCAL | 1.2 |
| Jinja2 | 2.8 | JmesPath | 0.9.0 | LLVMLITE | 0.13.0 |
| LXML | 3.6.4 | Marcação Segura | 0.23 | Matplotlib | 1.5.3 |
| MPLD3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| Dormência | 0.28.1 | dormência | 1.11.1 | openpyxl (biblioteca para manipular ficheiros Excel em Python) | 2.3.2 |
| pandas | 0.19.2 | Pathlib2 | 2.1.0 | bode expiatório | 0.4.1 |
| Espere | 4.0.1 | pickleshare | 0.7.4 | Almofada | 3.3.1 |
| pip (o gestor de pacotes do Python) | 18,0 | camada | 3.9 | kit de ferramentas de prompt | 1.0.7 |
| PSYCOPG2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| Pyarrow | 0.8.0 | Piasn1 | 0.1.9 | Pycparser | 2.14 |
| Pigmentos | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| Pyparsing | 2.2.0 | PYPNG | 0.0.18 | Python | 2.7.12 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.5.3 | Python-Geohash | 0.8.5 | Pytz | 1 de junho de 2016 |
| pedidos | 2.11.1 | s3transferência | 0.1.9 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.18.1 |
| SciPy | 0.18.1 | vasculhar | 0.32 | nascido no mar | 0.7.1 |
| Ferramentas de configuração | 40.4.1 | simplejson | 3.8.2 | simples3 | 1.0 |
| despacho único | 3.4.0.3 | seis | 1.10.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.6.1 |
| tornado | 5.1.1 | traços | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.31.1 |
| WSGIREF | 0.1.2 |
Bibliotecas R instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Abind | 1.4-5 | asserçãoat | 0.2.0 | retro-portagens | 1.1.2 |
| base | 3.4.4 | base64enc | 0.1-3 | Belo Horizonte | 1.66.0-1 |
| Bindr | 0.1.1 | Bindrcpp | 0.2.2 | pouco | 1.1-14 |
| bit64 | 0.9-7 | Bitops | 1.0-6 | blob | 1.1.1 |
| arranque | 1.3-20 | preparar | 1.0-6 | vassoura | 0.5.0 |
| Chamador | 3.0.0 | carro | 3.0-2 | dadosDoCarro | 3.0-1 |
| cursor | 6.0-80 | Cellranger | 1.1.0 | crono | 2.3-52 |
| classe | 7.3-14 | CLI | 1.0.0 | cluster | 2.0.7-1 |
| CodeTools | 0.2-15 | espaço de cores | 1.3-2 | marca comum | 1.5 |
| compilador | 3.4.4 | lápis de cor | 1.3.4 | encaracolar | 3.2 |
| Trombose do Seio Venoso Cerebral (CVST) | 0.2-2 | tabela de dados | 1.11.4 | conjuntos de dados | 3.4.4 |
| DBI | 1.0.0 | DDALPHA | 1.3.4 | DEoptimR | 1.0-8 |
| descrição | 1.2.0 | DevTools | 1.13.6 | resumo | 0.6.16 |
| Vermelho escuro | 0.1.0 | doMC | 1.3.5 | DPLYR | 0.7.6 |
| Redução do Risco de Desastres (RRD) | 0.0.3 | Fansi | 0.3.0 | condenados | 0.3.0 |
| para cada | 1.4.4 | estrangeiro | 0.8-70 | GBM | 2.1.3 |
| geometria | 0.3-6 | GGPLOT2 | 3.0.0 | Git2R | 0.23.0 |
| GLMNET | 2.0-16 | cola | 1.3.0 | Gower | 0.1.2 |
| gráficos | 3.4.4 | grDispositivos | 3.4.4 | grelha | 3.4.4 |
| GSUBFN | 0,7 | tabela g | 0.2.0 | H₂O | 3.20.0.2 |
| Refúgio | 1.1.2 | HMS | 0.4.2 | HTTR | 1.3.1 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-7 |
| iteradores | 1.0.10 | jsonlite | 1.5 | Kernlab | 0.9-27 |
| KernSmooth | 2.23-15 | etiquetagem | 0,3 | treliça | 0.20-35 |
| lave | 1.6.3 | preguiça | 0.2.1 | menor | 0.3.4 |
| LME4 | 1.1-18-1 | lubridato | 1.7.4 | magic | 1.5-8 |
| Magrittr | 1.5 | Mapproj | 1.2.6 | mapas | 3.3.0 |
| Ferramentas de mapa | 0.9-3 | MASSA | 7.3-50 | Matriz | 1.2-14 |
| Modelos de Matriz | 0.4-1 | memorizar | 1.1.0 | métodos | 3.4.4 |
| MGCV | 1.8-24 | mímica | 0,5 | Minqa | 1.2.4 |
| ModelMetrics | 1.2.0 | Munsell | 0.5.0 | MVTnorm | 1.0-8 |
| NLME | 3.1-137 | NLOPTR | 1.0.4 | NNET | 7.3-12 |
| numDeriv | 2016.8-1 | openssl (conjunto de ferramentas para criptografia) | 1.0.2 | OpenXLSX | 4.1.0 |
| paralelo | 3.4.4 | pbkrtest | 0.4-7 | pilar | 1.3.0 |
| pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | pkgGatinho | 0.1.4 |
| pkgload | 1.0.0 | plogr | 0.2.0 | por favor | 2.7-0 |
| Plyr | 1.8.4 | elogiar | 1.0.0 | unidades elegantes | 1.0.2 |
| pROC | 1.12.1 | processx | 3.2.0 | Prodlim | 2018.04.18 |
| prototipo | 1.0.0 | P.S. | 1.1.0 | ronronar | 0.2.5 |
| Quantreg | 5,36 | R.métodosS3 | 1.7.1 | R.oo | 1.22.0 |
| R.utils | 2.7.0 | R6 | 2.2.2 | Floresta Aleatória | 4.6-14 |
| RColorBrewer | 1.1-2 | Rcpp | 0.12.18 | RcppEigen | 0.3.3.4.0 |
| RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | Leitor | 1.1.1 |
| ReadXL | 1.1.0 | receitas | 0.1.3 | revanche | 1.0.1 |
| remodelar2 | 1.4.3 | Rio | 0.5.10 | Rlang | 0.2.2 |
| base robusta | 0.93-2 | RODBC | 1.3-15 | oxigénio2 | 6.1.0 |
| rpart (função de partição recursiva em R) | 4.1-13 | rprojroot | 1.3-2 | Reserva | 1.7-3 |
| RSQLite | 2.1.1 | rstudioapi | 0,7 | escalas | 1.0.0 |
| sfsmisc | 1.1-2 | SP | 1.3-1 | Faísca | 2.4.0 |
| SparseM | 1.77 | espacial | 7.3-11 | estrias | 3.4.4 |
| sqldf | 0.4-11 | QUADRADO | 2017.10-1 | Statmod | 1.4.30 |
| estatísticas | 3.4.4 | estatísticas4 | 3.4.4 | string | 1.2.4 |
| stringr | 1.3.1 | sobrevivência | 2.42-6 | tcltk (uma linguagem de programação) | 3.4.4 |
| Demonstrações de Ensino | 2.10 | teste que | 2.0.0 | Tibble | 1.4.2 |
| Tidyr | 0.8.1 | arrumadoselecionar | 0.2.4 | tempoData | 3043.102 |
| ferramentas | 3.4.4 | UTF8 | 1.1.4 | utilitários | 3.4.4 |
| viridisLite | 0.3.0 | vibrissas | 0.3-2 | murchar | 2.1.2 |
| XML2 | 1.2.0 | ZIP | 1.0.0 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.8.10 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
| com.amazonaws | aws-java-sdk-diretório | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr | 1.11.313 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-rota53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | AWS Java SDK para SES | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.313 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | HPPC | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | fluxo | 2.7.0 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | DBML-local_2,11 | 0.5.0-db7-faísca2.4 |
| com.databricks | dbml-local_2.11-testes | 0.5.0-db7-faísca2.4 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | SCALAPB-runtime_2,11 | 0.4.15-9 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.0.0 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.6.7 |
| com.fasterxml.jackson.core | Jackson-Core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.11 | 2.6.7.1 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.3.2-2 |
| com.github.rwl | Jtransforms | 2.4.0 |
| com.google.code.findbugs | JSR305 | 2.0.1 |
| com.google.code.gson | Gson | 2.2.4 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2banco de dados | h2 | 1.3.174 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.mchange | C3P0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | azure-data-lake-store-SDK | 2.2.8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 6.2.2.JRE8 |
| com.ning | compressa-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | Chill-java | 0.9.3 |
| com.twitter | chill_2.11 | 0.9.3 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocidade | analisadores de univocidade | 2.7.3 |
| com.vlkan | flatbuffers | 1.2.0-3F79E055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| codec commons | codec commons | 1.10 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-configuração | commons-configuração | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digestor | commons-digestor | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.ponte aérea | compressor de ar | 0.10 |
| io.dropwizard.metrics | métricas-base | 3.1.5 |
| io.dropwizard.metrics | métricas-Ganglia | 3.1.5 |
| io.dropwizard.metrics | métricas-grafite | 3.1.5 |
| io.dropwizard.metrics | verificações de saúde de métricas | 3.1.5 |
| io.dropwizard.metrics | métricas-jetty9 | 3.1.5 |
| io.dropwizard.metrics | métricas-json | 3.1.5 |
| io.dropwizard.metrics | métricas do JVM | 3.1.5 |
| io.dropwizard.metrics | métricas-log4j | 3.1.5 |
| io.dropwizard.metrics | Métricas-Servlets | 3.1.5 |
| io.netty | biblioteca Netty | 3.9.9.Final |
| io.netty | netty-tudo | 4.1.17.Final |
| io.prometeu | cliente simples | 0.0.16 |
| io.prometeu | simpleclient_comum | 0.0.16 |
| io.prometeu | simpleclient_dropwizard | 0.0.16 |
| io.prometeu | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | recoletor | 0,7 |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | JSP-API | 2.1 |
| javax.transaction | JTA | 1.1 |
| javax.validação | API de validação | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.11 |
| Joda-Time | Joda-Time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hidromática | eigenbase-propriedades | 1.1.5 |
| net.razorvine | pirolite | 4.13 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Flocos de Neve-JDBC | 3.6.3 |
| net.floco de neve | faísca-snowflake_2.11 | 2.4.1 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt | ONCRPC | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.4 |
| org.antlr | antlr4-tempo de execução | 4.7 |
| org.antlr | modelo de string | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 0.10.0 |
| org.apache.arrow | memória de seta | 0.10.0 |
| org.apache.arrow | vetor de seta | 0.10.0 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | AVRO-IPC | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.calcite | calcita-avatica | 1.2.0 incubação |
| org.apache.calcite | núcleo de calcita | 1.2.0 incubação |
| org.apache.calcite | calcita-linq4j | 1.2.0 incubação |
| org.apache.commons | commons-comprimir | 1.8.1 |
| org.apache.commons | commons-cripto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-matemática3 | 3.4.1 |
| org.apache.curador | curador-cliente | 2.7.1 |
| org.apache.curador | curador-framework | 2.7.1 |
| org.apache.curador | curador de receitas | 2.7.1 |
| org.apache.derby | dérbi | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | API-Util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop-annotations (anotações do hadoop) | 2.7.3 |
| org.apache.hadoop | autenticação do Hadoop | 2.7.3 |
| org.apache.hadoop | Cliente Hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-comum | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-cliente-core | 2.7.3 |
| org.apache.hadoop | Cliente de Trabalho Hadoop MapReduce | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-cliente | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-comum | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) | 2.7.3 |
| org.apache.htrace | htrace-núcleo | 3.1.0 em incubação |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | Núcleo Http | 4.4.8 |
| org.apache.ivy | hera | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.5.2 |
| org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
| org.apache.orc | Orc-calços | 1.5.2 |
| org.apache.parquet | parquet-coluna | 1.10.1-databricks2 |
| org.apache.parquet | parquet-comum | 1.10.1-databricks2 |
| org.apache.parquet | codificação-parquet | 1.10.1-databricks2 |
| org.apache.parquet | formato parquet | 2.4.0 |
| org.apache.parquet | Parquet-Hadoop | 1.10.1-databricks2 |
| org.apache.parquet | Parquet-Jackson | 1.10.1-databricks2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm6-sombreado | 4.8 |
| org.apache.zookeeper | cuidador de zoológico | 3.4.6 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | Jackson-Jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | Jackson-XC | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.9 |
| org.codehaus.janino | Janino | 3.0.9 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | DataNucleus Core | 3.2.10 |
| org.datanucleus | Datanucleus-RDBMS | 3.2.9 |
| org.eclipse.píer | Jetty-Cliente | 9.3.20.v20170531 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-HTTP | 9.3.20.v20170531 |
| org.eclipse.píer | Molhe IO | 9.3.20.v20170531 |
| org.eclipse.píer | Cais-JNDI | 9.3.20.v20170531 |
| org.eclipse.píer | Cais-Plus | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-Proxy | 9.3.20.v20170531 |
| org.eclipse.píer | Segurança do Jetty | 9.3.20.v20170531 |
| org.eclipse.píer | servidor Jetty | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-util | 9.3.20.v20170531 |
| org.eclipse.píer | Aplicação web Jetty | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-XML | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.4.0-B34 |
| org.glassfish.hk2 | localizador hk2 | 2.4.0-B34 |
| org.glassfish.hk2 | HK2-Utils | 2.4.0-B34 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.1 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.4.0-B34 |
| org.glassfish.hk2.externo | javax.injet | 2.4.0-B34 |
| org.glassfish.jersey.bundles.reembalado | Jersey-Goiaba | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-cliente | 2.22.2 |
| org.glassfish.jersey.core | Jersey comum | 2.22.2 |
| org.glassfish.jersey.core | servidor de jersey | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | hibernate-validator (ferramenta de validação de dados de Java) | 5.1.1.Final |
| org.iq80.snappy | rápido | 0.2 |
| org.javassist | Javassist | 3.18.1-GA |
| org.jboss.logging | jboss-registro em log | 3.1.3.GA |
| org.jdbi | JDBI | 2.63.1 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.11 | 3.5.3 |
| org.json4s | JSON4S-core_2.11 | 3.5.3 |
| org.json4s | JSON4S-jackson_2.11 | 3.5.3 |
| org.json4s | JSON4S-scalap_2.11 | 3.5.3 |
| org.lz4 | LZ4-Java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.1.2 |
| org.mockito | mockito-tudo | 1.9.5 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,11 | 2.11.8 |
| org.scala-lang | Escala-library_2,11 | 2.11.8 |
| org.scala-lang | Escala-reflect_2,11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2,11 | 1.0.2 |
| org.scala-lang.modules | Escala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalactic | scalactic_2.11 | 3.0.3 |
| org.scalanlp | Brisa-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 3.0.3 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.16 |
| org.slf4j | jul-para-slf4j | 1.7.16 |
| org.slf4j | SLF4J-API | 1.7.16 |
| org.slf4j | SLF4J-Log4J12 | 1.7.16 |
| org.spark-project.hive | colmeia-abelha | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-CLI | 1.2.1.faísca2 |
| org.spark-project.hive | hive-exec | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-JDBC | 1.2.1.faísca2 |
| org.spark-project.hive | sistema de metadados do Hive | 1.2.1.faísca2 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.spire-matemática | torre-macros_2.11 | 0.13.0 |
| org.spire-matemática | spire_2.11 | 0.13.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.tukaani | XZ | 1.5 |
| org.typelevel | maquinista_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.7.1 |
| org.yaml | Snakeyaml | 1.16 |
| ouro | ouro | 2.0.8 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |
| XMLENC | XMLENC | 0.52 |