Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
A Databricks lançou esta versão em março de 2018.
Importante
Esta versão foi preterida em 1º de novembro de 2018. Para obter mais informações sobre a política e o cronograma de substituição do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 4.0, desenvolvido pelo Apache Spark.
Alterações e melhorias
- A fonte de dados JSON agora tenta detetar automaticamente a codificação em vez de assumir que seja UTF-8. Nos casos em que a deteção automática falha, os usuários podem especificar a opção charset para impor uma determinada codificação. Consulte Deteção automática de Charset.
- A pontuação e a previsão usando pipelines do Spark MLlib no Streaming estruturado são totalmente suportadas.
- O Databricks ML Model Export é totalmente suportado. Com esse recurso, você pode treinar um modelo Spark MLlib no Databricks, exportá-lo com uma chamada de função e usar uma biblioteca Databricks no sistema de sua escolha para importar o modelo e pontuar novos dados.
- Uma nova implementação de fonte de dados do Spark oferece acesso escalável de leitura/gravação ao Azure Synapse Analytics. Consulte Spark - Synapse Analytics Connector.
- O esquema da função
from_jsonagora é sempre convertido para um tipo anulável. Em outras palavras, todos os campos, incluindo os aninhados, podem ter valor nulo. Isso garante que os dados sejam compatíveis com o esquema, evitando corrupção depois de gravar os dados no parquet quando um campo estiver ausente nos dados e o esquema fornecido pelo usuário declarar o campo como não anulável. - Atualizado algumas bibliotecas Python instaladas:
- Futuros: de 3.1.1 a 3.2.0
- Pandas: de 0.18.1 a 0.19.2
- Pyarrow: de 0.4.1 a 0.8.0
- setuptools: de 38.2.3 a 38.5.1
- tornado: 4.5.2 a 4.5.3
- Foram atualizadas várias bibliotecas R instaladas. Consulte Bibliotecas R instaladas.
- AWS Java SDK atualizado de 1.11.126 para 1.11.253.
- Driver JDBC do SQL Server atualizado de 6.1.0.jre8 para 6.2.2.jre8.
- Driver JDBC PostgreSQL atualizado do 9.4-1204-jdbc41 para 42.1.4.
Apache Spark
O Databricks Runtime 4.0 inclui o Apache Spark 2.3.0.
Core, PySpark e Spark SQL
Principais características
-
Leitor ORC vetorizado: [SPARK-16060]: Adiciona suporte para o novo leitor ORC que melhora substancialmente a taxa de transferência de varredura ORC através da vetorização (2-5x). Para habilitar o leitor, os usuários podem definir
spark.sql.orc.implcomonative. - Spark History Server V2: [SPARK-18085]: Um novo back-end do spark history server (SHS) que fornece melhor escalabilidade para aplicativos de grande escala com um mecanismo de armazenamento de eventos mais eficiente.
- API de fonte de dados V2: [SPARK-15689][SPARK-22386]: Uma API experimental para conectar novas fontes de dados no Spark. A nova API tenta abordar várias limitações da API V1 e visa facilitar o desenvolvimento de fontes de dados externas de alto desempenho, fáceis de manter e extensíveis. Esta API ainda está em desenvolvimento ativo e mudanças de quebra devem ser esperadas.
- Aprimoramentos de desempenho do PySpark: [SPARK-22216][SPARK-21187]: Melhorias significativas no desempenho e interoperabilidade do Python por serialização rápida de dados e execução vetorizada.
Desempenho e estabilidade
- [SPARK-21975]: Suporte a histogramas em otimizador baseado em custos.
- [SPARK-20331]: Melhor suporte para pushdown de predicados para poda de partições do Hive.
- [SPARK-19112]: Suporte para codec de compressão ZStandard.
- [SPARK-21113]: Suporte para fluxo de entrada de leitura antecipada para amortizar o custo de E/S do disco no leitor de vazamento.
- [SPARK-22510][SPARK-22692][SPARK-21871]: Estabilizar ainda mais o framework de geração de código para evitar atingir o limite de bytecode de 64 KB da JVM no método Java e o limite do pool constante do compilador Java.
- [SPARK-23207]: Corrigido um bug de longa data no Spark em que shuffle+repartition consecutivo em um DataFrame poderia levar a respostas incorretas em certos casos cirúrgicos.
- [SPARK-22062][SPARK-17788][SPARK-21907]: Corrige várias causas de OOMs.
- [FAÍSCA-22489][FAÍSCA-22916][FAÍSCA-22895][FAÍSCA-20758][FAÍSCA-22266][FAÍSCA-19122][FAÍSCA-22662][FAÍSCA-21652]: Aprimoramentos no otimizador e planeador baseados em regras.
Outras mudanças notáveis
- [SPARK-20236]: Suporta semântica de substituição de partição dinâmica no estilo Hive.
-
[SPARK-4131]: Suporte
INSERT OVERWRITE DIRECTORYpara gravar dados diretamente no sistema de arquivos a partir de uma consulta. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: melhorias em UDFs.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: Melhorada a conformidade com ANSI SQL e a compatibilidade com Hive.
- [SPARK-20746]: Funções incorporadas SQL mais abrangentes.
- [SPARK-21485]: Geração de documentação do Spark SQL para funções integradas.
-
[SPARK-19810]: Remova o suporte para Scala
2.10. -
[SPARK-22324]: Atualize o Arrow para
0.8.0e Netty para4.1.17.
Transmissão em Fluxo Estruturada
Processamento Contínuo
- Um novo mecanismo de execução que pode executar consultas de streaming com latência de ponta a ponta inferior a milissegundos alterando apenas uma única linha de código do usuário. Para saber mais, consulte o guia de programação.
Stream-Stream junta-se
- Capacidade de unir dois fluxos de dados, buffering linhas até que tuplas correspondentes cheguem no outro fluxo. Os predicados podem ser usados em colunas de tempo de evento para delimitar a quantidade de estado que precisa ser retida.
Streaming API V2
- Uma API experimental para conectar novas fontes e coletores que funciona para execução em lote, microlote e contínua. Esta API ainda está em desenvolvimento ativo, e mudanças significativas devem ser esperadas.
MLlib
Destaques
- O ML Prediction agora funciona com Structured Streaming, usando APIs atualizadas. Seguem-se os detalhes.
APIs novas e melhoradas
- [SPARK-21866]: Suporte integrado para leitura de imagens em um DataFrame (Scala/Java/Python).
- [SPARK-19634]: Funções DataFrame para estatísticas de resumo descritivo sobre colunas vetoriais (Scala/Java).
-
[SPARK-14516]:
ClusteringEvaluatorpara ajustar algoritmos de clustering, suportando silhueta Cosine e métricas de silhueta Euclidiana quadrada (Scala/Java/Python). - [SPARK-3181]: Regressão linear robusta com perda de Huber (Scala/Java/Python).
-
[SPARK-13969]:
FeatureHashertransformador (Scala/Java/Python). - Suporte de várias colunas para vários transformadores de funcionalidade:
-
[SPARK-13030]:
OneHotEncoderEstimator(Scala/Java/Python) -
[SPARK-22397]:
QuantileDiscretizer(Scala/Java) -
[SPARK-20542]:
Bucketizer(Scala/Java/Python)
-
[SPARK-13030]:
- [SPARK-21633] e SPARK-21542]: Suporte aprimorado para componentes de pipeline personalizados em Python.
Novas funcionalidades
-
[SPARK-21087]:
CrossValidatoreTrainValidationSplitpodem coletar todos os modelos ao ajustar (Scala/Java). Isso permite que você inspecione ou salve todos os modelos instalados. -
[SPARK-19357]: Meta-algoritmos ,
CrossValidator,TrainValidationSplitsuportam um paralelismo Param para encaixar vários sub-modelos em trabalhos paralelosOneVsRestdo Spark. - [SPARK-17139]: Resumo do modelo para regressão logística multinomial (Scala/Java/Python)
- [SPARK-18710]: Adicionar deslocamento no GLM.
-
[SPARK-20199]: Foi adicionado
featureSubsetStrategyParam aGBTClassifiereGBTRegressor. Usar isso para subamostrar recursos pode melhorar significativamente a velocidade de treinamento; Esta opção tem sido um ponto forte daxgboost.
Outras mudanças notáveis
-
[SPARK-22156]: Escalonamento fixo
Word2Vecda taxa de aprendizagem comnumiterações. A nova taxa de aprendizagem está definida para corresponder ao código C originalWord2Vece deve dar melhores resultados do treinamento. -
[SPARK-22289]: Adicionar
JSONsuporte para parâmetros de Matrix (Esta correção resolve um problema para a persistência de ML aoLogisticRegressionModelusar limites nos coeficientes.) -
[SPARK-22700]:
Bucketizer.transformdescartam incorretamente a linha que contémNaN. Quando ParamhandleInvalidfoi definido como "skip",Bucketizerremoveria uma linha com um valor válido na coluna de entrada caso outra coluna (irrelevante) possuísse um valorNaN. -
[SPARK-22446]: O otimizador do Catalyst às vezes fazia com que
StringIndexerModellançasse uma exceção incorreta de "rótulo invisível" quandohandleInvalidestava definida como "erro". Isso pode acontecer para dados filtrados, devido ao deslocamento de predicados, causando erros mesmo após as linhas inválidas terem sido filtradas do conjunto de dados de entrada. - [SPARK-21681]: Corrigido um bug de caso de borda na regressão logística multinomial que resultava em coeficientes incorretos quando alguns recursos tinham variância zero.
- Principais otimizações:
-
[SPARK-22707]: Consumo de memória reduzido para
CrossValidator. -
[SPARK-22949]: Consumo de memória reduzido para
TrainValidationSplit. -
[SPARK-21690]:
Imputerdeve treinar usando uma única passagem sobre os dados. -
[SPARK-14371]:
OnlineLDAOptimizerevita a recolha de estatísticas para o condutor para cada minilote.
-
[SPARK-22707]: Consumo de memória reduzido para
Faísca
O foco principal do SparkR na versão 2.3.0 foi melhorar a estabilidade dos UDFs e adicionar vários novos wrappers SparkR em torno das APIs existentes:
Principais características
- Paridade de função melhorada entre SQL e R
-
[SPARK-22933]: APIs de streaming estruturado para
withWatermark,trigger,partitionBye junções de fluxo a fluxo. - [SPARK-21266]: UDF SparkR com suporte a esquema formatado em DDL.
- [SPARK-20726][SPARK-22924][SPARK-22843]: Vários novos wrappers de API de dataframe.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: Vários novos envoltórios da API SparkML.
GraphX
Otimizações
-
[SPARK-5484]: Pregel agora faz pontos de verificação periodicamente para evitar
StackOverflowErrors. - [SPARK-21491]: Pequena melhoria de desempenho em vários locais.
Preterições
Píton
-
[SPARK-23122]: Descontinuar o uso de
register*para UDFs dentro deSQLContexteCatalogno PySpark
MLlib
-
[SPARK-13030]:
OneHotEncoderfoi preterido e será removido na versão 3.0. Foi substituído pelo novoOneHotEncoderEstimator.OneHotEncoderEstimatorserá renomeado paraOneHotEncoderem 3.0 (masOneHotEncoderEstimatorserá mantido como um alias).
Mudanças de comportamento
SparkSQL
-
[SPARK-22036]: Por padrão, as operações aritméticas entre decimais retornam um valor arredondado se uma representação exata não for possível (em vez de retornar
NULLnas versões anteriores) -
[SPARK-22937]: Quando todas as entradas são binárias, o SQL
elt()retorna uma saída como binária. Caso contrário, ele retorna como uma cadeia de caracteres. Em versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada. - [SPARK-22895]: Os predicados determinísticos de Join/Filter que estão após os primeiros predicados não determinísticos também são empurrados para baixo/através dos operadores filho, se possível. Nas versões anteriores, esses filtros não eram elegíveis para pushdown de predicados.
-
[SPARK-22771]: Quando todas as entradas são binárias,
functions.concat()retorna uma saída como binária. Caso contrário, ele retorna como uma cadeia de caracteres. Nas versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada. - [SPARK-22489]: Quando um dos lados da junção é passível de ser transmitido, preferimos difundir a tabela que é explicitamente especificada numa sugestão de difusão.
-
[SPARK-22165]: A inferência de coluna de partição encontrou anteriormente um tipo comum incorreto entre diferentes tipos inferidos. Por exemplo, anteriormente o tipo
doubleacabava por se tornar o tipo comum para os tiposdoubleedate. Agora encontra o tipo comum correto para tais conflitos. Para obter detalhes, consulte o guia de migração. -
[SPARK-22100]: A função
percentile_approxpreviamente aceitava entrada de tiponumerice produzia resultados de tipodouble. Agora ele suportadatetipo,timestamptipo enumerictipos como tipos de entrada. O tipo de resultado também é alterado para ser o mesmo que o tipo de entrada, o que é mais razoável para percentis. -
[SPARK-21610]: as consultas de arquivos JSON/CSV brutos não são permitidas quando as colunas referenciadas incluem apenas a coluna de registro corrompido interna (nomeada
_corrupt_recordpor padrão). Em vez disso, você pode armazenar em cache ou salvar os resultados analisados e, em seguida, enviar a mesma consulta. - [SPARK-23421]: Desde o Spark 2.2.1 e 2.3.0, o esquema é sempre inferido em tempo de execução quando as tabelas de fonte de dados têm as colunas que existem no esquema de partição e no esquema de dados. O esquema inferido não tem as colunas particionadas. Ao ler a tabela, o Spark respeita os valores de partição dessas colunas sobrepostas em vez dos valores armazenados nos arquivos de fonte de dados. Nas versões 2.2.0 e 2.1.x, o esquema inferido é particionado, mas os dados da tabela são invisíveis para os usuários (ou seja, o conjunto de resultados está vazio).
PySpark
-
[SPARK-19732]:
na.fill()oufillnatambém aceita booleanos e substitui nulos por booleanos. Em versões anteriores do Spark, o PySpark simplesmente o ignora e retorna o Dataset/DataFrame original. -
[SPARK-22395]: É necessário usar pandas
0.19.2ou superior para funcionalidades relacionadas, comotoPandas,createDataFramede pandas DataFrame, etc. - [SPARK-22395]: O comportamento dos valores de timestamp para funcionalidades relacionadas com pandas foi alterado de forma a respeitar o fuso horário da sessão, o que era ignorado nas versões anteriores.
-
[SPARK-23328]:
df.replacenão permite omitirvaluequandoto_replacenão é um dicionário. Anteriormente,valuepodia ser omitido nos outros casos e tinhaNonepor defeito, o que é contraintuitivo e propenso a erros.
MLlib
-
Alterações importantes na API: A hierarquia de classes e traits para sumários de modelos de regressão logística foi alterada para ser mais limpa e acomodar melhor a adição do sumário de múltiplas classes. Esta é uma alteração significativa para o código do utilizador que faz o cast de um
LogisticRegressionTrainingSummarypara umBinaryLogisticRegressionTrainingSummary. Os usuários devem, em vez disso, usar omodel.binarySummarymétodo. Consulte [SPARK-17139]: para obter mais detalhes (observe que esta é uma@ExperimentalAPI). Isso não afeta o método de resumo do Python, que ainda funcionará corretamente para casos multinomiais e binários. -
[SPARK-21806]:
BinaryClassificationMetrics.pr()o primeiro ponto (0,0, 1,0) é enganoso e foi substituído por (0,0, p) em que a precisão p corresponde ao ponto de recolha mais baixo. - [SPARK-16957]: As árvores de decisão agora usam pontos médios ponderados ao escolher valores divididos. Isso poderá mudar os resultados do treino do modelo.
-
[SPARK-14657]:
RFormulasem uma interseção agora produz a categoria de referência ao codificar variáveis de texto, a fim de corresponder ao comportamento R nativo. Isso poderá mudar os resultados do treino do modelo. -
[SPARK-21027]: O paralelismo padrão usado agora
OneVsRestestá definido como 1 (ou seja, serial). Na versão 2.2 e versões anteriores, o nível de paralelismo foi definido como o tamanho padrão do threadpool no Scala. Isso pode alterar o desempenho. -
[SPARK-21523]: Breeze atualizado para
0.13.2. Isso incluiu uma importante correção de bug na forte busca de linha Wolfe para L-BFGS. - [SPARK-15526]: A dependência JPMML agora está sombreada.
- Consulte também a seção "Correções de bugs" para alterações de comportamento resultantes da correção de bugs.
Problemas conhecidos
-
[Spark-23523][SQL]: Resultado incorreto causado pela regra
OptimizeMetadataOnlyQuery. - [SPARK-23406]: Bugs em auto-junções entre fluxos.
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 4.0.
Ambiente do sistema
- Sistema Operacional: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Escala: 2.11.8
- Python: 2.7.12 (ou 3.5.2 se utilizar Python 3)
- R: R versão 3.4.3 (2017-11-30)
-
Clusters GPU: As seguintes bibliotecas GPU NVIDIA estão instaladas
- Piloto da Tesla 375.66
- CUDA 8,0
- CUDNN 6,0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | Argparse | 1.2.1 | backports-abc | 0,5 |
| botão | 2.42.0 | Boto3 | 1.4.1 | Botocore | 1.4.70 |
| cervejeiro2mpl | 1.4.1 | certifi | 2016.2.28 | CFFI | 1.7.0 |
| Chardet | 2.3.0 | Colorama | 0.3.7 | configobj | 5.0.6 |
| criptografia | 1.5 | ciclista | 0.10.0 | Quisto | 0.24.1 |
| decorador | 4.0.10 | Docutils | 0.14 | ENUM34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | futuros | 3.2.0 | Ggplot | 0.6.8 |
| html5lib | 0.999 | IDNA | 2.1 | endereço IP | 1.0.16 |
| IPython | 2.2.0 | ipython-genutils | 0.1.0 | JDCAL | 1.2 |
| Jinja2 | 2.8 | JmesPath | 0.9.0 | LLVMLITE | 0.13.0 |
| LXML | 3.6.4 | Marcação Segura | 0.23 | Matplotlib | 1.5.3 |
| MPLD3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| Dormência | 0.28.1 | dormência | 1.11.1 | openpyxl (biblioteca para manipular ficheiros Excel em Python) | 2.3.2 |
| pandas | 0.19.2 | Pathlib2 | 2.1.0 | ingénuo | 0.4.1 |
| Espere | 4.0.1 | pickleshare | 0.7.4 | Almofada | 3.3.1 |
| pip (o gestor de pacotes do Python) | 9.0.1 | camada | 3.9 | kit de ferramentas de prompt | 1.0.7 |
| PSYCOPG2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| Pyarrow | 0.8.0 | Piasn1 | 0.1.9 | Pycparser | 2.14 |
| Pigmentos | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| Pyparsing | 2.2.0 | PYPNG | 0.0.18 | Python | 2.7.12 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.5.3 | Python-Geohash | 0.8.5 | Pytz | 1.6.2016 |
| pedidos | 2.11.1 | s3transferir | 0.1.9 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.18.1 |
| SciPy | 0.18.1 | vasculhar | 0.32 | nascido no mar | 0.7.1 |
| Ferramentas de configuração | 38.5.1 | simplejson | 3.8.2 | simples3 | 1.0 |
| despacho único | 3.4.0.3 | seis | 1.10.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.6.1 |
| tornado | 4.5.3 | traços | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | largura de wc | 0.1.7 | wheel | 0.30.0 |
| WSGIREF | 0.1.2 |
Bibliotecas R instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Abind | 1.4-5 | asserçãoat | 0.2.0 | Retroportagens | 1.1.1 |
| base | 3.4.3 | Belo Horizonte | 1.65.0-1 | Bindr | 0.1 |
| Bindrcpp | 0.2 | pouco | 1.1-12 | bit64 | 0.9-7 |
| Bitops | 1.0-6 | blob | 1.1.0 | arranque | 1.3-20 |
| preparar | 1.0-6 | vassoura | 0.4.3 | carro | 2.1-6 |
| circunflexo | 6.0-77 | crono | 2.3-51 | classe | 7.3-14 |
| cluster | 2.0.6 | CodeTools | 0.2-15 | espaço em cores | 1.3-2 |
| marca comum | 1.4 | compilador | 3.4.3 | lápis de cor | 1.3.4 |
| encaracolar | 3.0 | Trombose do Seio Venoso Cerebral (CVST) | 0.2-1 | tabela de dados | 1.10.4-3 |
| conjuntos de dados | 3.4.3 | DBI | 0,7 | DDALPHA | 1.3.1 |
| DEoptimR | 1.0-8 | descrição | 1.1.1 | DevTools | 1.13.4 |
| dicromata | 2.0-0 | resumo | 0.6.12 | Vermelho escuro | 0.1.0 |
| doMC | 1.3.4 | DPLYR | 0.7.4 | Redução do Risco de Desastres (RRD) | 0.0.2 |
| para cada | 1.4.3 | externa | 0.8-69 | GBM | 2.1.3 |
| GGPLOT2 | 2.2.1 | Git2R | 0.19.0 | GLMNET | 2.0-13 |
| colar | 1.2.0 | Gower | 0.1.2 | gráficos | 3.4.3 |
| grDispositivos | 3.4.3 | grelha | 3.4.3 | GSUBFN | 0.6-6 |
| tabela g | 0.2.0 | H2O | 3.16.0.1 | HTTR | 1.3.1 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| iteradores | 1.0.8 | jsonlite | 1.5 | Kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | etiquetagem | 0,3 | treliça | 0.20-35 |
| lave | 1.5.1 | preguiça | 0.2.1 | menor | 0.3.2 |
| LME4 | 1.1-14 | lubridato | 1.7.1 | Magrittr | 1.5 |
| Mapproj | 1.2-5 | mapas | 3.2.0 | MASSA | 7.3-48 |
| Matriz | 1.2-11 | MatrizModels | 0.4-1 | memorização | 1.1.0 |
| métodos | 3.4.3 | MGCV | 1.8-23 | mímica | 0,5 |
| Minqa | 1.2.4 | Mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
| Munsell | 0.4.3 | MVTnorm | 1.0-6 | NLME | 3.1-131 |
| NLOPTR | 1.0.4 | NNET | 7.3-12 | numDeriv | 2016.8-1 |
| openssl (conjunto de ferramentas para criptografia) | 0.9.9 | paralelo | 3.4.3 | pbkrtest | 0.4-7 |
| pkgconfig | 2.0.1 | pkgGatinho | 0.1.4 | plogr | 0.1-1 |
| Plyr | 1.8.4 | elogiar | 1.0.0 | pROC | 1.10.0 |
| Prodlim | 1.6.1 | prototipo | 1.0.0 | psique | 1.7.8 |
| ronronar | 0.2.4 | Quantreg | 5.34 | R.métodosS3 | 1.7.1 |
| R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
| Floresta Aleatória | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
| RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
| receitas | 0.1.1 | remodelar2 | 1.4.2 | Rlang | 0.1.4 |
| base robusta | 0.92-8 | RODBC | 1.3-15 | oxigénio2 | 6.0.1 |
| rpart (função de partição recursiva em R) | 4.1-12 | rprojroot | 1.2 | Reserva | 1.7-3 |
| RSQLite | 2.0 | rstudioapi | 0,7 | escalas | 0.5.0 |
| sfsmisc | 1.1-1 | SP | 1.2-5 | Faísca | 2.3.0 |
| SparseM | 1.77 | espacial | 7.3-11 | estrias | 3.4.3 |
| sqldf | 0.4-11 | estatmod | 1.4.30 | estatísticas | 3.4.3 |
| estatísticas4 | 3.4.3 | string | 1.1.6 | stringr | 1.2.0 |
| sobrevivência | 2.41-3 | tcltk (uma linguagem de programação) | 3.4.3 | Demonstrações de Ensino | 2.10 |
| teste que | 1.0.2 | Tibble | 1.3.4 | Tidyr | 0.7.2 |
| arrumadoselecionar | 0.2.3 | data e hora | 3042.101 | ferramentas | 3.4.3 |
| utilitários | 3.4.3 | viridisLite | 0.2.0 | vibrissa | 0.3-2 |
| murchar | 2.1.0 | XML2 | 1.1.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.7.3 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.253 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.253 |
| com.amazonaws | aws-java-sdk-core | 1.11.253 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
| com.amazonaws | aws-java-sdk-diretório | 1.11.253 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
| com.amazonaws | aws-java-sdk-efs | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
| com.amazonaws | aws-java-sdk-emr | 1.11.253 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-iam | 1.11.253 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
| com.amazonaws | aws-java-sdk-kms | 1.11.253 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
| com.amazonaws | aws-java-sdk-logs | 1.11.253 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.253 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
| com.amazonaws | aws-java-sdk-rds | 1.11.253 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
| com.amazonaws | aws-java-sdk-rota53 | 1.11.253 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
| com.amazonaws | AWS Java SDK para SES | 1.11.253 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
| com.amazonaws | aws-java-sdk-sns | 1.11.253 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.253 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.253 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.253 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
| com.amazonaws | jmespath-java | 1.11.253 |
| com.carrotsearch | HPPC | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | fluxo | 2.7.0 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | DBML-local_2,11 | 0.3.0-DB1-Faísca2.3 |
| com.databricks | dbml-local_2.11-testes | 0.3.0-DB1-Faísca2.3 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | SCALAPB-runtime_2,11 | 0.4.15-9 |
| com.esotericsoftware | sombreado de kryo | 3.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.0.0 |
| com.fasterxml.jackson.core | jackson-anotações | 2.6.7 |
| com.fasterxml.jackson.core | Jackson-Core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.11 | 2.6.7.1 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.3.2-2 |
| com.github.rwl | Jtransforms | 2.4.0 |
| com.google.code.findbugs | JSR305 | 2.0.1 |
| com.google.code.gson | Gson | 2.2.4 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2banco de dados | h2 | 1.3.174 |
| com.jamesmurty.utils | Java-XmlBuilder | 1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.mchange | C3P0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | azure-data-lake-store-SDK | 2.0.11 |
| com.microsoft.sqlserver | MSSQL-JDBC | 6.2.2.JRE8 |
| com.ning | compressa-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | Chill-java | 0.8.4 |
| com.twitter | chill_2.11 | 0.8.4 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocidade | analisadores de univocidade | 2.5.9 |
| com.vlkan | flatbuffers | 1.2.0-3F79E055 |
| com.zaxxer | HikariCP | 2.4.1 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| codec commons | codec commons | 1.10 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-configuração | commons-configuração | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digestor | commons-digestor | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 2.2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.ponte aérea | compressor de ar | 0.8 |
| io.dropwizard.metrics | métricas-base | 3.1.5 |
| io.dropwizard.metrics | métricas-Ganglia | 3.1.5 |
| io.dropwizard.metrics | métricas-grafite | 3.1.5 |
| io.dropwizard.metrics | métricas e verificações de saúde | 3.1.5 |
| io.dropwizard.metrics | métricas-jetty9 | 3.1.5 |
| io.dropwizard.metrics | métricas-json | 3.1.5 |
| io.dropwizard.metrics | métricas do JVM | 3.1.5 |
| io.dropwizard.metrics | métricas-log4j | 3.1.5 |
| io.dropwizard.metrics | Métricas-Servlets | 3.1.5 |
| io.netty | biblioteca Netty | 3.9.9.Final |
| io.netty | netty-tudo | 4.1.17.Final |
| io.prometeu | cliente simples | 0.0.16 |
| io.prometeu | simpleclient_comum | 0.0.16 |
| io.prometeu | simpleclient_dropwizard | 0.0.16 |
| io.prometeu | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | recoletor | 0,7 |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | JSP-API | 2.1 |
| javax.transaction | JTA | 1.1 |
| javax.validação | API de validação | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.11 |
| Joda-Time | Joda-Time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hidromática | eigenbase-propriedades | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | Jatos 3T | 0.9.4 |
| net.razorvine | pirolite | 4.13 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt | ONCRPC | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.4 |
| org.antlr | antlr4-tempo de execução | 4.7 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 0.8.0 |
| org.apache.arrow | seta-memória | 0.8.0 |
| org.apache.arrow | vetor de seta | 0.8.0 |
| org.apache.avro | Avro | 1.7.7 |
| org.apache.avro | AVRO-IPC | 1.7.7 |
| org.apache.avro | avro-ipc-tests (testes de IPC do Avro) | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | calcita-avatica | 1.2.0 incubação |
| org.apache.calcite | núcleo de calcita | 1.2.0 incubação |
| org.apache.calcite | calcita-linq4j | 1.2.0 incubação |
| org.apache.commons | commons-comprimir | 1.4.1 |
| org.apache.commons | commons-cripto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-matemática3 | 3.4.1 |
| org.apache.curador | curador-cliente | 2.7.1 |
| org.apache.curador | curador-framework | 2.7.1 |
| org.apache.curador | curador-de-receitas | 2.7.1 |
| org.apache.derby | Dérbi | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | API-Util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop-annotations (anotações do hadoop) | 2.7.3 |
| org.apache.hadoop | autenticação do Hadoop | 2.7.3 |
| org.apache.hadoop | Cliente Hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-comum | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-cliente-core | 2.7.3 |
| org.apache.hadoop | Cliente de Trabalho Hadoop MapReduce | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-cliente | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-comum | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) | 2.7.3 |
| org.apache.htrace | htrace-núcleo | 3.1.0 incubação |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | Núcleo Http | 4.4.8 |
| org.apache.ivy | hera | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.1 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
| org.apache.parquet | parquet-coluna | 1.8.2-DATABRICKS1 |
| org.apache.parquet | parquet-comum | 1.8.2-DATABRICKS1 |
| org.apache.parquet | codificação-parquet | 1.8.2-DATABRICKS1 |
| org.apache.parquet | formato parquet | 2.3.1 |
| org.apache.parquet | Parquet-Hadoop | 1.8.2-DATABRICKS1 |
| org.apache.parquet | Parquet-Jackson | 1.8.2-DATABRICKS1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-sombreado | 4.4 |
| org.apache.zookeeper | tratador de animais | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1.58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | Jackson-Jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | Jackson-XC | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.8 |
| org.codehaus.janino | Janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | DataNucleus Core | 3.2.10 |
| org.datanucleus | Datanucleus-RDBMS | 3.2.9 |
| org.eclipse.píer | Jetty-Cliente | 9.3.20.v20170531 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-HTTP | 9.3.20.v20170531 |
| org.eclipse.píer | Molhe IO | 9.3.20.v20170531 |
| org.eclipse.píer | Cais-JNDI | 9.3.20.v20170531 |
| org.eclipse.píer | Cais-Plus | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-Proxy | 9.3.20.v20170531 |
| org.eclipse.píer | Segurança do Jetty | 9.3.20.v20170531 |
| org.eclipse.píer | servidor jetty | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-util | 9.3.20.v20170531 |
| org.eclipse.píer | Aplicação web Jetty | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-XML | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.4.0-B34 |
| org.glassfish.hk2 | localizador hk2 | 2.4.0-B34 |
| org.glassfish.hk2 | HK2-Utils | 2.4.0-B34 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.1 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.4.0-B34 |
| org.glassfish.hk2.externo | javax.injet | 2.4.0-B34 |
| org.glassfish.jersey.bundles.reembalado | Jersey-Goiaba | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-cliente | 2.22.2 |
| org.glassfish.jersey.core | Jersey comum | 2.22.2 |
| org.glassfish.jersey.core | servidor de jersey | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | hibernate-validator (ferramenta de validação de dados de Java) | 5.1.1.Final |
| org.iq80.snappy | rápido | 0.2 |
| org.javassist | Javassist | 3.18.1-GA |
| org.jboss.logging | jboss-registro em log | 3.1.3.GA |
| org.jdbi | JDBI | 2.63.1 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.11 | 3.2.11 |
| org.json4s | JSON4S-core_2.11 | 3.2.11 |
| org.json4s | JSON4S-jackson_2.11 | 3.2.11 |
| org.lz4 | LZ4-Java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.1.2 |
| org.mockito | mockito-tudo | 1.9.5 |
| org.objenesis | objenese | 2.1 |
| org.postgresql | PostgreSQL | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,11 | 2.11.8 |
| org.scala-lang | Escala-library_2,11 | 2.11.8 |
| org.scala-lang | Escala-reflect_2,11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2,11 | 1.0.2 |
| org.scala-lang.modules | Escala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | Brisa-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.16 |
| org.slf4j | jul-para-slf4j | 1.7.16 |
| org.slf4j | SLF4J-API | 1.7.16 |
| org.slf4j | SLF4J-Log4J12 | 1.7.16 |
| org.spark-project.hive | colmeia-abelha | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-CLI | 1.2.1.faísca2 |
| org.spark-project.hive | hive-exec | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-JDBC | 1.2.1.faísca2 |
| org.spark-project.hive | sistema de metadados do Hive | 1.2.1.faísca2 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.spire-matemática | torre-macros_2.11 | 0.13.0 |
| org.spire-matemática | spire_2.11 | 0.13.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.tukaani | XZ | 1.0 |
| org.typelevel | mecânico_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.2.6 |
| org.yaml | Snakeyaml | 1.16 |
| ouro | ouro | 2.0.8 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |
| XMLENC | XMLENC | 0.52 |