Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
A Databricks lançou esta versão em julho de 2018.
Importante
Esta versão foi preterida em 5 de março de 2019. Para obter mais informações sobre a política e o cronograma de substituição do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 4.2, desenvolvido pelo Apache Spark.
Lago Delta
O Databricks Runtime 4.2 adiciona grandes melhorias de qualidade e funcionalidade ao Delta Lake. A Databricks recomenda vivamente que todos os clientes Delta Lake atualizem para o novo tempo de execução. Esta versão permanece na Pré-visualização Privada, mas representa uma versão candidata em antecipação à próxima versão de disponibilidade geral (GA).
Novas funcionalidades
- Os fluxos agora podem ser gravados diretamente em uma tabela Delta registrada no metastore do Hive usando
df.writeStream.table(...).
Melhorias
Todos os comandos e consultas Delta Lake agora suportam referência a uma tabela usando seu caminho como identificador:
delta.`<path-to-table>`Anteriormente,
OPTIMIZEeVACUUMexigiam o uso não padrão de literais de cadeias de caracteres (ou seja,'<path-to-table>').DESCRIBE HISTORYagora inclui o ID de confirmação e é ordenado do mais novo para o mais antigo por padrão.
Correções de erros
- A filtragem baseada em predicados de partição agora opera corretamente, mesmo quando o caso dos predicados difere do da tabela.
- Corrigida a ausência da coluna
AnalysisExceptionao realizar verificações de igualdade nas colunas booleanas das tabelas Delta (ou seja,booleanValue = true). -
CREATE TABLEnão modifica mais o log de transações ao criar um ponteiro para uma tabela existente. Isso evita conflitos desnecessários com fluxos simultâneos e permite a criação de um ponteiro de metastore para tabelas onde o utilizador só tem acesso de leitura aos dados. - Chamar
display()um fluxo com grandes quantidades de dados não causa mais OOM no driver. -
AnalysisExceptionagora é lançado quando um caminho Delta Lake subjacente é excluído, em vez de retornar resultados vazios. - As configurações do Delta Lake que exigem uma versão de protocolo específica (por exemplo,
appendOnly) só podem ser aplicadas a tabelas em uma versão apropriada. - Ao atualizar o estado de uma tabela Delta, linhagens longas agora são automaticamente truncadas para evitar um
StackOverFlowError.
Transmissão em Fluxo Estruturada
Novas funcionalidades
- Delta Lake e Kafka agora suportam totalmente o Trigger.Once. Limites de taxa anteriores (por exemplo
maxOffsetsPerTriggeroumaxFilesPerTrigger) especificados como opções de origem ou padrões poderiam resultar em apenas uma execução parcial dos dados disponíveis. Essas opções agora são ignoradas quandoTrigger.Oncesão usadas, permitindo que todos os dados atualmente disponíveis sejam processados.
- Adicionado novo
foreachBatch()de streaming no Scala, onde você pode definir uma função para processar a saída de cada microlote usando operações DataFrame. Isso permite o seguinte:- Usando fontes de dados em lote existentes para gravar saídas de microlote em sistemas que ainda não têm uma fonte de dados de streaming (por exemplo, use o gravador de lote Cassandra em cada saída de microlote).
- Gravação de resultados de microbatch em vários locais.
- Aplicação de operações em DataFrames e tabelas em saídas de microlote que ainda não são suportadas em DataFrames de streaming (por exemplo, inserir/upsert a saída de microlote numa tabela Delta).
- Adicionadas
from_avro/to_avrofunções para ler e gravar dados Avro num DataFrame em vez de apenas arquivos, semelhante aofrom_json/to_json. Consulte Ler e gravar dados Avro em qualquer lugar para obter mais detalhes. - Adicionado suporte para streaming
foreach()em Python (já disponível em Scala). Consulte a documentação sobre foreach e foreachBatch para obter mais detalhes.
Melhorias
- Geração mais rápida de resultados de saída e/ou limpeza de estado com operações stateful (
mapGroupsWithState, stream-stream join, streaming aggregation, streaming dropDuplicates) quando não há dados no fluxo de entrada.
Correções de erros
- Corrigido o bug de correção de precisão SPARK-24588 na junção entre fluxos, onde a junção relatava menos resultados quando há uma repartição explícita antes desta (por exemplo,
df1.repartition("a", "b").join(df, "a")).
Outras Alterações e Melhorias
- Adicionado suporte para o comando SQL Deny para clusters habilitados para controle de acesso à tabela. Os usuários agora podem negar permissões específicas da mesma forma que podiam ser concedidas antes. Uma permissão negada substituirá uma permissão concedida. Administradores e proprietários de um determinado objeto ainda têm sempre permissão para executar ações.
- Nova origem de dados do Azure Data Lake Storage, utilizando o driver ABFS. Consulte Conectar-se ao Armazenamento do Azure Data Lake e ao Armazenamento de Blobs
- Atualizado algumas bibliotecas Python instaladas:
- pip: de 10.0.0b2 a 10.0.1
- setuptools: de 39.0.1 a 39.2.0
- tornado: 5.0.1 a 5.0.2
- roda: 0.31.0 a 0.31.1
- Atualizadas várias bibliotecas R instaladas. Consulte Bibliotecas R instaladas.
- Suporte melhorado ao Parquet
- Apache ORC atualizado de 1.4.1 para 1.4.3
Apache Spark
O Databricks Runtime 4.2 inclui o Apache Spark 2.3.1. Esta versão inclui todas as correções e melhorias incluídas no Databricks Runtime 4.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- junção de streaming [SPARK-24588][SS] deve exigir HashClusteredPartitioning de crianças
- [c0][SPARK-23931][/c0][SQL] Torne em function.scala
arrays_zip. - [SPARK-24633][SQL] Corrija o codegen quando a divisão for necessária para arrays_zip
- [SPARK-24578][CORE] Limitar o tamanho da sub-região do buffer nio retornado
- [SPARK-24613][SQL] Cache com UDF poderia não ser correspondido com caches dependentes subsequentes
- [SPARK-24583][SQL] Tipo de esquema errado em InsertIntoDataSourceCommand
- [SPARK-24565][SS] Adicionar API no Structured Streaming de forma a expor linhas de saída de cada microlote como um DataFrame
- [SPARK-24396][SS][PYSPARK] Adicionar Structured Streaming ForeachWriter para Python
- [SPARK-24216][SQL] Spark TypedAggregateExpression usa getSimpleName que não é seguro no o Scala
- [FAÍSCA-24452][SQL][CORE] Evite possíveis transbordos em adição ou multiplicação de inteiros.
- [SPARK-24187][R][SQL] Adicionar a função array_join ao SparkR
- [SPARK-24525][SS] Fornecer uma opção para limitar o número de linhas em um MemorySink
- [SPARK-24331][SPARKR][SQL] Adicionando arrays_overlap, array_repeat, map_entries ao SparkR
- [SPARK-23931][SQL] Adiciona a função arrays_zip no Spark SQL
- [SPARK-24186][R][SQL] alterar funções reverse e concat para funções de coleção em R
- [SPARK-24198][SPARKR][SQL] Adicionando função slice ao SparkR
- [SPARK-23920][SQL] adicionar array_remove para remover todos os elementos que igualam elemento da matriz
- [SPARK-24197][SPARKR][SQL] Adição da função array_sort ao SparkR
- [SPARK-24340][CORE] Limpeza de ficheiros do gerenciador de blocos de disco não pertencentes ao shuffle após as saídas do executor num cluster autónomo
- [SPARK-23935][SQL] Adicionar função map_entries
- [SPARK-24500][SQL] Assegure que os fluxos são materializados durante as transformações das árvores.
- [SPARK-24495][SQL] EnsureRequirement retorna o plano errado ao reordenar chaves iguais
- [SPARK-24506][IU] Adicionar filtros à interface em separadores adicionados após a vinculação
- [SPARK-24468][SQL] Manipular escala negativa ao ajustar a precisão para operações decimais
- [SPARK-24313][SQL] Corrigir a avaliação interpretada das operações de coleção para tipos complexos
- [SPARK-23922][SQL] Adicionar função arrays_overlap
- [SPARK-24369][SQL] Tratamento correto para várias agregações distintas com o mesmo conjunto de argumentos
- [SPARK-24455][CORE] corrigir erro de digitação no comentário TaskSchedulerImpl
- [SPARK-24397][PYSPARK] Adicionado TaskContext.getLocalProperty(key) em Python
- [SPARK-24117][SQL] Unificou o getSizePerRow
- [FAÍSCA-24156][SS] Corrigir erro ao recuperar da falha num lote sem dados
- [SPARK-24414][UI] Calcule o número correto de tarefas para uma fase.
- [SPARK-23754][PYTHON] Relançamento da StopIteration no código do cliente
- [SPARK-23991][DSTREAMS] Corrigir a perda de dados quando a gravação WAL falha em allocateBlocksToBatch
- [SPARK-24373][SQL] Adicionar AnalysisBarrier ao filho de RelationalGroupedDataset e KeyValueGroupedDataset
- [SPARK-24392][PYTHON] Rotular pandas_udf como Experimental
- [FAÍSCA-24334] Corrigir condição de corrida no ArrowPythonRunner causa desligamento impuro do alocador de memória Arrow
- [SPARK-19112][CORE] Adicione os shortCompressionCodecNames ausentes à configuração.
- [SPARK-24244][SPARK-24368][SQL] Passando apenas as colunas necessárias para o analisador CSV
- [FAÍSCA-24366][SQL] Aprimoramento das mensagens de erro para conversão de tipo
- [SPARK-24371][SQL] Adicionado isInCollection na API DataFrame para Scala e…
- [SPARK-23925][SQL] Adicionar a função de coleção array_repeat
- [MENOR] Adicionar configuração da porta SSL em toString e scaladoc
- [SPARK-24378][SQL] Corrigir função date_trunc exemplos incorretos
- [SPARK-24364][SS] Impedir que InMemoryFileIndex falhe se o caminho do arquivo não existir
- [SPARK-24257][SQL] LongToUnsafeRowMap ao calcular o novo tamanho poderá estar incorreto
- [SPARK-24348]Correção de erro "element_at" [SQL]
- [SPARK-23930][SQL] Adicionar função slice
- [SPARK-23416][SS] Adicionar um método stop específico para ContinuousExecution.
- [SPARK-23852][SQL] Atualização para o Parquet 1.8.3
- [SPARK-24350][SQL] Corrige ClassCastException na função "array_position"
- [FAÍSCA-24321][SQL] Extrair código comum de Divisão/Restante para um traço base
- [FAÍSCA-24309][CORE] AsyncEventQueue deve ser interrompida ao receber uma interrupção.
- [SPARK-23850][SQL] Adicionar configuração separada para ocultação de opções SQL.
- [SPARK-22371][CORE] Retornar None em vez de lançar uma exceção quando um acumulador é recolhido pelo coletor de lixo.
- [SPARK-24002][SQL] Tarefa não serializável causada por org.apache.parquet.io.api.Binary$ByteBufferBackedBinary.getBytes
- [SPARK-23921][SQL] Adicionar função array_sort
- [SPARK-23923][SQL] Adicionar função de cardinalidade
- [FAÍSCA-24159][SS] Habilite microlotes sem dados para streaming mapGroupswithState
- [SPARK-24158][SS] Habilitar lotes sem conteúdo para uniões de streaming
- [SPARK-24157][SS] Ativação de lotes sem dados no MicroBatchExecution para agregação e desduplicação em streaming
- [SPARK-23799][SQL] FilterEstimation.evaluateInSet produz estatísticas erradas para STRING
- [SPARK-17916][SQL] Corrija a cadeia de caracteres vazia que está sendo analisada como nula quando nullValue é definido.
- [SPARK-23916][SQL] Adicionar função array_join
- [SPARK-23408][SS] Sincronizar ações sucessivas de AddData na Streaming*JoinSuite
- [SPARK-23780][R] Não foi possível usar a biblioteca googleVis com o novo SparkR
- [SPARK-23821][SQL] Função de coleção: achatar
- [SPARK-23627][SQL] Fornecer isEmpty no Conjunto de Dados
- [SPARK-24027][SQL] Suportar MapType com StringType para chaves como tipo raiz utilizando from_json
- [SPARK-24035][SQL] Sintaxe SQL para Pivot - corrigir aviso ANTLR
- [SPARK-23736][SQL] Estendendo a função concat para suportar colunas de matriz
- [SPARK-24246][SQL] Melhore AnalysisException definindo a causa quando ela estiver disponível
- [SPARK-24263][R] Verificação java do SparkR falha com openjdk
- [SPARK-24262][PYTHON] Corrigir erro ortográfico na mensagem de erro de correspondência de tipo UDF
- [SPARK-24067][STREAMING][KAFKA] Permitir compensações não consecutivas
- [SPARK-10878][CORE] Corrigir condição de corrida quando vários clientes resolvem artefatos ao mesmo tempo
- [SPARK-19181][CORE] Corrigindo métricas instáveis "SparkListenerSuite.local"
- [FAÍSCA-24068]Propagando as opções de DataFrameReader para fonte de dados de texto na inferência de esquema
- [SPARK-24214][SS] Corrigir toJSON para StreamingRelationV2/StreamingExecutionRelation/ContinuousExecutionRelation
- [SPARK-23919][SPARK-23924][SPARK-24054][SQL] Adicionar função array_position/element_at
- [FAÍSCA-23926][SQL] Estendendo a função inversa para dar suporte a argumentos ArrayType
- [SPARK-23809][SQL] Ative SparkSession deve ser definido por getOrCreate
- [FAÍSCA-23094][FAÍSCA-23723][FAÍSCA-23724][SQL] Suporte a codificação personalizada para arquivos json
- [SPARK-24035][SQL] Sintaxe SQL para Pivot
- [SPARK-24069][R] Adicionar funções array_min / array_max
- [FAÍSCA-23976][CORE] Detetar estouro de comprimento em UTF8String.concat()/ByteArray.concat()
- [SPARK-24188][CORE] Restaurar o ponto de extremidade da API "/version".
- [SPARK-24128][SQL] Mencionar opção de configuração no erro CROSS JOIN implícito
- [SPARK-23291][SQL][R] O substr de R não deve reduzir a posição inicial em 1 ao chamar a API Scala.
- [SPARK-23697][CORE] LegacyAccumulatorWrapper deve definir isZero corretamente
- [SPARK-24168][SQL] WindowExec não deve aceder ao SQLConf no lado do executor
- [SPARK-24143] filtrar blocos vazios ao converter o estado do mapa em pares de (blockId, size)
- [SPARK-23917][SPARK-23918][SQL] Adicionar função array_max/array_min
- [FAÍSCA-23905][SQL] Adicionar UDF durante a semana
- [SPARK-16406][SQL] Melhorar o desempenho do LogicalPlan.resolve
- [SPARK-24013][SQL] Remover compressão desnecessária no ApproximatePercentile
- [SPARK-23433][CORE] Conclusões tardias de tarefas zumbi atualizam todos os conjuntos de tarefas
- [FAÍSCA-24169][SQL] JsonToStructs não deve acessar SQLConf no lado do executor
- [SPARK-24133][SQL] Backport [SPARK-24133]Verifique se há estouros de inteiros ao redimensionar WritableColumnVectors
- [FAÍSCA-24166][SQL] InMemoryTableScanExec não deve aceder ao SQLConf no lado do executor
- [FAÍSCA-24133][SQL] Verifique se há estouros de inteiros ao redimensionar WritableColumnVectors
- [SPARK-24085][SQL] Query retorna UnsupportedOperationException quando a subconsulta escalar está presente na expressão de particionamento
- [SPARK-24062][THRIFT SERVER] Corrigir o problema da incapacidade de ativar a criptografia SASL no servidor Thrift
- [SPARK-23004][SS] Garanta que o StateStore.commit seja chamado apenas uma vez numa tarefa de agregação de streaming
- [SPARK-23188][SQL] Permitir configurar o tamanho do lote do leitor de colunas vetorizado
- [SPARK-23375][SPARK-23973][SQL] Elimine a classificação desnecessária no Otimizador
- [SPARK-23877][SQL] Usar predicados de filtro para podar partições em consultas somente de metadados.
- [SPARK-24033][SQL] Corrigir incompatibilidade de estrutura de janela especificada windowframe(RowFrame, -1, -1)
- [SPARK-23340][SQL] Atualizar Apache ORC para 1.4.3
- Corrija um problema de verificação de nulo ausente que provavelmente é acionado pela geração simplificada de código de expressão, e que foi exposto pelo SPARK-23986 porque fez com que o código-fonte gerado ficasse um pouco mais longo e ativasse o caminho de código problemático (divisão de código por Expression.reduceCodeSize()).
- [SPARK-23989][SQL] A troca deve copiar dados antes do shuffle não serializado
- [SPARK-24021][CORE] corrigir bug na atualização do BlacklistTrackerBlacklistForFetchFailure
- [FAÍSCA-24014][PYSPARK] Adicionar método onStreamingStarted para StreamingListener
- [SPARK-23963][SQL] Manipule corretamente um grande número de colunas na consulta na tabela Hive baseada em texto
- [SPARK-23948] Acionar o listener de jobs do mapstage no submitMissingTasks
- [SPARK-23986][SQL] FreshName pode gerar nomes não exclusivos
- [SPARK-23835][SQL] Adicionar verificação não-nula à desserialização de argumentos de Tuplas
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 4.2.
Ambiente do sistema
- Sistema Operacional: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Escala: 2.11.8
- Python: 2.7.12 para clusters Python 2 e 3.5.2 para clusters Python 3.
- R: R versão 3.4.4 (2018-03-15)
-
Clusters de GPU: As seguintes bibliotecas de GPU NVIDIA estão instaladas:
- Piloto da Tesla 375.66
- CUDA 9,0
- cuDNN 7,0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | Argparse | 1.2.1 | backports-abc | 0,5 |
| botão | 2.42.0 | Boto3 | 1.4.1 | Botocore | 1.4.70 |
| cervejeiro2mpl | 1.4.1 | certifi | 2016.2.28 | CFFI | 1.7.0 |
| Chardet | 2.3.0 | Colorama | 0.3.7 | configobj | 5.0.6 |
| criptografia | 1.5 | ciclista | 0.10.0 | Cython | 0.24.1 |
| decorador | 4.0.10 | Docutils | 0.14 | ENUM34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | futuros | 3.2.0 | Ggplot | 0.6.8 |
| html5lib | 0.999 | IDNA | 2.1 | endereço IP | 1.0.16 |
| IPython | 2.2.0 | ipython-genutils | 0.1.0 | JDCAL | 1.2 |
| Jinja2 | 2.8 | JmesPath | 0.9.0 | LLVMLITE | 0.13.0 |
| LXML | 3.6.4 | Marcação Segura | 0.23 | Matplotlib | 1.5.3 |
| MPLD3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| Dormência | 0.28.1 | dormência | 1.11.1 | openpyxl (biblioteca para manipular ficheiros Excel em Python) | 2.3.2 |
| pandas | 0.19.2 | Pathlib2 | 2.1.0 | bode expiatório | 0.4.1 |
| Espere | 4.0.1 | pickleshare | 0.7.4 | Almofada | 3.3.1 |
| pip (o gestor de pacotes do Python) | 10.0.1 | camada | 3.9 | kit de ferramentas de prompt | 1.0.7 |
| PSYCOPG2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| Pyarrow | 0.8.0 | Piasn1 | 0.1.9 | Pycparser | 2.14 |
| Pigmentos | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| Pyparsing | 2.2.0 | PYPNG | 0.0.18 | Python | 2.7.12 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.5.3 | Python-Geohash | 0.8.5 | Pytz | 1.6.2016 |
| pedidos | 2.11.1 | s3transferência | 0.1.9 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.18.1 |
| SciPy | 0.18.1 | vasculhar | 0.32 | nascido no mar | 0.7.1 |
| Ferramentas de configuração | 39.2.0 | simplejson | 3.8.2 | simples3 | 1.0 |
| despacho único | 3.4.0.3 | seis | 1.10.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.6.1 |
| tornado | 5.0.2 | traços | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | largura de wc | 0.1.7 | wheel | 0.31.1 |
| WSGIREF | 0.1.2 |
Bibliotecas R instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Abind | 1.4-5 | asserçãoat | 0.2.0 | retrocessos | 1.1.2 |
| base | 3.4.4 | Belo Horizonte | 1.66.0-1 | Bindr | 0.1.1 |
| Bindrcpp | 0.2.2 | pouco | 1.1-12 | bit64 | 0.9-7 |
| Bitops | 1.0-6 | blob | 1.1.1 | arranque / bota | 1.3-20 |
| preparar | 1.0-6 | vassoura | 0.4.4 | carro | 3.0-0 |
| dadosDoCarro | 3.0-1 | sinal de inserção | 6.0-79 | Cellranger | 1.1.0 |
| crono | 2.3-52 | classe | 7.3-14 | CLI | 1.0.0 |
| cluster | 2.0.7-1 | CodeTools | 0.2-15 | espaço de cores | 1.3-2 |
| marca comum | 1.4 | compilador | 3.4.4 | lápis de cor | 1.3.4 |
| encaracolar | 3.2 | Trombose do Seio Venoso Cerebral (CVST) | 0.2-1 | tabela de dados | 1.10.4-3 |
| conjuntos de dados | 3.4.4 | DBI | 0.8 | DDALPHA | 1.3.1.1 |
| DEoptimR | 1.0-8 | descrição | 1.1.1 | DevTools | 1.13.5 |
| dicromata | 2.0-0 | resumo | 0.6.15 | Vermelho escuro | 0.1.0 |
| doMC | 1.3.5 | DPLYR | 0.7.4 | Redução do Risco de Desastres (RRD) | 0.0.3 |
| FORCATS | 0.3.0 | para cada | 1.4.4 | estrangeiro/a | 0.8-70 |
| GBM | 2.1.3 | GGPLOT2 | 2.2.1 | Git2R | 0.21.0 |
| GLMNET | 2.0-16 | cola | 1.2.0 | Gower | 0.1.2 |
| gráficos | 3.4.4 | grDispositivos | 3.4.4 | grelha | 3.4.4 |
| GSUBFN | 0,7 | tabela g | 0.2.0 | H₂O | 3.16.0.2 |
| Refúgio | 1.1.1 | HMS (Navio de Sua Majestade) | 0.4.2 | HTTR | 1.3.1 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| iteradores | 1.0.9 | jsonlite | 1.5 | Kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | etiquetagem | 0,3 | treliça | 0.20-35 |
| lave | 1.6.1 | preguiça | 0.2.1 | menor | 0.3.3 |
| LME4 | 1.1-17 | lubridato | 1.7.3 | Magrittr | 1.5 |
| Mapproj | 1.2.6 | mapas | 3.3.0 | Ferramentas de mapa | 0.9-2 |
| MASSA | 7.3-50 | Matriz | 1.2-14 | Modelos de Matriz | 0.4-1 |
| memorizar | 1.1.0 | métodos | 3.4.4 | MGCV | 1.8-24 |
| mímica | 0,5 | Minqa | 1.2.4 | Mnormt | 1.5-5 |
| ModelMetrics | 1.1.0 | Munsell | 0.4.3 | MVTnorm | 1.0-7 |
| NLME | 3.1-137 | NLOPTR | 1.0.4 | NNET | 7.3-12 |
| numDeriv | 2016.8-1 | openssl (conjunto de ferramentas para criptografia) | 1.0.1 | OpenXLSX | 4.0.17 |
| paralelo | 3.4.4 | pbkrtest | 0.4-7 | pilar | 1.2.1 |
| pkgconfig | 2.0.1 | pkgGatinho | 0.1.4 | plogr | 0.2.0 |
| Plyr | 1.8.4 | elogiar | 1.0.0 | unidades elegantes | 1.0.2 |
| pROC | 1.11.0 | Prodlim | 1.6.1 | prototipo | 1.0.0 |
| psique | 1.8.3.3 | ronronar | 0.2.4 | Quantreg | 5,35 |
| R.métodosS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
| R6 | 2.2.2 | Floresta Aleatória | 4.6-14 | RColorBrewer | 1.1-2 |
| Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
| RCurl | 1.95-4.10 | Readr | 1.1.1 | ReadXL | 1.0.0 |
| receitas | 0.1.2 | revanche | 1.0.1 | remodelar2 | 1.4.3 |
| Rio | 0.5.10 | Rlang | 0.2.0 | base robusta | 0.92-8 |
| RODBC | 1.3-15 | oxigénio2 | 6.0.1 | rpart (função de partição recursiva em R) | 4.1-13 |
| rprojroot | 1.3-2 | Reserva | 1.7-3 | RSQLite | 2.1.0 |
| rstudioapi | 0,7 | escalas | 0.5.0 | sfsmisc | 1.1-2 |
| SP | 1.2-7 | Faísca | 2.3.1 | SparseM | 1.77 |
| espacial | 7.3-11 | estrias | 3.4.4 | sqldf | 0.4-11 |
| QUADRADO | 2017.10-1 | Statmod | 1.4.30 | estatísticas | 3.4.4 |
| estatísticas4 | 3.4.4 | string | 1.1.7 | stringr | 1.3.0 |
| sobrevivência | 2.42-3 | tcltk (uma linguagem de programação) | 3.4.4 | Demonstrações de Ensino | 2.10 |
| teste que | 2.0.0 | Tibble | 1.4.2 | Tidyr | 0.8.0 |
| arrumadoselecionar | 0.2.4 | data e hora | 3043.102 | ferramentas | 3.4.4 |
| UTF8 | 1.1.3 | utilitários | 3.4.4 | viridisLite | 0.3.0 |
| vibrissas | 0.3-2 | murchar | 2.1.2 | XML2 | 1.2.0 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.7.3 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
| com.amazonaws | aws-java-sdk-diretório | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr | 1.11.313 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-rota53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | AWS Java SDK para SES | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.313 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | HPPC | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | fluxo | 2.7.0 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | DBML-local_2,11 | 0.4.1-db1-faísca2.3 |
| com.databricks | dbml-local_2.11-testes | 0.4.1-db1-faísca2.3 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | SCALAPB-runtime_2,11 | 0.4.15-9 |
| com.esotericsoftware | kryo-sombreado | 3.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.0.0 |
| com.fasterxml.jackson.core | jackson-anotações | 2.6.7 |
| com.fasterxml.jackson.core | Jackson-Core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.11 | 2.6.7.1 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.3.2-2 |
| com.github.rwl | Jtransforms | 2.4.0 |
| com.google.code.findbugs | JSR305 | 2.0.1 |
| com.google.code.gson | Gson | 2.2.4 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2banco de dados | h2 | 1.3.174 |
| com.jamesmurty.utils | Java-XmlBuilder | 1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.mchange | C3P0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | azure-data-lake-store-sdk (kit de desenvolvimento de software) | 2.2.8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 6.2.2.JRE8 |
| com.ning | compressa-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | Chill-java | 0.8.4 |
| com.twitter | chill_2.11 | 0.8.4 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocidade | analisadores de univocidade | 2.5.9 |
| com.vlkan | flatbuffers | 1.2.0-3F79E055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| codec commons | codec commons | 1.10 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-configuração | commons-configuração | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digestor | commons-digestor | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 2.2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.ponte aérea | compressor de ar | 0.8 |
| io.dropwizard.metrics | métricas-base | 3.1.5 |
| io.dropwizard.metrics | métricas-Ganglia | 3.1.5 |
| io.dropwizard.metrics | métricas-grafite | 3.1.5 |
| io.dropwizard.metrics | métricas-verificações de saúde | 3.1.5 |
| io.dropwizard.metrics | métricas-jetty9 | 3.1.5 |
| io.dropwizard.metrics | métricas-json | 3.1.5 |
| io.dropwizard.metrics | métricas do JVM | 3.1.5 |
| io.dropwizard.metrics | métricas-log4j | 3.1.5 |
| io.dropwizard.metrics | Métricas-Servlets | 3.1.5 |
| io.netty | biblioteca Netty | 3.9.9.Final |
| io.netty | netty-tudo | 4.1.17.Final |
| io.prometeu | cliente simples | 0.0.16 |
| io.prometeu | simpleclient_comum | 0.0.16 |
| io.prometeu | simpleclient_dropwizard | 0.0.16 |
| io.prometeu | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | recoletor | 0,7 |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | JSP-API | 2.1 |
| javax.transaction | JTA | 1.1 |
| javax.validação | API de validação | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.11 |
| Joda-Time | Joda-Time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hidromática | eigenbase-propriedades | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | Jatos 3T | 0.9.4 |
| net.razorvine | pirolite | 4.13 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Flocos de Neve-JDBC | 3.6.3 |
| net.floco de neve | faísca-snowflake_2.11 | 2.3.2 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt | ONCRPC | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.4 |
| org.antlr | antlr4-tempo de execução | 4.7 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 0.8.0 |
| org.apache.arrow | memória de setas | 0.8.0 |
| org.apache.arrow | vetor de seta | 0.8.0 |
| org.apache.avro | Avro | 1.7.7 |
| org.apache.avro | AVRO-IPC | 1.7.7 |
| org.apache.avro | Conjunto de testes avro-ipc | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | calcita-avatica | 1.2.0 incubação |
| org.apache.calcite | núcleo de calcita | 1.2.0 incubação |
| org.apache.calcite | calcita-linq4j | 1.2.0 incubação |
| org.apache.commons | commons-comprimir | 1.4.1 |
| org.apache.commons | commons-cripto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-matemática3 | 3.4.1 |
| org.apache.curador | curador-cliente | 2.7.1 |
| org.apache.curador | curador-framework | 2.7.1 |
| org.apache.curador | curador de receitas | 2.7.1 |
| org.apache.derby | dérbi | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | API-Util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop-annotations (anotações do hadoop) | 2.7.3 |
| org.apache.hadoop | autenticação do Hadoop | 2.7.3 |
| org.apache.hadoop | Cliente Hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-comum | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-cliente-core | 2.7.3 |
| org.apache.hadoop | Cliente de Trabalho Hadoop MapReduce | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-cliente | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-comum | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) | 2.7.3 |
| org.apache.htrace | htrace-núcleo | 3.1.0 incubação |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | Núcleo Http | 4.4.8 |
| org.apache.ivy | hera | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.3 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
| org.apache.parquet | parquet_coluna | 1.8.3-DATABRICKS2 |
| org.apache.parquet | parquet-comum | 1.8.3-DATABRICKS2 |
| org.apache.parquet | codificação-parquet | 1.8.3-DATABRICKS2 |
| org.apache.parquet | formato parquet | 2.3.1 |
| org.apache.parquet | Parquet-Hadoop | 1.8.3-DATABRICKS2 |
| org.apache.parquet | Parquet-Jackson | 1.8.3-DATABRICKS2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-sombreado | 4.4 |
| org.apache.zookeeper | tratador de animais | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1.58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | Jackson-Jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | Jackson-XC | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.8 |
| org.codehaus.janino | Janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | DataNucleus Core | 3.2.10 |
| org.datanucleus | Datanucleus-RDBMS | 3.2.9 |
| org.eclipse.píer | Jetty-Cliente | 9.3.20.v20170531 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-HTTP | 9.3.20.v20170531 |
| org.eclipse.píer | Molhe IO | 9.3.20.v20170531 |
| org.eclipse.píer | Cais-JNDI | 9.3.20.v20170531 |
| org.eclipse.píer | Cais-Plus | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-Proxy | 9.3.20.v20170531 |
| org.eclipse.píer | Segurança-Jetty | 9.3.20.v20170531 |
| org.eclipse.píer | servidor jetty | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-util | 9.3.20.v20170531 |
| org.eclipse.píer | Aplicação web Jetty | 9.3.20.v20170531 |
| org.eclipse.píer | Jetty-XML | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.4.0-B34 |
| org.glassfish.hk2 | localizador hk2 | 2.4.0-B34 |
| org.glassfish.hk2 | HK2-Utils | 2.4.0-B34 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.1 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.4.0-B34 |
| org.glassfish.hk2.externo | javax.injet | 2.4.0-B34 |
| org.glassfish.jersey.bundles.reembalado | Jersey-Goiaba | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-cliente | 2.22.2 |
| org.glassfish.jersey.core | Jersey comum | 2.22.2 |
| org.glassfish.jersey.core | servidor Jersey | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | hibernate-validator (ferramenta de validação de dados de Java) | 5.1.1.Final |
| org.iq80.snappy | rápido | 0.2 |
| org.javassist | Javassist | 3.18.1-GA |
| org.jboss.logging | jboss-registro em log | 3.1.3.GA |
| org.jdbi | JDBI | 2.63.1 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.11 | 3.2.11 |
| org.json4s | JSON4S-core_2.11 | 3.2.11 |
| org.json4s | JSON4S-jackson_2.11 | 3.2.11 |
| org.lz4 | LZ4-Java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.1.2 |
| org.mockito | mockito-tudo | 1.9.5 |
| org.objenesis | objenese | 2.1 |
| org.postgresql | PostgreSQL | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,11 | 2.11.8 |
| org.scala-lang | Escala-library_2,11 | 2.11.8 |
| org.scala-lang | Escala-reflect_2,11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2,11 | 1.0.2 |
| org.scala-lang.modules | Escala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | Brisa-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.16 |
| org.slf4j | jul-para-slf4j | 1.7.16 |
| org.slf4j | SLF4J-API | 1.7.16 |
| org.slf4j | SLF4J-Log4J12 | 1.7.16 |
| org.spark-project.hive | colmeia-abelha | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-CLI | 1.2.1.faísca2 |
| org.spark-project.hive | hive-exec | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-JDBC | 1.2.1.faísca2 |
| org.spark-project.hive | sistema de metadados do Hive | 1.2.1.faísca2 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.spire-matemática | torre-macros_2.11 | 0.13.0 |
| org.spire-matemática | spire_2.11 | 0.13.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.tukaani | XZ | 1.0 |
| org.typelevel | mecânico_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.2.6 |
| org.yaml | Snakeyaml | 1.16 |
| ouro | ouro | 2.0.8 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |
| XMLENC | XMLENC | 0.52 |