Compartilhar via


Databricks Runtime 4.1 (EoS)

Observação

O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte as notas de lançamento sobre versões e compatibilidade do Databricks Runtime.

O Databricks lançou essa versão em maio de 2018.

Importante

Esta versão foi preterida em 17 de janeiro de 2019. Para obter mais informações sobre a política de desativação e o agendamento do Databricks Runtime, confira Ciclos de vida do suporte do Databricks.

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 4.1 da plataforma Apache Spark.

Lago Delta

O Databricks Runtime versão 4.1 adiciona melhorias de qualidade e funcionalidade importantes ao Delta Lake. O Databricks recomenda que todos os clientes do Delta Lake atualizem para o novo runtime. Esta versão permanece em Versão Prévia Privada, mas representa uma versão candidata em antecipação à próxima versão de GA (disponibilidade geral).

O Delta Lake agora também está disponível na Versão Prévia Privada para usuários do Azure Databricks. Entre em contato com seu gerente de conta ou inscreva-se em https://databricks.com/product/databricks-delta.

Alterações de quebra

  • O Databricks Runtime 4.1 inclui alterações no protocolo de transação para habilitar novos recursos, como validação. As tabelas criadas com o Databricks Runtime 4.1 usam automaticamente a nova versão e não podem ser gravadas por versões mais antigas do Databricks Runtime. Você deve atualizar tabelas existentes para aproveitar essas melhorias. Para atualizar uma tabela existente, primeiro atualize todos os trabalhos que estão sendo escritos na tabela. Em seguida, execute:

    com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")
    

    Consulte a compatibilidade de recursos e protocolos do Delta Lake para obter mais informações.

  • As gravações agora são validadas em relação ao esquema atual da tabela em vez de adicionar automaticamente colunas ausentes da tabela de destino. Para habilitar o comportamento anterior, defina a opção mergeSchema como true.

  • Se você estiver executando versões anteriores do Databricks Delta, deverá atualizar todos os trabalhos antes de usar o Databricks Runtime 4.1. Se você vir qualquer um desses erros, atualize para o Databricks Runtime 4.1:

    java.lang.NumberFormatException: For input string: "00000000000000....crc"
    scala.MatchError
    
  • As tabelas não podem mais ter colunas que diferem somente por caso.

  • As configurações de tabela específicas do Delta agora devem ser prefixadas com delta.

Novos recursos

  • Gerenciamento de esquema – o Databricks Delta agora valida acréscimos e substitui uma tabela existente para garantir que o esquema que está sendo gravado corresponda ao esquema.

    • O Delta do Databricks continua a dar suporte à evolução automática do esquema.
    • O Databricks Delta agora dá suporte à seguinte DDL para modificar o esquema explicitamente:
      • ALTER TABLE ADD COLUMN para adicionar novas colunas a uma tabela
      • ALTER TABLE CHANGE COLUMNS para alterar a ordenação de colunas
      • ALTER TABLE [SET|UNSET] TBLPROPERTIES

    Para obter detalhes, confira a Imposição de esquema.

  • DDL aprimorado e suporte à tabela

    • Suporte completo para DDL de tabela e saveAsTable(). save() e saveAsTable() agora têm semântica idêntica.
    • Todos os comandos DDL e DML dão suporte ao nome da tabela e delta.`<path-to-table>`.
    • SHOW PARTITIONS
    • SHOW COLUMNS
    • DESC TABLE
    • Informações detalhadas da tabela – Você pode ver as versões de leitor e gravador atuais de uma tabela executando DESCRIBE DETAIL. Consulte a compatibilidade de recursos e protocolos do Delta Lake.
    • Detalhes da tabela – as informações de proveniência agora estão disponíveis para cada gravação em uma tabela. A barra lateral de dados também mostra informações detalhadas da tabela e o histórico das tabelas Delta do Databricks. Confira Examinar os detalhes da tabela do Delta Lake com detalhes de descrição.
    • Tabelas de streaming – DataFrames de streaming podem ser criados usando spark.readStream.format("delta").table("<table-name>").
    • Tabelas somente de anexação – o Delta do Databricks agora dá suporte à governança de dados básica. Você pode bloquear exclusões e modificações em uma tabela definindo a propriedadedelta.appendOnly=true da tabela.
    • MERGE INTO source – adiciona suporte mais abrangente à especificação de consulta de origem do MERGE. Por exemplo, você pode especificar LIMITe ORDER BYINLINE TABLE na origem.
    • Suporte completo para ACLs de tabela.

Melhorias de desempenho

  • Redução da sobrecarga de coleta de estatísticas – a eficiência da coleta de estatísticas foi aprimorada e as estatísticas agora são coletadas apenas para um número configurável de colunas, definido como 32 por padrão. O desempenho de gravação do Databricks Delta foi aprimorado em até 2x devido à redução na sobrecarga de coleta de estatísticas. Para configurar o número de colunas, defina a propriedadedelta.dataSkippingNumIndexedCols=<number-of-columns> da tabela.
  • Suporte para o pushdown de limite – as estatísticas são usadas para limitar o número de arquivos verificados para consultas que têm LIMIT e predicados sobre colunas de partição. Isso é aplicável a consultas em notebooks devido ao limit=1000 implícito em vigor para todos os comandos do notebook.
  • Filtrar pushdown na origem do fluxo – as consultas de fluxo agora usam o particionamento ao iniciar um novo fluxo para ignorar dados irrelevantes.
  • O paralelismo aprimorado por OPTIMIZE - OPTIMIZE agora é executado como uma única tarefa do Spark e usará todo o paralelismo disponível no cluster (anteriormente era limitado a 100 arquivos compactados por vez).
  • Ignorar dados em DML – UPDATE, DELETEe MERGE agora usam estatísticas ao localizar arquivos que precisam ser regravados.
  • Retenção de ponto de verificação reduzida – os pontos de verificação agora são retidos por dois dias (o histórico ainda é mantido por 30) para diminuir os custos de armazenamento para o log de transações.

Comportamento da API

  • O comportamento do insertInto(<table-name>) no Databricks Delta é o mesmo que outras fontes de dados.
    • Se nenhum modo for especificado ou mode for ErrorIfExists, Ignoreou Append, ele anexa os dados no DataFrame à tabela do Databricks Delta.
    • Se mode for Overwrite, ele excluirá todos os dados na tabela existente e inserirá os dados do DataFrame na tabela Databricks Delta.
  • Se armazenada em cache, a tabela de destino MERGE deve ser retirada do cache manualmente.

Aperfeiçoamentos de usabilidade

  • Validações de migração de cargas de trabalho – erros comuns feitos ao migrar cargas de trabalho para o Databricks Delta agora geram uma exceção em vez de simplesmente falhar:
    • Usar format("parquet") para ler ou gravar uma tabela.
    • Lendo ou gravando diretamente em uma partição (ou seja, /path/to/delta/part=1).
    • Limpando subdiretórios de uma tabela.
    • INSERT OVERWRITE DIRECTORY usando Parquet em uma tabela.
  • Configuração que não diferencia maiúsculas de minúsculas – As opções do Leitor/Gravador de DataFrame e as propriedades da tabela agora são insensíveis a maiúsculas e minúsculas (incluindo tanto o caminho de leitura quanto o caminho de gravação).
  • Os nomes das colunas da tabela agora podem incluir pontos.

Problemas conhecidos

  • As inserções de instruções de várias inserções estão em unidades de trabalho diferentes, em vez da mesma transação.

Correções de bug

  • Um loop infinito ao iniciar um novo fluxo em uma tabela de atualização rápida foi corrigido.

Desativações

O Fluxo Estruturado não lida com entradas que não são anexadas, e lança uma exceção se ocorrerem modificações na tabela que está sendo usada como origem. Anteriormente, você poderia substituir esse comportamento usando o sinalizador ignoreFileDeletion, mas agora ele foi preterido. Em vez disso, use ignoreDeletes ou ignoreChanges. Consulte a Opção 2: Transmitir de uma tabela Delta.

Outras alterações e melhorias

  • O Watchdog de Consulta está habilitado para todos os clusters para todas as finalidades criados usando a interface do usuário.
  • Desempenho aprimorado do lado do driver para o cache DBIO
  • Desempenho aprimorado para decodificação de Parquet por meio de um novo decodificador Parquet nativo
  • Desempenho aprimorado para eliminação de subexpressão comum
  • Melhoria no desempenho de ignorar dados para tabelas grandes unindo tabelas pequenas (junções de tabela de dimensão de fato)
  • display() agora renderiza colunas que contêm tipos de dados de imagem como HTML avançado.
  • Aprimoramentos em Registrar em log, carregar e registrar modelos do MLflow
    • Dbml-local atualizado para a versão mais recente 0.4.1
    • Correção de bug com modelos exportados com o parâmetro threshold especificado
    • Adicionado suporte para exportar OneVsRestModel, GBTClassificationModel
  • Atualizou algumas bibliotecas do Python instaladas:
    • pip: de 9.0.1 para 10.0.0b2
    • setuptools: de 38.5.1 para 39.0.1
    • tornado: 4.5.3 para 5.0.1
    • wheel: 0.30.0 para 0.31.0
  • Atualizou várias bibliotecas do R instaladas. Confira Bibliotecas do R instaladas.
  • Atualizado Azure Data Lake Store SDK de 2.0.11 para 2.2.8.
  • Atualizamos CUDA para 9.0 de 8.0 e cuDNN para 7.0 de 6.0 para clusters de GPU.

Apache Spark

O Databricks Runtime 4.1 inclui o Apache Spark 2.3.0. Esta versão inclui todas as correções e melhorias incluídas no Databricks Runtime 4.0 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [SPARK-24007][SQL] EqualNullSafe para FloatType e DoubleType pode gerar um resultado incorreto por codegen.
  • [SPARK-23942][PYTHON] [SQL] Faz coleta no PySpark como ação para um ouvinte de executor de consulta
  • [SPARK-23815][CORE] O modo de substituição de partição dinâmica do gravador do Spark pode falhar ao gravar a saída na partição de vários níveis
  • [SPARK-23748][SS] Corrigir o problema de que o processo contínuo do SS não suporta SubqueryAlias
  • [SPARK-23963][SQL] Manipular corretamente um grande número de colunas na consulta na tabela hive baseada em texto
  • [SPARK-23867][SCHEDULER] Usar droppedCount no logWarning
  • [SPARK-23816][CORE] Tarefas encerradas devem ignorar FetchFailures.
  • [SPARK-23809][SQL] O SparkSession Ativo deve ser definido por getOrCreate
  • [SPARK-23966][SS] Refatorando toda a lógica de gravação do arquivo de ponto de verificação em uma interface CheckpointFileManager comum
  • [SPARK-21351][SQL] Atualizar a nulidade com base na saída de crianças
  • [SPARK-23847][PYTHON] [SQL] Adicionar asc_nulls_first e asc_nulls_last ao PySpark
  • [SPARK-23822][SQL] Melhorar a mensagem de erro de incompatibilidade de esquema do Parquet
  • [SPARK-23823][SQL] Manter a origem em transformExpression
  • [SPARK-23838][WEBUI] A consulta SQL em execução é exibida como "concluída" no guia SQL
  • [SPARK-23802][SQL] O PropagateEmptyRelation pode deixar o plano de consulta em estado não resolvido
  • [SPARK-23727][SQL] Suporte para envio de filtros por push para a DateType no parquet
  • [SPARK-23574][SQL] Relatar Partição Única em DataSourceV2ScanExec quando há exatamente 1 fábrica de leitores de dados.
  • [SPARK-23533][SS] Adicionar suporte para alterar o startOffset do ContinuousDataReader
  • [SPARK-23491][SS] Remover cancelamento de trabalho explícito da reconfiguração de ContinuousExecution
  • [SPARK-23040][CORE] Retorna o iterador de interrupção para o leitor de ordem aleatória
  • [SPARK-23827][SS] O StreamingJoinExec deve garantir que os dados de entrada sejam particionados em um número específico de partições
  • [SPARK-23639][SQL] Obter token antes de inicializar o cliente de metastore na CLI do SparkSQL
  • [SPARK-23806] O Broadcast.unpersist pode causar uma exceção fatal quando usado.…
  • [SPARK-23599][SQL] Usar o RandomUUIDGenerator na expressão Uuid
  • [SPARK-23599][SQL] Adicionar um gerador UUID de números pseudoaleatórios
  • [SPARK-23759][UI] Não é possível associar a interface do usuário Spark ao nome do host específico / IP
  • [SPARK-23769][CORE] Remover comentários que desnecessariamente desabilitam a verificação scalastyle
  • [SPARK-23614][SQL] Corrigir troca de reutilização incorreta quando o cache é usado
  • [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs deve salvar/restaurar o estado do CSE corretamente
  • [SPARK-23729][CORE] Respeitar o fragmento URI ao resolver globs
  • [SPARK-23550][CORE] Limpar Utils
  • [SPARK-23288][SS] Corrigir métricas de saída com o coletor do Parquet
  • [SPARK-23264][SQL] Corrigir scala.MatchError em literals.sql.out
  • [SPARK-23649][SQL] Ignorando os caracteres não permitidos em UTF-8
  • [SPARK-23691][PYTHON] Use sql_conf util em testes do PySpark sempre que possível
  • [SPARK-23644][CORE][UI] Usar o caminho absoluto para a chamada REST em SHS
  • [SPARK-23706][PYTHON] spark.conf.get(value, default=None) deve produzir None no PySpark
  • [SPARK-23623][SS] Evitar o uso simultâneo de consumidores em cache em CachedKafkaConsumer
  • [SPARK-23670][SQL] Corrigir perda de memória em SparkPlanGraphWrapper
  • [SPARK-23608][CORE][WEBUI] Adicionar uma sincronização em SHS entre as funções attachSparkUI e detachSparkUI para evitar problema de modificação simultânea no Jetty Handlers.
  • [SPARK-23671][CORE] Corrigir a condição para habilitar o pool de threads SHS.
  • [SPARK-23658][LAUNCHER] InProcessAppHandle usa a classe errada em getLogger
  • [SPARK-23642][DOCS] Correção de scaladoc isZero de subclasse do AccumulatorV2
  • [SPARK-22915][MLLIB] Testes de streaming para spark.ml.feature, de N a Z
  • [SPARK-23598][SQL] Tornar os métodos públicos no BufferedRowIterator para evitar erro de runtime para uma consulta grande
  • [SPARK-23546][SQL] Refatorar métodos/valores sem estado em CodegenContext
  • [SPARK-23523][SQL] Corrigir o resultado incorreto causado pela regra OptimizeMetadataOnlyQuery
  • [SPARK-23462][SQL] Melhorar a mensagem de erro de campo ausente em StructType
  • [SPARK-23624][SQL] Revisar doc do método pushFilters no Datasource V2
  • [SPARK-23173][SQL] Evitar a criação de arquivos parquet corrompidos ao carregar dados do JSON
  • [SPARK-23436][SQL] Inferir partição como data somente se ele for convertido em data
  • [SPARK-23406][SS] Habilitar autojunções de fluxo-fluxo
  • [SPARK-23490][SQL] Verificar storage.locationUri com a tabela existente em CreateTable
  • [SPARK-23524]Os blocos grandes de ordem aleatória local não devem ser verificados se estiverem corrompidos.
  • [SPARK-23525][SQL] Suporte ALTER TABLE CHANGE COLUMN COMMENT para tabela hive externa
  • [SPARK-23434][SQL] O Spark não deverá avisar o diretório de metadados sobre um caminho de arquivo HDFS
  • [SPARK-23457][SQL] Registrar ouvintes de conclusão de tarefas no ParquetFileFormat
  • [SPARK-23329][SQL] Corrigir documentação de funções trigonométricas
  • [SPARK-23569][PYTHON] Permitir que pandas_udf trabalhe com funções anotadas por tipo de estilo do python3
  • [SPARK-23570][SQL] Adicionar o Spark 2.3.0 em HiveExternalCatalogVersionsSuite
  • [SPARK-23517][PYTHON] Fazer com que _pyspark.util._exception_message produza o rastreamento do lado do Java por Py4JJavaError
  • [SPARK-23508][CORE] Corrigir BlockmanagerId caso blockManagerIdCache provoque oom
  • [SPARK-23448][SQL] Esclarecer o comportamento do analisador JSON e CSV no documento
  • [SPARK-23365][CORE] Não ajustar executores num ao eliminar executores ociosos.
  • [SPARK-23438][DSTREAMS] Corrigir perda de dados DStreams com WAL quando o driver falha
  • [SPARK-23475][UI] Mostrar também as fases ignoradas
  • [SPARK-23518][SQL] Evitar acesso de metastore quando os usuários só desejam ler e gravar quadros de dados
  • [SPARK-23406][SS] Habilitar autojunções de fluxo-fluxo
  • [SPARK-23541][SS] Permitir que a origem do Kafka leia dados com paralelismo maior que o número de partições do artigo
  • [SPARK-23097][SQL][SS] Migrar fonte de soquete de texto para V2
  • [SPARK-23362][SS] Migrar fonte de microlote Kafka para V2
  • [SPARK-23445]Refatoração do ColumnStat
  • [SPARK-23092][SQL] Migrar MemoryStream para APIs do DataSourceV2
  • [SPARK-23447][SQL] Limpar modelo de codegen para Literal
  • [SPARK-23366]Melhorar caminho de leitura quente em ReadAheadInputStream
  • [SPARK-22624][PYSPARK] Expor ordem aleatória de particionamento por intervalos

Atualizações de manutenção

Confira Atualizações de manutenção do Databricks Runtime 4.1.

Ambiente do sistema

  • Sistema operacional: Ubuntu 16.04.4 LTS
  • Java: 1.8.0_162
  • Scala: 2.11.8
  • Python: 2.7.12 para os clusters do Python 2 e 3.5.2 para os clusters do Python 3.
  • R: R versão 3.4.4 (15-03-2018)
  • Clusters da GPU: as seguintes bibliotecas GPU da NVIDIA estão instaladas:
    • Driver Tesla 375.66
    • CUDA 9.0
    • cuDNN 7.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
ansi2html 1.1.1 argparse 1.2.1 backports-abc 0,5
boto 2.42.0 boto3 1.4.1 botocore 1.4.70
brewer2mpl 1.4.1 certificação 2016.2.28 cffi 1.7.0
chardet 2.3.0 colorama 0.3.7 configobj 5.0.6
criptografia 1.5 ciclista 0.10.0 Cython 0.24.1
decorador 4.0.10 docutils 0,14 enum34 1.1.6
et-xmlfile 1.0.1 freetype-py 1.0.2 funcsigs 1.0.2
fusepy 2.0.4 contratos futuros 3.2.0 ggplot 0.6.8
html5lib 0,999 IDNA 2.1 endereço IP 1.0.16
ipython 2.2.0 ipython-genutils 0.1.0 jdcal 1,2
Jinja2 2.8 jmespath 0.9.0 llvmlite 0.13.0
lxml 3.6.4 MarkupSafe 0,23 matplotlib 1.5.3
mpld3 0,2 msgpack-python 0.4.7 ndg-httpsclient 0.3.3
numba 0.28.1 numpy 1.11.1 openpyxl 2.3.2
Pandas 0.19.2 pathlib2 2.1.0 Patsy 0.4.1
pexpect 4.0.1 pickleshare 0.7.4 Almofada 3.3.1
caroço 10.0.0b2 Camada 3.9 kit de ferramentas de prompt 1.0.7
psycopg2 2.6.2 ptyprocess 0.5.1 py4j 0.10.3
Pyarrow 0.8.0 pyasn1 0.1.9 pycparser 2.14
Pygments 2.1.3 PyGObject 3.20.0 pyOpenSSL 16.0.0
pyparsing 2.2.0 pypng 0.0.18 Python 2.7.12
python-dateutil 2.5.3 python-geohash 0.8.5 Pytz 1/6/2016
solicitações 2.11.1 s3transfer 0.1.9 scikit-aprender 0.18.1
Scipy 0.18.1 vasculhar 0,32 seaborn (biblioteca de visualização em Python) 0.7.1
Ferramentas de configuração 39.0.1 simplejson 3.8.2 simples3 1,0
singledispatch 3.4.0.3 seis 1.10.0 statsmodels (biblioteca para modelos estatísticos em Python) 0.6.1
tornado 5.0.1 traitlets 4.3.0 urllib3 1.19.1
virtualenv 15.0.1 wcwidth 0.1.7 wheel 0.31.0
wsgiref 0.1.2

Bibliotecas R instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
abind 1.4-5 afirme isso 0.2.0 backports 1.1.2
base 3.4.4 BH 1.66.0-1 bindr (aplicativo Bindr) 0.1.1
bindrcpp 0.2.2 bit 1.1-12 bit64 0.9-7
bitops 1.0-6 blob 1.1.1 ciar 1.3-20
Fabricação de cerveja 1.0-6 vassoura 0.4.4 carro 3.0-0
dadosDoCarro 3.0-1 sinal de interpolação 6.0-79 Cellranger 1.1.0
crono 2.3-52 classe 7.3-14 Interface de Linha de Comando (CLI) 1.0.0
cluster 2.0.7 codetools 0,2-15 espaço de cores 1.3-2
commonmark 1.4 compilador 3.4.4 giz de cera 1.3.4
encurvar 3.2 Trombose Venosa dos Seios Cerebrais (CVST) 0.2-1 Tabela de Dados 1.10.4-3
conjuntos de dados 3.4.4 DBI 0,8 ddalpha 1.3.1.1
DEoptimR 1.0-8 Descrição 1.1.1 devtools 1.13.5
dicromata 2.0-0 hash 0.6.15 dimRed 0.1.0
doMC 1.3.5 dplyr 0.7.4 Redução do Risco de Desastres (RRD) 0.0.3
para gatos 0.3.0 para cada 1.4.4 estrangeiro 0.8-69
Gbm 2.1.3 ggplot2 2.2.1 git2r 0.21.0
glmnet 2.0-16 associar 1.2.0 Gower 0.1.2
gráficos 3.4.4 grDevices 3.4.4 grade 3.4.4
gsubfn 0,7 gtable 0.2.0 H₂O 3.16.0.2
refúgio 1.1.1 Hms 0.4.2 httr 1.3.1
hwriter 1.3.2 hwriterPlus 1.0-3 ipred 0.9-6
Iteradores 1.0.9 jsonlite 1.5 kernlab 0.9-25
KernSmooth 2.23-15 rotulagem 0,3 treliça 0.20-35
lava vulcânica 1.6.1 lazyeval 0.2.1 menor 0.3.3
lme4 1.1-17 lubrificado 1.7.3 magrittr 1.5
mapproj 1.2.6 mapas 3.3.0 maptools 0.9-2
MISSA 7.3-49 Matriz 1.2-13 MatrixModels 0.4-1
memorizar 1.1.0 métodos 3.4.4 mgcv 1.8-23
mímica 0,5 minqa 1.2.4 mnormt 1.5-5
ModelMetrics 1.1.0 munsell 0.4.3 mvtnorm 1.0-7
nlme 3.1-137 nloptr 1.0.4 nnet 7.3-12
numDeriv 2016.8-1 openssl 1.0.1 openxlsx 4.0.17
paralelo 3.4.4 pbkrtest 0.4-7 pilar 1.2.1
pkgconfig 2.0.1 pkgKitten 0.1.4 plogr 0.2.0
plyr 1.8.4 elogio 1.0.0 prettyunits 1.0.2
Proc 1.11.0 Prodlim 1.6.1 proto 1.0.0
Psicologia 1.8.3.3 purrr 0.2.4 quantreg 5.35
R.methodsS3 1.7.1 R.oo 1.21.0 R.utils 2.6.0
R6 2.2.2 randomForest 4.6-14 RColorBrewer 1.1-2
Rcpp 0.12.16 RcppEigen 0.3.3.4.0 RcppRoll 0.2.2
RCurl 1.95-4.10 Readr 1.1.1 readxl 1.0.0
receitas 0.1.2 jogo de revanche 1.0.1 remodelar2 1.4.3
rio 0.5.10 rlang 0.2.0 base robusta 0.92-8
RODBC 1.3-15 roxygen2 6.0.1 rpart 4.1-13
rprojroot 1.3-2 Rserve 1.7-3 RSQLite 2.1.0
rstudioapi 0,7 escamas 0.5.0 sfsmisc 1.1-2
São Paulo 1.2-7 SparkR 2.3.0 Esparso 1.77
espacial 7.3-11 Splines 3.4.4 sqldf 0.4-11
SQUAREM 2017.10-1 statmod 1.4.30 estatísticas 3.4.4
estatísticas4 3.4.4 stringi 1.1.7 stringr 1.3.0
sobrevivência 2.41-3 tcltk 3.4.4 TeachingDemos 2,10
testthat 2.0.0 tibble 1.4.2 tidyr 0.8.0
tidyselect 0.2.4 data e hora 3043.102 ferramentas 3.4.4
utf8 1.1.3 utilitários 3.4.4 viridisLite 0.3.0
vibrissa 0.3-2 murchar 2.1.2 xml2 1.2.0

Instaladas as bibliotecas do Java e Scala (versão de cluster do Scala 2.11)

ID do Grupo ID do Artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.7.3
com.amazonaws aws-java-sdk-autoscaling 1.11.313
com.amazonaws aws-java-sdk-cloudformation 1.11.313
com.amazonaws aws-java-sdk-cloudfront 1.11.313
com.amazonaws aws-java-sdk-cloudhsm 1.11.313
com.amazonaws aws-java-sdk-cloudsearch 1.11.313
com.amazonaws aws-java-sdk-cloudtrail 1.11.313
com.amazonaws aws-java-sdk-cloudwatch 1.11.313
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.313
com.amazonaws aws-java-sdk-codedeploy 1.11.313
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.11.313
com.amazonaws aws-java-sdk-cognitosync 1.11.313
com.amazonaws aws-java-sdk-config 1.11.313
com.amazonaws aws-java-sdk-core 1.11.313
com.amazonaws aws-java-sdk-datapipeline 1.11.313
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.11.313
com.amazonaws aws-java-sdk-directory 1.11.313
com.amazonaws aws-java-sdk-dynamodb 1.11.313
com.amazonaws aws-java-sdk-ec2 1.11.313
com.amazonaws SDK Java para o ECS da AWS 1.11.313
com.amazonaws aws-java-sdk-efs 1.11.313
com.amazonaws aws-java-sdk-elasticache 1.11.313
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.313
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.313
com.amazonaws aws-java-sdk-elastictranscoder 1.11.313
com.amazonaws aws-java-sdk-emr 1.11.313
com.amazonaws aws-java-sdk-glacier 1.11.313
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.11.313
com.amazonaws aws-java-sdk-importexport 1.11.313
com.amazonaws aws-java-sdk-kinesis 1.11.313
com.amazonaws aws-java-sdk-kms 1.11.313
com.amazonaws aws-java-sdk-lambda 1.11.313
com.amazonaws aws-java-sdk-logs 1.11.313
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.11.313
com.amazonaws aws-java-sdk-opsworks 1.11.313
com.amazonaws aws-java-sdk-rds 1.11.313
com.amazonaws aws-java-sdk-redshift 1.11.313
com.amazonaws aws-java-sdk-route53 1.11.313
com.amazonaws aws-java-sdk-s3 1.11.313
com.amazonaws aws-java-sdk-ses 1.11.313
com.amazonaws aws-java-sdk-simpledb 1.11.313
com.amazonaws aws-java-sdk-simpleworkflow 1.11.313
com.amazonaws aws-java-sdk-sns 1.11.313
com.amazonaws aws-java-sdk-sqs 1.11.313
com.amazonaws aws-java-sdk-ssm 1.11.313
com.amazonaws aws-java-sdk-storagegateway 1.11.313
com.amazonaws aws-java-sdk-sts 1.11.313
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.11.313
com.amazonaws aws-java-sdk-swf-libraryes 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.313
com.amazonaws jmespath-java 1.11.313
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics fluxo 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.4.1-db1-spark2.3
com.databricks dbml-local_2.11-tests 0.4.1-db1-spark2.3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware kryo sombreado 3.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.0.0
com.fasterxml.jackson.core jackson-annotations 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.datatype jackson-module-paranamer 2.6.7
com.fasterxml.jackson.datatype jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1,1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib sistema_nativo-java 1,1
com.github.fommil.netlib sistema_nativo-java-nativos 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jamesmurty.utils java-xmlbuilder 1,1
com.jcraft jsch 0.1.50
com.jolbox bonecp VERSÃO.0.8.0.
com.mchange c3p0 0.9.5.1
com.mchange mchange-commons-java 0.2.10
com.microsoft.azure azure-data-lake-store-sdk 2.2.8
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter chill-java 0.8.4
com.twitter chill_2.11 0.8.4
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity univocity-parsers 2.5.9
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 2.4.1
commons-beanutils commons-beanutils 1.7.0
commons-beanutils commons-beanutils-core 1.8.0
commons-cli commons-cli 1,2
commons-codec commons-codec 1,10
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 2,2
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift compressor de ar 0,8
io.dropwizard.metrics metrics-core 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics métricas-verificações de saúde 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json (métricas em JSON) 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics metrics-servlets 3.1.5
io.netty netty 3.9.9.Final
io.netty Netty-all 4.1.17.Final
io.prometheus simpleclient 0.0.16
io.prometheus simpleclient_common 0.0.16
io.prometheus simpleclient_dropwizard 0.0.16
io.prometheus simpleclient_servlet 0.0.16
io.prometheus.jmx coletor 0,7
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1,2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1,1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2,11
joda-time joda-time 2.9.3
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-properties 1.1.5
net.iharder base64 2.3.8
net.java.dev.jets3t jets3t 0.9.4
net.razorvine pirolito 4.13
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4.7
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de seta 0.8.0
org.apache.arrow memória de seta 0.8.0
org.apache.arrow vetor de seta 0.8.0
org.apache.avro Avro 1.7.7
org.apache.avro avro-ipc 1.7.7
org.apache.avro avro-ipc-tests 1.7.7
org.apache.avro avro-mapred-hadoop2 1.7.7
org.apache.calcite calcite-avatica 1.2.0-incubação
org.apache.calcite calcite-core 1.2.0-incubação
org.apache.calcite calcite-linq4j 1.2.0-incubação
org.apache.commons commons-compress 1.4.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3,5
org.apache.commons commons-math3 3.4.1
org.apache.curator curador-cliente 2.7.1
org.apache.curator estrutura do curador 2.7.1
org.apache.curator curador de receitas 2.7.1
org.apache.derby Derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop cliente Hadoop 2.7.3
org.apache.hadoop hadoop-common (componente comum do Hadoop) 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app (aplicativo cliente do hadoop-mapreduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0-em incubação
org.apache.httpcomponents httpclient 4.5.4
org.apache.httpcomponents httpcore 4.4.8
org.apache.ivy hera 2.4.0
org.apache.orc orc-core-nohive 1.4.1
org.apache.orc orc-mapreduce-nohive 1.4.1
org.apache.parquet coluna parquet 1.8.2-databricks1
org.apache.parquet parquet-comum 1.8.2-databricks1
org.apache.parquet codificação-parquet 1.8.2-databricks1
org.apache.parquet formato parquet 2.3.1
org.apache.parquet parquet-hadoop 1.8.2-databricks1
org.apache.parquet parquet-jackson 1.8.2-databricks1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm5-shaded 4.4
org.apache.zookeeper zelador de zoológico 3.4.6
org.bouncycastle bcprov-jdk15on 1.58
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.8
org.codehaus.janino janino 3.0.8
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.20.v20170531
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.3.20.v20170531
org.eclipse.jetty jetty-http 9.3.20.v20170531
org.eclipse.jetty jetty-io 9.3.20.v20170531
org.eclipse.jetty jetty-jndi 9.3.20.v20170531
org.eclipse.jetty jetty-plus 9.3.20.v20170531
org.eclipse.jetty jetty-proxy 9.3.20.v20170531
org.eclipse.jetty segurança do jetty 9.3.20.v20170531
org.eclipse.jetty servidor jetty 9.3.20.v20170531
org.eclipse.jetty jetty-servlet 9.3.20.v20170531
org.eclipse.jetty jetty-servlets 9.3.20.v20170531
org.eclipse.jetty jetty-util 9.3.20.v20170531
org.eclipse.jetty Jetty Webapp 9.3.20.v20170531
org.eclipse.jetty jetty-xml 9.3.20.v20170531
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-locator 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.1
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core jersey-comum 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hibernate hibernate-validator 5.1.1.Final
org.iq80.snappy Rápido 0,2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.2.11
org.json4s json4s-core_2.11 3.2.11
org.json4s json4s-jackson_2.11 3.2.11
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc cliente Java do MariaDB 2.1.2
org.mockito mockito-all 1.9.5
org.objenesis objenésia 2.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.5.11
org.rocksdb rocksdbjni 5.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.8
org.scala-lang scala-library_2.11 2.11.8
org.scala-lang scala-reflect_2.11 2.11.8
org.scala-lang scalap_2.11 2.11.8
org.scala-lang.modules scala-parser-combinators_2.11 1.0.2
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.11 1.12.5
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 2.2.6
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-exec 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark não utilizado 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core VERSÃO.4.1.4
org.springframework teste de primavera VERSÃO.4.1.4
org.tukaani xz 1,0
org.typelevel mecânico_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.2.6
org.yaml snakeyaml 1.16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1
xmlenc xmlenc 0.52