Partilhar via


Tempo de execução do Databricks 4.1 (EoS)

Nota

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.

A Databricks lançou esta versão em maio de 2018.

Importante

Esta versão foi preterida em 17 de janeiro de 2019. Para obter mais informações sobre a política e o cronograma de substituição do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 4.1, desenvolvido pelo Apache Spark.

Lago Delta

O Databricks Runtime versão 4.1 adiciona grandes melhorias de qualidade e funcionalidade ao Delta Lake. A Databricks recomenda vivamente que todos os clientes Delta Lake atualizem para o novo tempo de execução. Esta versão permanece na Pré-visualização Privada, mas representa uma versão candidata em antecipação à próxima versão de disponibilidade geral (GA).

O Delta Lake agora também está disponível na Visualização Privada para usuários do Azure Databricks. Contacte o seu gestor de conta ou registe-se em https://databricks.com/product/databricks-delta.

Alterações de grande impacto

  • O Databricks Runtime 4.1 inclui alterações no protocolo de transação para permitir novos recursos, como a validação. As tabelas criadas com o Databricks Runtime 4.1 usam automaticamente a nova versão e não podem ser gravadas por versões mais antigas do Databricks Runtime. Você deve atualizar as tabelas existentes para aproveitar essas melhorias. Para atualizar uma tabela existente, primeiro atualize todas as tarefas que estão gravando na tabela. Em seguida, execute:

    com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")
    

    Consulte Compatibilidade de recursos e protocolos do Delta Lake para obter mais informações.

  • As escritas agora são validadas contra o esquema atual da tabela em vez de adicionarem automaticamente colunas ausentes na tabela de destino. Para habilitar o comportamento anterior, defina a opção mergeSchema como true.

  • Se você estiver executando versões anteriores do Databricks Delta, deverá atualizar todos os trabalhos antes de usar o Databricks Runtime 4.1. Se você vir um desses erros, atualize para o Databricks Runtime 4.1:

    java.lang.NumberFormatException: For input string: "00000000000000....crc"
    scala.MatchError
    
  • As tabelas não podem mais ter colunas que diferem apenas pela diferença de maiúsculas e minúsculas.

  • As configurações de tabela específicas do Delta agora devem ser prefixadas com delta.

Novas funcionalidades

  • Gerenciamento de esquema - Databricks Delta agora valida acréscimos e substituições em uma tabela existente para garantir que o esquema que está sendo escrito corresponda ao esquema.

    • O Databricks Delta continua a suportar a evolução automática do esquema.
    • O Databricks Delta agora suporta a seguinte DDL para modificar o esquema explicitamente:
      • ALTER TABLE ADD COLUMN adicionar novas colunas a uma tabela
      • ALTER TABLE CHANGE COLUMNS alterar a ordem das colunas
      • ALTER TABLE [SET|UNSET] TBLPROPERTIES

    Para obter detalhes, consulte Aplicação de esquema.

  • DDL melhorado e suporte de tabelas

    • Suporte completo para tabelas DDL e saveAsTable(). save() e saveAsTable() agora têm semântica idêntica.
    • Todos os comandos DDL e DML suportam tanto o nome da tabela quanto delta.`<path-to-table>`.
    • SHOW PARTITIONS
    • SHOW COLUMNS
    • DESC TABLE
    • Informações detalhadas da tabela - Pode ver as versões atuais do leitor e do escritor de uma tabela executando DESCRIBE DETAIL. Consulte Compatibilidade de recursos e protocolos do Delta Lake.
    • Detalhes da tabela - As informações de proveniência estão agora disponíveis para cada inserção a uma tabela. A barra lateral de dados também mostra informações detalhadas da tabela e histórico para tabelas Delta no Databricks. Consulte os detalhes da tabela Delta Lake com a descrição detalhada .
    • Tabelas de streaming - Streaming DataFrames pode ser criado usando spark.readStream.format("delta").table("<table-name>").
    • Tabelas somente de acréscimo - O Databricks Delta agora oferece suporte à governança básica de dados. Você pode bloquear exclusões e modificações em uma tabela definindo a propriedade tabledelta.appendOnly=true.
    • MERGE INTO source - Adiciona suporte mais abrangente à especificação de consulta de origem do MERGE. Por exemplo, você pode especificar LIMIT, ORDER BY e INLINE TABLE na fonte.
    • Suporte completo para ACLs de tabela.

Melhoramentos de desempenho

  • Sobrecarga de coleta de estatísticas reduzida - A eficiência da coleta de estatísticas foi melhorada e as estatísticas agora são coletadas apenas para um número configurável de colunas, definido como 32 por padrão. O desempenho de gravação Delta do Databricks foi melhorado em até 2x devido à redução na sobrecarga de coleta de estatísticas. Para configurar o número de colunas, defina a propriedade da tabela delta.dataSkippingNumIndexedCols=<number-of-columns>.
  • Suporte para redução de limite - As estatísticas são usadas para limitar o número de arquivos verificados em busca de consultas que tenham LIMIT e predicados sobre colunas de partição. Isso é aplicável a consultas em blocos de anotações devido ao efeito implícito limit=1000 para todos os comandos do bloco de anotações.
  • Atribuição de filtros na fonte de streaming - As consultas de streaming agora usam particionamento ao iniciar um novo stream, para ignorar dados irrelevantes.
  • Por enquanto, o paralelismo OPTIMIZE - OPTIMIZE aprimorado é executado como uma única tarefa do Spark e usará todo o paralelismo disponível no cluster (anteriormente era limitado a 100 arquivos compactados de cada vez).
  • Data Skipping in DML - UPDATE, DELETE e MERGE agora usam estatísticas ao localizar arquivos que precisam ser reescritos.
  • Diminuição da retenção de pontos de verificação - os pontos de verificação agora são retidos por dois dias (o histórico ainda é mantido por 30) para diminuir os custos de armazenamento para o log de transações.

Comportamento da API

  • O comportamento de insertInto(<table-name>) no Databricks Delta é o mesmo que outras fontes de dados.
    • Se nenhum modo for especificado ou mode estiver ErrorIfExists, Ignoreou Append, acrescentará os dados no DataFrame à tabela Delta do Databricks.
    • Se mode estiver Overwrite, elimina todos os dados na tabela existente e insere os dados do DataFrame na tabela Delta do Databricks.
  • Se armazenada em cache, a tabela de destino da MERGE deve ser removida manualmente do cache.

Melhorias de usabilidade

  • Validações de migração de carga de trabalho - Erros comuns cometidos ao migrar cargas de trabalho para o Databricks Delta agora geram uma exceção em vez de falhar:
    • Usando format("parquet") para ler ou escrever uma tabela.
    • Ler ou escrever diretamente numa partição (ou seja, /path/to/delta/part=1).
    • Removendo subdiretórios de uma tabela.
    • INSERT OVERWRITE DIRECTORY usando Parquet em uma mesa.
  • Configuração sem diferenciação de maiúsculas e minúsculas - As opções para o Leitor/Gravador DataFrame e as propriedades da tabela agora não diferenciam maiúsculas de minúsculas (incluindo caminho de leitura e caminho de gravação).
  • Nomes de colunas - Os nomes das colunas da tabela agora podem incluir pontos.

Problemas conhecidos

  • As inserções de instruções multi-inserção estão em diferentes unidades de trabalho, ao invés de estarem na mesma transação.

Correções de erros

  • Foi corrigido um loop infinito que ocorria ao iniciar um novo fluxo numa tabela com atualização rápida.

Deprecações

O Streaming Estruturado não manipula entradas que não sejam um acréscimo e lança uma exceção se ocorrerem modificações na tabela que está sendo usada como fonte. Anteriormente, você podia substituir esse comportamento usando o ignoreFileDeletion sinalizador, mas agora ele foi preterido. Em vez disso, use ignoreDeletes ou ignoreChanges. Consulte Opção 2: Transmitir a partir de uma tabela Delta.

Outras Alterações e Melhorias

  • O Query Watchdog está habilitado para todos os clusters multiuso criados usando a interface do usuário.
  • Melhor desempenho do lado do controlador para o cache DBIO
  • Melhoria no desempenho para a descodificação de Parquet através de um novo descodificador Parquet nativo
  • Desempenho melhorado para eliminação de subexpressões comuns
  • Melhor desempenho no salto de dados ao unir tabelas grandes a tabelas pequenas (junções entre tabelas de factos e dimensões)
  • display() agora renderiza colunas contendo tipos de dados de imagem como HTML avançado.
  • Melhorias no Registre, carregue e registre modelos MLflow
    • Atualizado dbml-local para a versão mais recente 0.4.1
    • Corrigido erro em modelos exportados com o parâmetro threshold especificado
    • Adicionado suporte para exportação OneVsRestModel, GBTClassificationModel
  • Atualizado algumas bibliotecas Python instaladas:
    • pip: de 9.0.1 para 10.0.0b2
    • setuptools: de 38.5.1 a 39.0.1
    • tornado: 4.5.3 a 5.0.1
    • roda: 0.30.0 a 0.31.0
  • Atualizaram-se várias bibliotecas R instaladas. Consulte Bibliotecas R instaladas.
  • SDK do Azure Data Lake Store atualizado de 2.0.11 para 2.2.8.
  • CUDA atualizado de 8.0 para 9.0 e CUDNN de 6.0 para 7.0 para clusters de GPU.

Apache Spark

O Databricks Runtime 4.1 inclui o Apache Spark 2.3.0. Esta versão inclui todas as correções e melhorias incluídas no Databricks Runtime 4.0 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [SPARK-24007][SQL] EqualNullSafe para FloatType e DoubleType pode gerar um resultado errado por codegen.
  • [FAÍSCA-23942][PYTHON][SQL] Faz a coleta no PySpark como ação para um ouvinte do executor de consulta
  • [SPARK-23815][CORE] O modo de sobrescrever partições dinâmicas do escritor Spark pode falhar ao gravar a saída em partições de múltiplos níveis
  • [SPARK-23748][SS] Corrigir o problema do processo contínuo SS que não suporta SubqueryAlias
  • [SPARK-23963][SQL] Manipule corretamente um grande número de colunas na consulta na tabela Hive baseada em texto
  • [SPARK-23867][SCHEDULER] use droppedCount em logWarning
  • [SPARK-23816][CORE] As tarefas finalizadas devem ignorar FetchFailures.
  • [SPARK-23809][SQL] Ative SparkSession deve ser definido por getOrCreate
  • [SPARK-23966][SS] Refatorar toda a lógica de escrita de ficheiros de pontos de verificação numa interface comum do CheckpointFileManager
  • [SPARK-21351][SQL] Anulabilidade da atualização com base na saída dos filhos
  • [SPARK-23847][PYTHON][SQL] Adicionar asc_nulls_first, asc_nulls_last ao PySpark
  • [SPARK-23822][SQL] Melhorar mensagem de erro para incompatibilidades de esquema Parquet
  • [SPARK-23823][SQL] Mantenha a origem em transformExpression
  • [SPARK-23838][WEBUI] Consulta SQL em execução é exibida como "concluída" na guia SQL
  • [SPARK-23802][SQL] PropagateEmptyRelation pode deixar o plano de consulta em estado não resolvido
  • [FAÍSCA-23727][SQL] Suporte para empurrar filtros para baixo para DateType em parquet
  • [SPARK-23574][SQL] Reportar SinglePartition no DataSourceV2ScanExec quando há exatamente 1 fábrica de leitores de dados.
  • [SPARK-23533][SS] Adicionar suporte para alterar startOffset do ContinuousDataReader
  • [SPARK-23491][SS] Remover o cancelamento explícito de trabalhos durante a reconfiguração do ContinuousExecution
  • [SPARK-23040][CORE] Devolve um iterador interruptível para leitor de shuffle
  • [SPARK-23827][SS] StreamingJoinExec deve garantir que os dados de entrada sejam particionados num número específico de partições
  • [FAÍSCA-23639][SQL] Obter token antes de inicializar o cliente do metastore na CLI do SparkSQL
  • [SPARK-23806] Broadcast.unpersist pode causar exceção fatal em certas circunstâncias...
  • [SPARK-23599][SQL] Use RandomUUIDGenerator na expressão UUID
  • [SPARK-23599][SQL] Adicionar um gerador UUID a partir de números pseudoaleatórios
  • [SPARK-23759][UI] Não é possível associar o Spark UI a um nome de host/IP específico
  • [SPARK-23769][CORE] Remover comentários que desnecessariamente desativam a verificação Scalastyle
  • [SPARK-23614][SQL] Corrigir reutilização de intercâmbio incorreta quando o armazenamento em cache é utilizado
  • [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs deve salvar/restaurar o estado CSE corretamente
  • [SPARK-23729][CORE] Respeitar o fragmento de URI ao resolver globs
  • [SPARK-23550][CORE] Limpeza de Utils
  • [FAÍSCA-23288][SS] Corrija métricas de saída com pia de parquet
  • [SPARK-23264][SQL] Corrigir scala.MatchError em literals.sql.out
  • [SPARK-23649][SQL] Passar por cima de caracteres não permitidos em UTF-8
  • [SPARK-23691][PYTHON] Use sql_conf util em testes PySpark sempre que possível
  • [SPARK-23644][CORE][UI] Usar caminho absoluto para chamada REST no SHS
  • [SPARK-23706][PYTHON] spark.conf.get(value, default=None) deve produzir Nenhum no PySpark
  • [SPARK-23623][SS] Evitar o uso simultâneo de consumidores em cache no CachedKafkaConsumer
  • [SPARK-23670][SQL] Corrigir fuga de memória no SparkPlanGraphWrapper
  • [SPARK-23608][CORE][WEBUI] Adicionar sincronização no SHS entre as funções attachSparkUI e detachSparkUI para evitar problemas de modificação concorrente nos handlers do Jetty
  • [SPARK-23671][CORE] Corrigir a condição para ativar o SHS thread pool.
  • [SPARK-23658][LAUNCHER] InProcessAppHandle usa a classe errada no getLogger
  • [SPARK-23642][DOCS] Correção de scaladoc isZero na subclasse AccumulatorV2
  • [SPARK-22915][MLLIB] Testes de streaming para spark.ml.feature, de N a Z
  • [SPARK-23598][SQL] Tornar os métodos em BufferedRowIterator públicos para evitar um erro de execução numa consulta de grande tamanho
  • [SPARK-23546][SQL] Refatorar métodos e valores sem estado no CodegenContext
  • [SPARK-23523][SQL] Corrigir o resultado incorreto causado pela regra OptimizeMetadataOnlyQuery
  • [SPARK-23462][SQL] melhorar a mensagem de erro para campo ausente no StructType
  • [SPARK-23624][SQL] Revisar a documentação do método pushFilters no Datasource V2
  • [FAÍSCA-23173][SQL] Evite criar arquivos de parquet corrompidos ao carregar dados do JSON
  • [SPARK-23436][SQL] Inferir partição como Data somente se ela puder ser convertida para Data
  • [SPARK-23406][SS] Habilitar auto-junções de fluxo a fluxo
  • [SPARK-23490][SQL] Verifique storage.locationUri com a tabela existente em CreateTable
  • [FAÍSCA-23524]Grandes blocos locais de shuffle não devem ser verificados quanto a corrupção.
  • [SPARK-23525] Suporte[SQL] ALTER TABLE ALTERAR COLUMN COMENTÁRIO para tabela de hive externa
  • [FAÍSCA-23434][SQL] O Spark não deve avisar diretório de metadados para um caminho de arquivo do HDFS
  • [SPARK-23457][SQL] Registrar ouvintes de conclusão de tarefas primeiro no ParquetFileFormat
  • [SPARK-23329][SQL] Corrigir a documentação das funções trigonométricas
  • [SPARK-23569][PYTHON] Permitir que pandas_udf trabalhe com funções anotadas por tipo ao estilo do python3
  • [SPARK-23570][SQL] Adicionar o Spark 2.3.0 em HiveExternalCatalogVersionsSuite
  • [SPARK-23517][PYTHON] Faça pyspark.util._exception_message produza o rastreamento do lado Java por Py4JJavaError
  • [SPARK-23508][CORE] Corrigir BlockmanagerId no caso de blockManagerIdCache causar oom
  • [SPARK-23448][SQL] Esclarecer o comportamento do analisador JSON e CSV no documento
  • [FAÍSCA-23365][CORE] Não ajuste o número de executores quando matar executores ociosos.
  • [SPARK-23438][DSTREAMS] Corrigir perda de dados dos DStreams com WAL quando o driver falha
  • [FAÍSCA-23475][UI] Mostrar também etapas ignoradas
  • [SPARK-23518][SQL] Evite o acesso ao metastore quando os utilizadores quiserem apenas ler e escrever quadros de dados
  • [SPARK-23406][SS] Habilitar auto-junções de fluxo a fluxo
  • [SPARK-23541][SS] Permitir que a fonte Kafka leia dados com maior paralelismo do que o número de partições de artigo
  • [SPARK-23097][SQL][SS] Migrar a origem do socket de texto para a V2
  • [SPARK-23362][SS] Migrar a fonte do Kafka Microbatch para v2
  • [SPARK-23445] Refatoração ColumnStat
  • [FAÍSCA-23092][SQL] Migrar MemoryStream para APIs DataSourceV2
  • [SPARK-23447][SQL] Limpar o modelo de codegen para Literal
  • [FAÍSCA-23366]Melhorar o caminho de leitura rápida em ReadAheadInputStream
  • [SPARK-22624][PYSPARK] Expor particionamento de intervalo 'shuffle'

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 4.1.

Ambiente do Sistema

  • Sistema Operacional: Ubuntu 16.04.4 LTS
  • Java: 1.8.0_162
  • Escala: 2.11.8
  • Python: 2.7.12 para clusters Python 2 e 3.5.2 para clusters Python 3.
  • R: R versão 3.4.4 (2018-03-15)
  • Clusters de GPU: As seguintes bibliotecas de GPU NVIDIA estão instaladas:
    • Piloto da Tesla 375.66
    • CUDA 9,0
    • cuDNN 7,0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
ansi2html 1.1.1 Argparse 1.2.1 backports-abc 0,5
botão 2.42.0 Boto3 1.4.1 Botocore 1.4.70
cervejeiro2mpl 1.4.1 certifi 2016.2.28 CFFI 1.7.0
Chardet 2.3.0 Colorama 0.3.7 configobj 5.0.6
criptografia 1.5 ciclista 0.10.0 Cython 0.24.1
decorador 4.0.10 Docutils 0.14 ENUM34 1.1.6
et-xmlfile 1.0.1 freetype-py 1.0.2 funcsigs 1.0.2
fusepy 2.0.4 futuros 3.2.0 Ggplot 0.6.8
html5lib 0.999 IDNA 2.1 endereço IP 1.0.16
IPython 2.2.0 ipython-genutils 0.1.0 JDCAL 1.2
Jinja2 2.8 JmesPath 0.9.0 LLVMLITE 0.13.0
LXML 3.6.4 Marcação Segura 0.23 Matplotlib 1.5.3
MPLD3 0.2 msgpack-python 0.4.7 ndg-httpsclient 0.3.3
Dormência 0.28.1 dormência 1.11.1 openpyxl (biblioteca para manipular ficheiros Excel em Python) 2.3.2
pandas 0.19.2 Pathlib2 2.1.0 vítima 0.4.1
Espere 4.0.1 pickleshare 0.7.4 Almofada 3.3.1
pip (o gestor de pacotes do Python) 10.0.0b2 camada 3.9 kit de ferramentas de prompt 1.0.7
PSYCOPG2 2.6.2 ptyprocess 0.5.1 py4j 0.10.3
Pyarrow 0.8.0 Piasn1 0.1.9 Pycparser 2.14
Pigmentos 2.1.3 PyGObject 3.20.0 pyOpenSSL 16.0.0
Pyparsing 2.2.0 PYPNG 0.0.18 Python 2.7.12
python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.5.3 Python-Geohash 0.8.5 Pytz 01.06.2016
pedidos 2.11.1 s3transferência 0.1.9 scikit-learn (biblioteca de aprendizado de máquina em Python) 0.18.1
SciPy 0.18.1 esfregar 0.32 nascido no mar 0.7.1
Ferramentas de configuração 39.0.1 simplejson 3.8.2 simples3 1.0
despacho único 3.4.0.3 seis 1.10.0 statsmodels (uma biblioteca de Python para modelos estatísticos) 0.6.1
tornado 5.0.1 traços 4.3.0 urllib3 1.19.1
virtualenv 15.0.1 wcwidth 0.1.7 wheel 0.31.0
WSGIREF 0.1.2

Bibliotecas R instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Abind 1.4-5 afirme que 0.2.0 Retroportagens 1.1.2
base 3.4.4 Belo Horizonte 1.66.0-1 Bindr 0.1.1
Bindrcpp 0.2.2 pouco 1.1-12 bit64 0.9-7
Bitops 1.0-6 blob 1.1.1 inicialização 1.3-20
fabricação de cerveja 1.0-6 vassoura 0.4.4 carro 3.0-0
dadosDoCarro 3.0-1 Caret 6.0-79 CellRanger 1.1.0
crono 2.3-52 classe 7.3-14 CLI 1.0.0
cluster 2.0.7 CodeTools 0.2-15 espaço de cores 1.3-2
marca comum 1.4 compilador 3.4.4 lápis de cor 1.3.4
encaracolar 3.2 Trombose do Seio Venoso Cerebral (CVST) 0.2-1 tabela de dados 1.10.4-3
conjuntos de dados 3.4.4 DBI 0.8 DDALPHA 1.3.1.1
DEoptimR 1.0-8 descrição 1.1.1 DevTools 1.13.5
dicromata 2.0-0 resumo 0.6.15 Vermelho escuro 0.1.0
doMC 1.3.5 DPLYR 0.7.4 Redução do Risco de Desastres (RRD) 0.0.3
forçados 0.3.0 para cada 1.4.4 estrangeiro 0.8-69
GBM 2.1.3 GGPLOT2 2.2.1 Git2R 0.21.0
GLMNET 2.0-16 cola 1.2.0 Gower 0.1.2
gráficos 3.4.4 grDispositivos 3.4.4 grelha 3.4.4
GSUBFN 0,7 tabela g 0.2.0 água 3.16.0.2
Refúgio 1.1.1 HMS (Navio de Sua Majestade) 0.4.2 HTTR 1.3.1
Hwriter 1.3.2 hwriterPlus 1.0-3 ipred 0.9-6
iteradores 1.0.9 jsonlite 1.5 Kernlab 0.9-25
KernSmooth 2.23-15 etiquetagem 0,3 treliça 0.20-35
lave 1.6.1 preguiça 0.2.1 menor 0.3.3
LME4 1.1-17 lubridato 1.7.3 Magrittr 1.5
Mapproj 1.2.6 mapas 3.3.0 Ferramentas de mapa 0.9-2
MASSA 7.3-49 Matriz 1.2-13 Modelos Matriciais 0.4-1
memorização 1.1.0 métodos 3.4.4 MGCV 1.8-23
mímica 0,5 Minqa 1.2.4 Mnormt 1.5-5
ModelMetrics 1.1.0 Munsell 0.4.3 MVTnorm 1.0-7
NLME 3.1-137 NLOPTR 1.0.4 NNET 7.3-12
numDeriv 2016.8-1 openssl (conjunto de ferramentas para criptografia) 1.0.1 OpenXLSX 4.0.17
paralelo 3.4.4 pbkrtest 0.4-7 pilar 1.2.1
pkgconfig 2.0.1 pkgGatinho 0.1.4 plogr 0.2.0
Plyr 1.8.4 elogio 1.0.0 unidades elegantes 1.0.2
pROC 1.11.0 Prodlim 1.6.1 prototipo 1.0.0
psique 1.8.3.3 ronronar 0.2.4 Quantreg 5,35
R.métodosS3 1.7.1 R.oo 1.21.0 R.utils 2.6.0
R6 2.2.2 Floresta Aleatória 4.6-14 RColorBrewer 1.1-2
Rcpp 0.12.16 RcppEigen 0.3.3.4.0 RcppRoll 0.2.2
RCurl 1.95-4.10 Readr 1.1.1 ReadXL 1.0.0
receitas 0.1.2 revanche 1.0.1 remodelar2 1.4.3
Rio 0.5.10 Rlang 0.2.0 base robusta 0.92-8
RODBC 1.3-15 oxigénio2 6.0.1 rpart (função de partição recursiva em R) 4.1-13
rprojroot 1.3-2 Reserva 1.7-3 RSQLite 2.1.0
rstudioapi 0,7 balanças 0.5.0 sfsmisc 1.1-2
SP 1.2-7 Faísca 2.3.0 SparseM 1.77
espacial 7.3-11 estrias 3.4.4 sqldf 0.4-11
QUADRADO 2017.10-1 Statmod 1.4.30 estatísticas 3.4.4
estatísticas4 3.4.4 string 1.1.7 stringr 1.3.0
sobrevivência 2.41-3 tcltk (uma linguagem de programação) 3.4.4 Demonstrações de Ensino 2.10
teste que 2.0.0 Tibble 1.4.2 Tidyr 0.8.0
arrumadoselecionar 0.2.4 data e hora 3043.102 ferramentas 3.4.4
UTF8 1.1.3 utilitários 3.4.4 viridisLite 0.3.0
vibrissas 0.3-2 murchar 2.1.2 XML2 1.2.0

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)

ID do Grupo ID do Artefacto Versão
Antlr Antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.7.3
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.11.313
com.amazonaws AWS-Java-SDK-CloudFormation 1.11.313
com.amazonaws aws-java-sdk-cloudfront 1.11.313
com.amazonaws aws-java-sdk-cloudhsm 1.11.313
com.amazonaws AWS Java SDK para CloudSearch 1.11.313
com.amazonaws aws-java-sdk-cloudtrail 1.11.313
com.amazonaws aws-java-sdk-cloudwatch 1.11.313
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.313
com.amazonaws aws-java-sdk-codedeploy 1.11.313
com.amazonaws aws-java-sdk-cognitoidentity 1.11.313
com.amazonaws aws-java-sdk-cognitosync 1.11.313
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.11.313
com.amazonaws aws-java-sdk-core 1.11.313
com.amazonaws aws-java-sdk-datapipeline 1.11.313
com.amazonaws aws-java-sdk-directconnect 1.11.313
com.amazonaws aws-java-sdk-diretório 1.11.313
com.amazonaws aws-java-sdk-dynamodb 1.11.313
com.amazonaws aws-java-sdk-ec2 1.11.313
com.amazonaws aws-java-sdk-ecs 1.11.313
com.amazonaws aws-java-sdk-efs 1.11.313
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.11.313
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.11.313
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.11.313
com.amazonaws aws-java-sdk-elastictranscoder 1.11.313
com.amazonaws aws-java-sdk-emr 1.11.313
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.11.313
com.amazonaws aws-java-sdk-iam 1.11.313
com.amazonaws aws-java-sdk-importexport 1.11.313
com.amazonaws aws-java-sdk-kinesis 1.11.313
com.amazonaws aws-java-sdk-kms 1.11.313
com.amazonaws aws-java-sdk-lambda 1.11.313
com.amazonaws aws-java-sdk-logs 1.11.313
com.amazonaws aws-java-sdk-aprendizado de máquina 1.11.313
com.amazonaws aws-java-sdk-opsworks 1.11.313
com.amazonaws aws-java-sdk-rds 1.11.313
com.amazonaws aws-java-sdk-redshift 1.11.313
com.amazonaws aws-java-sdk-rota53 1.11.313
com.amazonaws aws-java-sdk-s3 1.11.313
com.amazonaws AWS Java SDK para SES 1.11.313
com.amazonaws aws-java-sdk-simpledb 1.11.313
com.amazonaws aws-java-sdk-simpleworkflow 1.11.313
com.amazonaws aws-java-sdk-sns 1.11.313
com.amazonaws aws-java-sdk-sqs 1.11.313
com.amazonaws aws-java-sdk-ssm 1.11.313
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.11.313
com.amazonaws AWS-Java-SDK-STS 1.11.313
com.amazonaws aws-java-sdk-suporte 1.11.313
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.313
com.amazonaws jmespath-java 1.11.313
com.carrotsearch HPPC 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics fluxo 2.7.0
com.databricks Reserva 1.8-3
com.databricks DBML-local_2,11 0.4.1-db1-faísca2.3
com.databricks dbml-local_2.11-testes 0.4.1-db1-faísca2.3
com.databricks Jatos 3T 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb SCALAPB-runtime_2,11 0.4.15-9
com.esotericsoftware sombra kriogénica 3.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.0.0
com.fasterxml.jackson.core Jackson-Annotations 2.6.7
com.fasterxml.jackson.core Jackson-Core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-módulo-paranamer 2.6.7
com.fasterxml.jackson.module jackson-módulo-scala_2.11 2.6.7.1
com.github.fommil Jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-Java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib sistema_nativo-Java 1.1
com.github.fommil.netlib sistema_nativo-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-nativos 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-nativos 1.1
com.github.luben ZSTD-JNI 1.3.2-2
com.github.rwl Jtransforms 2.4.0
com.google.code.findbugs JSR305 2.0.1
com.google.code.gson Gson 2.2.4
com.google.goiaba Goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2banco de dados h2 1.3.174
com.jamesmurty.utils Java-XmlBuilder 1.1
com.jcraft JSCH 0.1.50
com.jolbox BoneCP 0.8.0.LANÇAMENTO
com.mchange C3P0 0.9.5.1
com.mchange mchange-commons-java 0.2.10
com.microsoft.azure azure-data-lake-store-sdk (SDK para Azure Data Lake Store) 2.2.8
com.microsoft.sqlserver MSSQL-JDBC 6.2.2.JRE8
com.ning compressa-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter Chill-java 0.8.4
com.twitter chill_2.11 0.8.4
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe Configurações 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocidade analisadores de univocidade 2.5.9
com.vlkan flatbuffers 1.2.0-3F79E055
com.zaxxer HikariCP 2.4.1
commons-beanutils commons-beanutils 1.7.0
commons-beanutils commons-beanutils-core 1.8.0
commons-cli commons-cli 1.2
codec commons codec commons 1.10
Commons Collections Commons Collections 3.2.2
commons-configuração commons-configuração 1.6
commons-dbcp commons-dbcp 1.4
commons-digestor commons-digestor 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-net commons-net 2.2
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.ponte aérea compressor de ar 0.8
io.dropwizard.metrics métricas-base 3.1.5
io.dropwizard.metrics métricas-Ganglia 3.1.5
io.dropwizard.metrics métricas-grafite 3.1.5
io.dropwizard.metrics métricas e verificações de saúde 3.1.5
io.dropwizard.metrics métricas-jetty9 3.1.5
io.dropwizard.metrics métricas-json 3.1.5
io.dropwizard.metrics métricas do JVM 3.1.5
io.dropwizard.metrics métricas-log4j 3.1.5
io.dropwizard.metrics Métricas-Servlets 3.1.5
io.netty biblioteca Netty 3.9.9.Final
io.netty netty-tudo 4.1.17.Final
io.prometeu cliente simples 0.0.16
io.prometeu simpleclient_comum 0.0.16
io.prometeu simpleclient_dropwizard 0.0.16
io.prometeu simpleclient_servlet 0.0.16
io.prometheus.jmx recoletor 0,7
javax.ativação ativação 1.1.1
javax.anotação javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo JDO-API 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp JSP-API 2.1
javax.transaction JTA 1.1
javax.validação API de validação 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind JAXB-API 2.2.2
javax.xml.stream Stax-API 1.0-2
Javolution Javolution 5.5.1
Jline Jline 2.11
Joda-Time Joda-Time 2.9.3
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hidromática eigenbase-propriedades 1.1.5
net.iharder base64 2.3.8
net.java.dev.jets3t Jatos 3T 0.9.4
net.razorvine pirolite 4.13
net.sf.jpam JPAM 1.1
net.sf.opencsv OpenCSV 2.3
net.sf.supercsv Super-CSV 2.2.0
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt ONCRPC 1.0.7
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.4
org.antlr antlr4-tempo de execução 4.7
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ANT-JSCH 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de flecha 0.8.0
org.apache.arrow memória de setas 0.8.0
org.apache.arrow vetor de seta 0.8.0
org.apache.avro Avro 1.7.7
org.apache.avro AVRO-IPC 1.7.7
org.apache.avro Conjunto de testes avro-ipc 1.7.7
org.apache.avro avro-mapred-hadoop2 1.7.7
org.apache.calcite calcita-avatica 1.2.0 em incubação
org.apache.calcite núcleo de calcita 1.2.0 em incubação
org.apache.calcite calcita-linq4j 1.2.0 em incubação
org.apache.commons commons-comprimir 1.4.1
org.apache.commons commons-cripto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-matemática3 3.4.1
org.apache.curador curador e cliente 2.7.1
org.apache.curador Framework de Curadoria 2.7.1
org.apache.curador curador de receitas 2.7.1
org.apache.derby Dérbi 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api API-Util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations (anotações do hadoop) 2.7.3
org.apache.hadoop autenticação do Hadoop 2.7.3
org.apache.hadoop cliente Hadoop 2.7.3
org.apache.hadoop hadoop-comum 2.7.3
org.apache.hadoop Hadoop-HDFS 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) 2.7.3
org.apache.hadoop hadoop-mapreduce-cliente-core 2.7.3
org.apache.hadoop Cliente de Trabalho Hadoop MapReduce 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-cliente 2.7.3
org.apache.hadoop hadoop-yarn-comum 2.7.3
org.apache.hadoop hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) 2.7.3
org.apache.htrace htrace-núcleo 3.1.0 em incubação
org.apache.httpcomponents httpclient 4.5.4
org.apache.httpcomponents Núcleo Http 4.4.8
org.apache.ivy hera 2.4.0
org.apache.orc orc-core-nohive 1.4.1
org.apache.orc orc-mapreduce-nohive 1.4.1
org.apache.parquet coluna de parquet 1.8.2-DATABRICKS1
org.apache.parquet parquet-comum 1.8.2-DATABRICKS1
org.apache.parquet codificação-parquet 1.8.2-DATABRICKS1
org.apache.parquet formato parquet 2.3.1
org.apache.parquet Parquet-Hadoop 1.8.2-DATABRICKS1
org.apache.parquet Parquet-Jackson 1.8.2-DATABRICKS1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm5-sombreado 4.4
org.apache.zookeeper tratador de animais 3.4.6
org.bouncycastle bcprov-jdk15on 1.58
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson Jackson-Jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.jackson Jackson-XC 1.9.13
org.codehaus.janino compilador comum 3.0.8
org.codehaus.janino Janino 3.0.8
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus DataNucleus Core 3.2.10
org.datanucleus Datanucleus-RDBMS 3.2.9
org.eclipse.píer Jetty-Cliente 9.3.20.v20170531
org.eclipse.píer jetty-continuation (componente de software do Jetty) 9.3.20.v20170531
org.eclipse.píer Jetty-HTTP 9.3.20.v20170531
org.eclipse.píer Molhe IO 9.3.20.v20170531
org.eclipse.píer Cais-JNDI 9.3.20.v20170531
org.eclipse.píer Cais-Plus 9.3.20.v20170531
org.eclipse.píer Jetty-Proxy 9.3.20.v20170531
org.eclipse.píer Segurança do Jetty 9.3.20.v20170531
org.eclipse.píer servidor jetty 9.3.20.v20170531
org.eclipse.píer Jetty-servlet 9.3.20.v20170531
org.eclipse.píer Jetty-servlets 9.3.20.v20170531
org.eclipse.píer Jetty-util 9.3.20.v20170531
org.eclipse.píer Aplicação web Jetty 9.3.20.v20170531
org.eclipse.píer Jetty-XML 9.3.20.v20170531
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 HK2-API 2.4.0-B34
org.glassfish.hk2 HK2-Localizador 2.4.0-B34
org.glassfish.hk2 HK2-Utils 2.4.0-B34
org.glassfish.hk2 Localizador de recursos osgi 1.0.1
org.glassfish.hk2.externo aopalliance-reembalado 2.4.0-B34
org.glassfish.hk2.externo javax.injet 2.4.0-B34
org.glassfish.jersey.bundles.reembalado Jersey-Goiaba 2.22.2
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-cliente 2.22.2
org.glassfish.jersey.core Jersey comum 2.22.2
org.glassfish.jersey.core servidor Jersey 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hibernate hibernate-validator (ferramenta de validação de dados de Java) 5.1.1.Final
org.iq80.snappy rápido 0.2
org.javassist Javassist 3.18.1-GA
org.jboss.logging jboss-registro em log 3.1.3.GA
org.jdbi JDBI 2.63.1
org.joda joda-converter 1.7
org.jodd JODD-CORE 3.5.2
org.json4s JSON4S-ast_2.11 3.2.11
org.json4s JSON4S-core_2.11 3.2.11
org.json4s JSON4S-jackson_2.11 3.2.11
org.lz4 LZ4-Java 1.4.0
org.mariadb.jdbc mariadb-java-cliente 2.1.2
org.mockito mockito-tudo 1.9.5
org.objenesis objenese 2.1
org.postgresql PostgreSQL 42.1.4
org.roaringbitmap RoaringBitmap 0.5.11
org.rocksdb rocksdbjni 5.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2,11 2.11.8
org.scala-lang Escala-library_2,11 2.11.8
org.scala-lang Escala-reflect_2,11 2.11.8
org.scala-lang scalap_2.11 2.11.8
org.scala-lang.modules scala-parser-combinators_2,11 1.0.2
org.scala-lang.modules Escala-xml_2.11 1.0.5
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalanlp Brisa-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 2.2.6
org.slf4j jcl-compatível-com-slf4j 1.7.16
org.slf4j jul-para-slf4j 1.7.16
org.slf4j SLF4J-API 1.7.16
org.slf4j SLF4J-Log4J12 1.7.16
org.spark-project.hive colmeia-abelha 1.2.1.faísca2
org.spark-project.hive Hive-CLI 1.2.1.faísca2
org.spark-project.hive hive-exec 1.2.1.faísca2
org.spark-project.hive Hive-JDBC 1.2.1.faísca2
org.spark-project.hive sistema de metadados do Hive 1.2.1.faísca2
org.spark-project.spark não utilizado 1.0.0
org.spire-matemática torre-macros_2.11 0.13.0
org.spire-matemática spire_2.11 0.13.0
org.springframework spring-core (núcleo do Spring) 4.1.4.VERSÃO
org.springframework teste de primavera 4.1.4.VERSÃO
org.tukaani XZ 1.0
org.typelevel maquinista_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial SQLITE-JDBC 3.8.11.2
org.xerial.snappy Snappy-java 1.1.2.6
org.yaml Snakeyaml 1.16
ouro ouro 2.0.8
software.amazon.ion íon-java 1.0.2
Stax Stax-API 1.0.1
XMLENC XMLENC 0.52