Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
A Databricks lançou esta versão em outubro de 2019.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 6.0, desenvolvido pelo Apache Spark.
Novos recursos
Ambiente Python
O Databricks Runtime 6.0 inclui grandes mudanças no Python e na forma como os ambientes Python são configurados, incluindo a atualização do Python para 3.7.3, o refinamento da lista de pacotes Python instalados e a atualização desses pacotes instalados para versões mais recentes. Para obter detalhes, consulte Bibliotecas Python instaladas.
Além disso, como foi anunciado anteriormente, o Databricks Runtime 6.0 não suporta Python 2.
As principais alterações incluem:
- Python atualizado de 3.5.2 para 3.7.3. Algumas versões antigas de pacotes Python podem não ser compatíveis com o Python 3.7 porque dependem de versões antigas do Cython que não são compatíveis com o Python 3.7. A instalação de tal pacote pode desencadear erros semelhantes a
'PyThreadState' {'struct _ts'} has no member named 'exc_type'(veja a edição do GitHub de 1978 para obter detalhes). Instale, em vez disso, versões de pacotes Python compatíveis com Python 3.7. - Principais atualizações de pacotes:
- boto3 a 1.9.162
- Atualizar ipython para 7.4.0
- matplotlib para 3.0.3
- numpy para a versão 1.16.2
- pandas versão 0.24.2
- Pyarrow para 0.13.0
- Em comparação com o Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python foram recentemente incluídos: asn1crypto, backcall, jedi, kiwisolver, parso e PySocks.
- Em comparação com Databricks Runtime 5.5 LTS (EoS), os seguintes pacotes Python não estão instalados: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson e singledispatch.
- A função
displayem objetos ggplot do Python deixou de ser suportada porque o pacote ggplot não é compatível com as versões mais recentes da Panda. - A configuração
PYSPARK_PYTHONcomo/databricks/python2/bin/pythonnão é suportada porque o Databricks Runtime 6.0 não suporta Python 2. Um cluster com essa configuração ainda pode ser iniciado. No entanto, os cadernos Python e os comandos Python não funcionarão, ou seja, as células de comando Python falharão com um erro "Cancelado" e um erroPython shell failed to startaparecerá nos logs do driver. - Se
PYSPARK_PYTHONapontar para um executável Python que se encontra num ambiente gerido pelo Virtualenv, esse ambiente será ativado para scripts de inicialização e notebooks. Você pode usarpythonepipcomandos que são definidos no ambiente ativado diretamente sem ter que especificar os locais absolutos desses comandos. Por padrão,PYSPARK_PYTHONé definido como/databricks/python3/bin/python. Assim, por padrão,pythonaponta para/databricks/python3/bin/pythonepipaponta para/databricks/python3/bin/pippara scripts de init e blocos de notas. Se o seuPYSPARK_PYTHONapontar para um executável Python que não está em um ambiente gerido pelo Virtualenv ou se estiver a escrever um script de inicialização para criar o Python especificado peloPYSPARK_PYTHON, será necessário usar caminhos absolutos para aceder aopythonepipcorretos. Quando o isolamento da biblioteca Python está ativado (é ativado por padrão), o ambiente ativado ainda é o ambiente ao qualPYSPARK_PYTHONestá associado. Recomendamos que você use o utilitário Biblioteca (dbutils.library) (legado) para modificar o ambiente isolado associado a um bloco de anotações Python.
APIs Scala e Java para comandos Delta Lake DML
Agora você pode modificar dados em tabelas Delta usando APIs programáticas para excluir, atualizar e mesclar. Essas APIs espelham a sintaxe e a semântica de seus comandos SQL correspondentes e são ótimas para muitas cargas de trabalho, por exemplo, operações de dimensão de mudança lenta (SCD), mesclagem de dados de alteração para replicação e atualizações de consultas de streaming.
Para obter detalhes, consulte O que é Delta Lake no Azure Databricks?.
APIs Scala e Java para comandos do utilitário Delta Lake
O Databricks Runtime agora tem APIs programáticas para os comandos de utilitários vacuum e history. Essas APIs espelham a sintaxe e a semântica de seus comandos SQL correspondentes disponíveis em versões anteriores do Databricks Runtime.
Você pode limpar arquivos que não são mais referenciados por uma tabela Delta e são mais antigos do que o limite de retenção executando vacuum na tabela. A execução do vacuum comando na tabela aspira recursivamente os diretórios associados à tabela Delta. O limiar de retenção predefinido para os ficheiros é de 7 dias. A capacidade de regressar a uma versão mais antiga do que o período de retenção perde-se após a execução de vacuum.
vacuum não é acionado automaticamente.
Você pode recuperar informações sobre as operações, o usuário, a data e hora, e assim por diante, para cada gravação numa tabela Delta ao executar o comando history. As operações são retornadas em ordem cronológica inversa. Por padrão, o histórico da tabela é mantido por 30 dias.
Para obter detalhes, consulte O que é Delta Lake no Azure Databricks?.
Cache de disco disponível para instâncias do Azure Lsv2
Caching de disco agora está ativado por padrão para todas as instâncias Lsv2.
Armazenamento otimizado usando APIs de arquivos locais
As APIs de arquivo local são úteis, pois permitem que você acesse arquivos do armazenamento de objetos distribuídos subjacente como arquivos locais. No Databricks Runtime 6.0, aprimorámos o sistema de montagem FUSE que possibilita que as APIs de ficheiros locais resolvam as principais limitações. O Databricks Runtime 6.0 melhora significativamente a velocidade de leitura e gravação e suporta arquivos maiores que 2 GB. Se você precisar de leituras e gravações mais rápidas e confiáveis, como para treinamento de modelo distribuído, você achará esse aprimoramento particularmente útil. Além disso, você não precisaria carregar dados em um armazenamento local para suas cargas de trabalho, economizando custos e melhorando a produtividade.
Para obter detalhes, consulte O que é DBFS?.
Vários gráficos matplotlib por célula do bloco de anotações
Agora você pode exibir vários gráficos matplotlib por célula do bloco de anotações:
Credenciais de serviço para várias contas do Azure Data Lake Storage Gen1
Agora você pode configurar credenciais de serviço para várias contas de armazenamento do Azure para uso em uma única sessão do Apache Spark. Para fazer isso, adicione account.<account-name> às chaves de configuração. Por exemplo, se pretender configurar credenciais para as contas acederem a ambas as adl://example1.azuredatalakestore.net e adl://example2.azuredatalakestore.net, pode fazê-lo da seguinte forma:
spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")
spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")
spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")
Melhorias
- AWS SDK atualizado para 1.11.596.
- SDK de armazenamento do Azure atualizado no driver WASB para a versão 7.0.
-
OPTIMIZEAgora fornece um resumo de métricas como número de arquivos adicionados, número de arquivos removidos e tamanho máximo e mínimo do arquivo. Consulte Otimizar o formato do arquivo de dados.
Remoção
O Databricks ML Model Export foi removido. Em vez disso, use MLeap para importar e exportar modelos.
Apache Spark
Nota
Este artigo contém referências ao termo slave, um termo que o Azure Databricks não usa. Quando o termo for removido do software, iremos removê-lo deste artigo.
O Databricks Runtime 6.0 inclui o Apache Spark 2.4.3. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 5.5 LTS (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-27992][SPARK-28881][PYTHON] Permitir que o Python se conecte ao thread de conexão para propagar erros
- [SPARK-27330][SS]suporte a abortar a tarefa no writer foreach (6.0, 5.x)
- [SPARK-28642][SQL] Ocultar credenciais no SHOW CREATE TABLE
- [SPARK-28699][CORE] Corrigir um caso extremo para abortar estágio indeterminado
- [SPARK-28647][WEBUI] Recuperar funcionalidade de métrica adicional
- [SPARK-28766][R][DOC] Corrigir aviso de viabilidade de entrada do CRAN em URL inválido
- [SPARK-28486][CORE][PYTHON] Mapeie o arquivo de dados do PythonBroadcast para um BroadcastBlock para evitar a exclusão por GC
- [SPARK-25035][CORE] Evitando o mapeamento de memória na replicação de blocos armazenados no disco
- [SPARK-27234][SS][PYTHON] Use InheritableThreadLocal para o período atual no EpochTracker (para suportar UDFs Python)
- [SPARK-28638][WEBUI] O resumo da tarefa deve conter apenas as métricas das tarefas bem-sucedidas
- [FAÍSCA-28153][PYTHON] Use AtomicReference em InputFileBlockHolder (para suportar o input_file_name com Python UDF)
- [FAÍSCA-28564][CORE] A aplicação de histórico de acessos usa como padrão o identificador da última tentativa
- [SPARK-28260] O cluster pode ser encerrado automaticamente enquanto a consulta thriftserver ainda está a obter resultados
- [SPARK-26152][CORE] Sincronizar a limpeza do Worker com o encerramento do Worker
- [SPARK-28545][SQL] Adicionar o tamanho do mapa de hash ao registo direcional de ObjectAggregationIterator
- [FAÍSCA-28489][SS] Corrigir um erro em que o KafkaOffsetRangeCalculator.getRanges pode omitir offsets
- [SPARK-28421][ML] Otimização do desempenho de SparseVector.apply
- [FAÍSCA-28156][SQL] A auto-junção não deve perder a vista em cache
- [SPARK-28152][SQL] Mapeado ShortType para SMALLINT e FloatType para REAL para MsSqlServerDialect
- [SPARK-28054][SQL] Corrigir erro ao inserir tabela particionada do Hive dinamicamente onde o nome da partição é maiúsculo
- [SPARK-27159][SQL] atualizar o dialeto do servidor MSSQL para suportar o tipo binário
- [SPARK-28355][CORE][PYTHON] Use a configuração do Spark para o limite em que com...
- [FAÍSCA-27989][CORE] Adicionadas novas tentativas na conexão com o driver para k8s
- [SPARK-27416][SQL] UnsafeMapData & UnsafeArrayData Kryo serialização ...
- [SPARK-28430][UI] Corrigir a renderização da tabela de estágio quando algumas métricas de tarefas estão ausentes
- [SPARK-27485] EnsureRequirements.reorder deve lidar com expressões duplicadas adequadamente
- [SPARK-28404][SS] Corrigir valor de tempo limite negativo em RateStreamContinuousPartitionReader
- [SPARK-28378][PYTHON] Remover o uso de cgi.escape
- [SPARK-28371][SQL] Tornar o filtro Parquet "StartsWith" null-safe
- [SPARK-28015][SQL] Verificar se stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
- [SPARK-28302][CORE] Assegure-se de gerar um ficheiro de saída exclusivo para o SparkLauncher no Windows
- [SPARK-28308][CORE] A parte subsegundo de CalendarInterval deve ser preenchida antes da análise
- [SPARK-28170][ML][PYTHON] Vetores uniformes e documentação de matrizes
- [SPARK-28160][CORE] Corrigir um bug em que a função de retorno de chamada pode travar quando uma exceção não verificada é ignorada.
- [SPARK-27839][SQL] Altere UTF8String.replace() para operar em bytes UTF8
- [FAÍSCA-28157][CORE] Tornar SHS limpo KVStore LogInfo para as entradas na lista de exclusão
- [SPARK-28128][PYTHON][SQL] pandas UDFs agrupados ignoram partições vazias
- [SPARK-28012][SQL] O Hive UDF suporta expressão do tipo struct avaliável
- [SPARK-28164] Corrigir descrição de uso do start-slave.sh
- [FAÍSCA-27100][SQL] Use Array em vez de Seq em FilePartition para evitar StackOverflowError
- [SPARK-28154][ML] GMM corrigir a duplicação de cache
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 6.0.
Ambiente do sistema
- Sistema Operacional: Ubuntu 16.04.6 LTS
- Java: 1.8.0_232
- Escala: 2.11.12
- Píton: 3.7.3
- R: R versão 3.6.1 (2019-07-05)
- Lago Delta: 0.3.0
Nota
Embora o Scala 2.12 esteja disponível como um recurso experimental no Apache Spark 2.4, ele não é suportado no Databricks Runtime 6.0.
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| asn1crypto | 0.24.0 | Retorno de Chamada | 0.1.0 | botão | 2.49.0 |
| Boto3 | 1.9.162 | Botocore | 1.12.163 | certifi | 2019.3.9 |
| CFFI | 1.12.2 | Chardet | 3.0.4 | criptografia | 2.6.1 |
| ciclador | 0.10.0 | Cython | 0.29.6 | decorador | 4.4.0 |
| Docutils | 0.14 | IDNA | 2.8 | IPython | 7.4.0 |
| ipython-genutils | 0.2.0 | Jedi | 0.13.3 | JmesPath | 0.9.4 |
| Kiwisolver | 1.1.0 | Matplotlib | 3.0.3 | dormência | 1.16.2 |
| pandas | 0.24.2 | Parso | 0.3.4 | bode expiatório | 0.5.1 |
| Espere | 4.6.0 | pickleshare | 0.7.5 | pip (o gestor de pacotes do Python) | 19.0.3 |
| kit de ferramentas de prompt | 2.0.9 | PSYCOPG2 | 2.7.6.1 | ptyprocess | 0.6.0 |
| Pyarrow | 0.13.0 | Pycparser | 2.19 | Pycurl | 7.43.0 |
| Pigmentos | 2.3.1 | PyGObject | 3.20.0 | pyOpenSSL | 19.0.0 |
| Pyparsing | 2.4.2 | Meias PySocks | 1.6.8 | python-apt | 1.1.0.b1+ubuntu0.16.04.5 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.0 | Pytz | 2018.9 | pedidos | 2.21.0 |
| s3transferência | 0.2.1 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.20.3 | SciPy | 1.2.1 |
| nascido no mar | 0.9.0 | Ferramentas de configuração | 40.8.0 | seis | 1.12.0 |
| ssh-import-id | 5,5 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.9.0 | traços | 4.3.2 |
| Atualizações automáticas | 0.1 | urllib3 | 1.24.1 | virtualenv | 16.4.1 |
| wcwidth | 0.1.7 | wheel | 0.33.1 |
Bibliotecas R instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Abind | 1.4-5 | AskPass | 1.1 | asserçãoat | 0.2.1 |
| retro-adaptações | 1.1.3 | base | 3.6.1 | base64enc | 0.1-3 |
| Belo Horizonte | 1.69.0-1 | pouco | 1.1-14 | bit64 | 0.9-7 |
| Bitops | 1.0-6 | blob | 1.1.1 | arranque | 1.3-23 |
| propor soluções: 1. Brew café: preparar café 2. Brew chá: preparar chá 3. Brew cerveja: produzir cerveja | 1.0-6 | Chamador | 3.2.0 | carro | 3.0-2 |
| dadosDoCarro | 3.0-2 | circunflexo | 6.0-82 | Cellranger | 1.1.0 |
| crono | 2.3-53 | classe | 7.3-15 | CLI | 1.1.0 |
| Clipr | 0.5.0 | clisímbolos | 1.2.0 | cluster | 2.1.0 |
| CodeTools | 0,2-16 | espaço de cores | 1.4-1 | marca comum | 1.7 |
| compilador | 3.6.1 | configuração | 0,3 | lápis de cor | 1.3.4 |
| encaracolar | 3.3 | data.table (pacote para manipulação de dados em R) | 1.12.0 | conjuntos de dados | 3.6.1 |
| DBI | 1.0.0 | DBPlyr | 1.3.0 | descrição | 1.2.0 |
| DevTools | 2.0.1 | resumo | 0.6.18 | doMC | 1.3.5 |
| DPLYR | 0.8.0.1 | reticências | 0.1.0 | Fãsi | 0.4.0 |
| FORCATS | 0.4.0 | para cada | 1.4.4 | externa | 0.8-72 |
| forjar | 0.2.0 | FS | 1.2.7 | GBM | 2.1.5 |
| genérico | 0.0.2 | GGPLOT2 | 3.1.0 | GH | 1.0.1 |
| Git2R | 0.25.2 | GLMNET | 2.0-16 | cola | 1.3.1 |
| Gower | 0.2.0 | gráficos | 3.6.1 | grDispositivos | 3.6.1 |
| grelha | 3.6.1 | gridExtra | 2.3 | GSUBFN | 0,7 |
| tabela g | 0.3.0 | H₂O | 3.22.1.1 | Refúgio | 2.1.0 |
| HMS | 0.4.2 | htmltools | 0.3.6 | htmlwidgets (componentes HTML interativos) | 1.3 |
| HTTR | 1.4.0 | Hwriter | 1.3.2 | hwriterPlus | 1.0-3 |
| ini | 0.3.1 | ipred | 0.9-8 | iteradores | 1.0.10 |
| jsonlite | 1.6 | KernSmooth | 2.23-15 | etiquetagem | 0,3 |
| grelha | 0.20-38 | lave | 1.6.5 | preguiça | 0.2.2 |
| menor | 0.3.7 | LME4 | 1.1-21 | lubridato | 1.7.4 |
| Magrittr | 1.5 | Mapproj | 1.2.6 | mapas | 3.3.0 |
| Ferramentas de mapa | 0.9-5 | MASSA | 7.3-51.4 | Matriz | 1.2-17 |
| Modelos Matriciais | 0.4-1 | memorização | 1.1.0 | métodos | 3.6.1 |
| MGCV | 1.8-28 | mímica | 0,6 | Minqa | 1.2.4 |
| ModelMetrics | 1.2.2 | Munsell | 0.5.0 | MVTnorm | 1.0-10 |
| NLME | 3.1-141 | NLOPTR | 1.2.1 | NNET | 7.3-12 |
| numDeriv | 2016.8-1 | openssl (conjunto de ferramentas para criptografia) | 1.3 | OpenXLSX | 4.1.0 |
| paralelo | 3.6.1 | pbkrtest | 0.4-7 | pilar | 1.3.1 |
| pkgbuild | 1.0.3 | pkgconfig | 2.0.2 | pkgGatinho | 0.1.4 |
| pkgload | 1.0.2 | plogr | 0.2.0 | Plyr | 1.8.4 |
| elogiar | 1.0.0 | unidades bonitas | 1.0.2 | pROC | 1.14.0 |
| processx | 3.3.0 | Prodlim | 2018.04.18 | Progresso | 1.2.0 |
| prototipo | 1.0.0 | PS | 1.3.0 | ronronar | 0.3.2 |
| Quantreg | 5,38 | R.métodosS3 | 1.7.1 | R.oo | 1.22.0 |
| R.utils | 2.8.0 | r2d3 | 0.2.3 | R6 | 2.4.0 |
| Floresta Aleatória | 4.6-14 | rappdirs | 0.3.1 | rcmdcheck | 1.3.2 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.1 | RcppEigen | 0.3.3.5.0 |
| RcppRoll | 0.3.0 | RCurl | 1.95-4.12 | Leitor | 1.3.1 |
| ReadXL | 1.3.1 | receitas | 0.1.5 | revanche | 1.0.1 |
| Controles remotos | 2.0.2 | remodelar2 | 1.4.3 | Rio | 0.5.16 |
| Rlang | 0.3.3 | RODBC | 1.3-15 | oxigénio2 | 6.1.1 |
| rpart (função de partição recursiva em R) | 4.1-15 | rprojroot | 1.3-2 | Reserva | 1.8-6 |
| RSQLite | 2.1.1 | rstudioapi | 0.10 | escalas | 1.0.0 |
| informações da sessão | 1.1.1 | SP | 1.3-1 | Brilho | 1.0.0 |
| Faísca | 2.4.4 | SparseM | 1.77 | espacial | 7.3-11 |
| estrias | 3.6.1 | sqldf | 0.4-11 | QUADRADO | 2017.10-1 |
| Statmod | 1.4.30 | estatísticas | 3.6.1 | estatísticas4 | 3.6.1 |
| string | 1.4.3 | stringr | 1.4.0 | sobrevivência | 2.44-1.1 |
| Sistema | 3.1 | tcltk (uma linguagem de programação) | 3.6.1 | Demonstrações de Ensino | 2.10 |
| teste que | 2.0.1 | Tibble | 2.1.1 | Tidyr | 0.8.3 |
| arrumadoselecionar | 0.2.5 | data e hora | 3043.102 | ferramentas | 3.6.1 |
| usethis | 1.4.0 | UTF8 | 1.1.4 | utilitários | 3.6.1 |
| viridisLite | 0.3.0 | vibrissas | 0.3-2 | murchar | 2.1.2 |
| XML2 | 1.2.0 | xopen | 1.0.0 | yaml | 2.2.0 |
| ZIP | 2.0.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.8.10 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.595 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.595 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.595 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.595 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.595 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.595 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.595 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.595 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.595 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.595 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.595 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.595 |
| com.amazonaws | aws-java-sdk-core | 1.11.595 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.595 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.595 |
| com.amazonaws | aws-java-sdk-diretório | 1.11.595 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.595 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.595 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.595 |
| com.amazonaws | aws-java-sdk-efs | 1.11.595 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.595 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.595 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.595 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.595 |
| com.amazonaws | aws-java-sdk-emr | 1.11.595 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.595 |
| com.amazonaws | aws-java-sdk-glue | 1.11.595 |
| com.amazonaws | aws-java-sdk-iam | 1.11.595 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.595 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.595 |
| com.amazonaws | aws-java-sdk-kms | 1.11.595 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.595 |
| com.amazonaws | aws-java-sdk-logs | 1.11.595 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.595 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.595 |
| com.amazonaws | aws-java-sdk-rds | 1.11.595 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.595 |
| com.amazonaws | aws-java-sdk-rota53 | 1.11.595 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.595 |
| com.amazonaws | AWS Java SDK para SES | 1.11.595 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.595 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.595 |
| com.amazonaws | aws-java-sdk-sns | 1.11.595 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.595 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.595 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.595 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.595 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.595 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.595 |
| com.amazonaws | jmespath-java | 1.11.595 |
| com.carrotsearch | HPPC | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | fluxo | 2.7.0 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | DBML-local_2,11 | 0.5.0-db8-faísca2.4 |
| com.databricks | dbml-local_2.11-testes | 0.5.0-db8-faísca2.4 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | SCALAPB-runtime_2,11 | 0.4.15-9 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.0.0 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.6.7 |
| com.fasterxml.jackson.core | Jackson-Core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | módulo-jackson-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.11 | 2.6.7.1 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.3.2-2 |
| com.github.rwl | Jtransforms | 2.4.0 |
| com.google.code.findbugs | JSR305 | 2.0.1 |
| com.google.code.gson | Gson | 2.2.4 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2banco de dados | h2 | 1.3.174 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.2.8 |
| com.microsoft.azure | armazenamento Azure | 7.0.0 |
| com.microsoft.sqlserver | MSSQL-JDBC | 6.2.2.JRE8 |
| com.ning | compressa-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | Chill-java | 0.9.3 |
| com.twitter | chill_2.11 | 0.9.3 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocidade | analisadores de univocidade | 2.7.3 |
| com.vlkan | flatbuffers | 1.2.0-3F79E055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.3 |
| commons-cli | commons-cli | 1.2 |
| codec commons | codec commons | 1.10 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-configuração | commons-configuração | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digestor | commons-digestor | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.ponte aérea | compressor de ar | 0.10 |
| io.dropwizard.metrics | métricas-base | 3.1.5 |
| io.dropwizard.metrics | métricas-Ganglia | 3.1.5 |
| io.dropwizard.metrics | métricas-grafite | 3.1.5 |
| io.dropwizard.metrics | métricas-verificações de saúde | 3.1.5 |
| io.dropwizard.metrics | métricas-jetty9 | 3.1.5 |
| io.dropwizard.metrics | métricas-json | 3.1.5 |
| io.dropwizard.metrics | métricas do JVM | 3.1.5 |
| io.dropwizard.metrics | métricas-log4j | 3.1.5 |
| io.dropwizard.metrics | Métricas-Servlets | 3.1.5 |
| io.netty | biblioteca Netty | 3.9.9.Final |
| io.netty | netty-tudo | 4.1.17.Final |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | JSP-API | 2.1 |
| javax.transaction | JTA | 1.1 |
| javax.validação | API de validação | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.9.3 |
| JUNIT | JUNIT | 4.12 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hidromática | eigenbase-propriedades | 1.1.5 |
| net.razorvine | pirolite | 4.13 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.5 |
| net.floco de neve | Flocos de Neve-JDBC | 3.6.15 |
| net.floco de neve | faísca-snowflake_2.11 | 2.4.10-spark_2.4 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt | ONCRPC | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.4 |
| org.antlr | antlr4-tempo de execução | 4.7 |
| org.antlr | modelo de string | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 0.10.0 |
| org.apache.arrow | seta-memória | 0.10.0 |
| org.apache.arrow | vetor de seta | 0.10.0 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | AVRO-IPC | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.calcite | calcita-avatica | 1.2.0 incubação |
| org.apache.calcite | núcleo de calcita | 1.2.0 incubação |
| org.apache.calcite | calcita-linq4j | 1.2.0 incubação |
| org.apache.commons | commons-comprimir | 1.8.1 |
| org.apache.commons | commons-cripto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-matemática3 | 3.4.1 |
| org.apache.curador | curador e cliente | 2.7.1 |
| org.apache.curador | curador-framework | 2.7.1 |
| org.apache.curador | curador de receitas | 2.7.1 |
| org.apache.derby | dérbi | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | API-Util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop-annotations (anotações do hadoop) | 2.7.3 |
| org.apache.hadoop | autenticação do Hadoop | 2.7.3 |
| org.apache.hadoop | cliente Hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-comum | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-cliente-core | 2.7.3 |
| org.apache.hadoop | Cliente de Trabalho Hadoop MapReduce | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-cliente | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-comum | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) | 2.7.3 |
| org.apache.htrace | htrace-núcleo | 3.1.0 incubação |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | Núcleo Http | 4.4.10 |
| org.apache.ivy | hera | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.5.5 |
| org.apache.orc | orc-mapreduce-nohive | 1.5.5 |
| org.apache.orc | Orc-calços | 1.5.5 |
| org.apache.parquet | parquet-coluna | 1.10.1.2-databricks3 |
| org.apache.parquet | parquet-comum | 1.10.1.2-databricks3 |
| org.apache.parquet | codificação parquet | 1.10.1.2-databricks3 |
| org.apache.parquet | formato Parquet | 2.4.0 |
| org.apache.parquet | Parquet-Hadoop | 1.10.1.2-databricks3 |
| org.apache.parquet | Parquet-Jackson | 1.10.1.2-databricks3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm6-sombreado | 4.8 |
| org.apache.zookeeper | tratador de animais | 3.4.6 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | Jackson-Jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | Jackson-XC | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.10 |
| org.codehaus.janino | Janino | 3.0.10 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | DataNucleus Core | 3.2.10 |
| org.datanucleus | Datanucleus-RDBMS | 3.2.9 |
| org.eclipse.píer | Jetty-Cliente | 9.3.27.v20190418 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.3.27.v20190418 |
| org.eclipse.píer | Jetty-HTTP | 9.3.27.v20190418 |
| org.eclipse.píer | Molhe IO | 9.3.27.v20190418 |
| org.eclipse.píer | Cais-JNDI | 9.3.27.v20190418 |
| org.eclipse.píer | Cais-Plus | 9.3.27.v20190418 |
| org.eclipse.píer | Jetty-Proxy | 9.3.27.v20190418 |
| org.eclipse.píer | Segurança do Jetty | 9.3.27.v20190418 |
| org.eclipse.píer | servidor Jetty | 9.3.27.v20190418 |
| org.eclipse.píer | Jetty-servlet | 9.3.27.v20190418 |
| org.eclipse.píer | Jetty-servlets | 9.3.27.v20190418 |
| org.eclipse.píer | Jetty-util | 9.3.27.v20190418 |
| org.eclipse.píer | Aplicação web Jetty | 9.3.27.v20190418 |
| org.eclipse.píer | Jetty-XML | 9.3.27.v20190418 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.4.0-B34 |
| org.glassfish.hk2 | localizador hk2 | 2.4.0-B34 |
| org.glassfish.hk2 | HK2-Utils | 2.4.0-B34 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.1 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.4.0-B34 |
| org.glassfish.hk2.externo | javax.injet | 2.4.0-B34 |
| org.glassfish.jersey.bundles.reembalado | Jersey-Goiaba | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-cliente | 2.22.2 |
| org.glassfish.jersey.core | Jersey comum | 2.22.2 |
| org.glassfish.jersey.core | servidor Jersey | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hamcrest | núcleo de hamcreste | 1.3 |
| org.hamcrest | hamcrest-biblioteca | 1.3 |
| org.hibernate | hibernate-validator (ferramenta de validação de dados de Java) | 5.1.1.Final |
| org.iq80.snappy | rápido / vivaz / elegante | 0.2 |
| org.javassist | Javassist | 3.18.1-GA |
| org.jboss.logging | jboss-registro em log | 3.1.3.GA |
| org.jdbi | JDBI | 2.63.1 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.11 | 3.5.3 |
| org.json4s | JSON4S-core_2.11 | 3.5.3 |
| org.json4s | JSON4S-jackson_2.11 | 3.5.3 |
| org.json4s | JSON4S-scalap_2.11 | 3.5.3 |
| org.lz4 | LZ4-Java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.1.2 |
| org.mockito | mockito-núcleo | 1.10.19 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | calços | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2,11 | 2.11.12 |
| org.scala-lang | Escala-library_2,11 | 2.11.12 |
| org.scala-lang | Escala-reflect_2,11 | 2.11.12 |
| org.scala-lang.modules | scala-parser-combinators_2,11 | 1.1.0 |
| org.scala-lang.modules | Escala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalactic | scalactic_2.11 | 3.0.3 |
| org.scalanlp | Brisa-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 3.0.3 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.16 |
| org.slf4j | jul-para-slf4j | 1.7.16 |
| org.slf4j | SLF4J-API | 1.7.16 |
| org.slf4j | SLF4J-Log4J12 | 1.7.16 |
| org.spark-project.hive | colmeia-abelha | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-CLI | 1.2.1.faísca2 |
| org.spark-project.hive | Hive-JDBC | 1.2.1.faísca2 |
| org.spark-project.hive | sistema de metadados do Hive | 1.2.1.faísca2 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.spire-matemática | torre-macros_2.11 | 0.13.0 |
| org.spire-matemática | spire_2.11 | 0.13.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.tukaani | XZ | 1.5 |
| org.typelevel | mecânico_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.7.3 |
| org.yaml | Snakeyaml | 1.16 |
| ouro | ouro | 2.0.8 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |
| XMLENC | XMLENC | 0.52 |