Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
A Databricks lançou esta versão em novembro de 2020.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 7.4, alimentado pelo Apache Spark 3.0.
Novas funcionalidades
Nesta secção:
- Recursos e melhorias do Delta Lake
- O Auto Loader agora suporta delegar a configuração de recursos de notificação de arquivos aos administradores
-
Novos
USAGEprivilégios dão aos administradores maior controle sobre os privilégios de acesso a dados - DBFS FUSE agora habilitado para clusters habilitados para passagem
Recursos e melhorias do Delta Lake
Esta versão fornece os seguintes recursos e melhorias do Delta Lake:
- Nova API permite que o Delta Lake verifique se os dados adicionados a uma tabela satisfazem as restrições
- Nova API permite reverter uma tabela Delta para uma versão mais antiga da tabela
- Nova versão inicial permite retornar apenas as alterações mais recentes em uma fonte de streaming Delta Lake
-
Estabilidade melhorada de
OPTIMIZE
A nova API permite que o Delta Lake verifique se os dados adicionados a uma tabela satisfazem as restrições
Delta Lake agora suporta CHECK restrições. Quando fornecido, o Delta Lake verifica automaticamente se os dados adicionados a uma tabela satisfazem a expressão especificada.
Para adicionar CHECK restrições, use o ALTER TABLE ADD CONSTRAINTS comando. Para obter detalhes, consulte Restrições no Azure Databricks.
Nova API permite reverter uma tabela Delta para uma versão mais antiga da tabela
Agora você pode reverter suas tabelas Delta para versões mais antigas usando o comando RESTORE:
SQL
RESTORE <table> TO VERSION AS OF n;
RESTORE <table> TO TIMESTAMP AS OF 'yyyy-MM-dd HH:mm:ss';
Python
from delta.tables import DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp('yyyy-MM-dd')
linguagem de programação Scala
import io.delta.tables.DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp("yyyy-MM-dd")
RESTORE cria uma nova confirmação que reverte todas as alterações feitas na tabela desde a versão que você deseja restaurar. Todos os dados e metadados existentes são restaurados, o que inclui o esquema, restrições, IDs de transação de streaming, metadados COPY INTO e a versão do protocolo de tabela. Para obter detalhes, consulte Restaurar uma tabela Delta.
Nova versão inicial permite retornar apenas as alterações mais recentes em uma fonte de streaming Delta Lake
Para retornar apenas as alterações mais recentes, especifique startingVersion como latest. Para obter detalhes, consulte Especificar posição inicial.
Estabilidade melhorada de OPTIMIZE
OPTIMIZE (sem quaisquer predicados de partição) pode ser dimensionado para ser executado em tabelas com dezenas de milhões de pequenos ficheiros. Anteriormente, o driver Apache Spark poderia ficar sem memória e OPTIMIZE não seria concluído.
OPTIMIZE agora lida com tabelas muito grandes com dezenas de milhões de arquivos.
O Auto Loader agora suporta delegar a configuração de recursos de notificação de arquivos aos administradores
Uma nova API Scala permite que os administradores configurem recursos de notificação de arquivos para o Auto Loader. Os engenheiros de dados agora podem operar seus fluxos do Auto Loader com menos permissões, delegando a configuração inicial de recursos aos administradores. Consulte Configurar ou gerenciar manualmente recursos de notificação de arquivos.
Novos USAGE privilégios dão aos administradores maior controle sobre os privilégios de acesso a dados
Para executar uma ação em um objeto em um banco de dados, agora você deve receber o USAGE privilégio nesse banco de dados, além dos privilégios necessários para executar a ação. O privilégio USAGE é concedido para um banco de dados ou um catálogo. Com a introdução do privilégio USAGE, um proprietário de mesa não pode mais decidir unilateralmente compartilhá-lo com outro usuário; O usuário também deve ter o privilégio USAGE no banco de dados que contém a tabela.
Em espaços de trabalho com o controle de acesso à tabela habilitado, o grupo users tem automaticamente o privilégio de USAGE para a raiz CATALOG.
Para obter detalhes, consulte USAGE privilégio.
DBFS FUSE agora habilitado para clusters habilitados para passagem
Agora você pode ler e gravar a partir do DBFS usando a montagem FUSE em /dbfs/ quando estiver usando um cluster de alta simultaneidade habilitado para passagem de credenciais. Montagens regulares são suportadas. Não há suporte para montagens que exigem credenciais de passagem.
Melhorias
O Spark SQL suporta IFF e CHARINDEX como sinónimos para IF e POSITION
Em Databricks Runtime IF() é sinônimo de CASE WHEN <cond> THEN <expr1> ELSE <expr2> END
Databricks Runtime agora suporta IFF() como sinônimo de IF()
SELECT IFF(c1 = 1, 'Hello', 'World'), c1 FROM (VALUES (1), (2)) AS T(c1)
=> (Hello, 1)
(World, 2)
CHARINDEX é um nome alternativo para a POSITION função.
CHARINDEX Localiza a posição da primeira ocorrência de uma cadeia de caracteres dentro de outra cadeia de caracteres com um índice de início opcional.
VALUES(CHARINDEX('he', 'hello from hell', 2))
=> 12
Várias saídas por célula habilitadas para notebooks Python por padrão
O Databricks Runtime 7.1 introduziu suporte para várias saídas por célula em notebooks Python (e %python cells em notebooks não-Python), mas foi necessário habilitar o recurso para seu notebook. Esse recurso é habilitado por padrão no Databricks Runtime 7.4. Consulte Ver várias saídas por célula.
Melhorias de preenchimento automático para notebooks Python
O preenchimento automático para Python mostra informações de tipo adicionais geradas a partir da análise estática do código usando a biblioteca Jedi. Você pode pressionar a tecla Tab para ver uma lista de opções.
Melhoria display dos vetores do Spark ML na visualização do Spark DataFrame
O formato display agora mostra rótulos para tipo de vetor (esparso ou denso), comprimento, índices (para vetores esparsos) e valores.
Outras correções
- Corrigido um problema de decapagem em
collections.namedtupleblocos de anotações. - Corrigido um problema de decapagem com classes e métodos definidos interativamente.
- Corrigido um erro que fazia com que as chamadas para
mlflow.start_run()falhassem ao passar por clusters habilitados para o controlo de acesso às tabelas.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- Jedi atualizado de 0.14.1 para 0.17.2.
- Koalas atualizado de 1.2.0 para 1.3.0.
- Parso atualizado de 0.5.2 para 0.7.0.
- Atualizadas várias bibliotecas R instaladas. Consulte Bibliotecas R instaladas.
Faísca Apache
O Databricks Runtime 7.4 inclui o Apache Spark 3.0.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 7.3 LTS (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [FAÍSCA-33170] [SQL] Adicionar configuração SQL para controlar o comportamento de falha rápida em FileFormatWriter
- [FAÍSCA-33136] [SQL] Corrigir parâmetro trocado por engano em V2WriteCommand.outputResolved
- [FAÍSCA-33134] [SQL] Retornar resultados parciais somente para objetos JSON raiz
- [FAÍSCA-33038] [SQL] Combine os planos inicial e atual da AKE...
- [SPARK-33118] [SQL] CREATE TEMPORARY TABLE falha devido à localização
- [FAÍSCA-33101] [ML] Fazer com que o formato LibSVM propague a configuração do Hadoop das opções do DS para o sistema de arquivos HDFS subjacente
- [FAÍSCA-33035] [SQL] Atualiza as entradas obsoletas do mapeamento de atributos em QueryPlan#transformUpWithNewOutput
- [FAÍSCA-33091] [SQL] Evite usar map em vez de foreach para evitar possíveis efeitos colaterais em chamadores de OrcUtils.readCatalystSchema
- [FAÍSCA-33073] [PYTHON] Melhorar o tratamento de erros em falhas de conversão de Pandas para Seta
- [FAÍSCA-33043] [ML] Handle spark.driver.maxResultSize=0 na computação heurística RowMatrix
- [SPARK-29358] [SQL] Permitir que unionByName opcionalmente preencha colunas ausentes com nulos
- [FAÍSCA-32996] [WEB-UI] Manipular ExecutorMetrics vazio em ExecutorMetricsJsonSerializer
- [FAÍSCA-32585] [SQL] Suporte a enumeração scala em ScalaReflection
- [FAÍSCA-33019] [CORE] Use spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version=1 por padrão
- [FAÍSCA-33018] [SQL] Corrigir problema de estatísticas de estimativa se filho tiver 0 bytes
- [FAÍSCA-32901] [CORE] Não aloque memória durante o derramamento UnsafeExternalSorter
- [FAÍSCA-33015] [SQL] Use millisToDays() na regra ComputeCurrentTime
- [FAÍSCA-33015] [SQL] Calcular a data atual apenas uma vez
- [FAÍSCA-32999] [SQL] Use Utils.getSimpleName para evitar pressionar o nome da classe malformada em TreeNode
- [SPARK-32659] [SQL] Difundir Array em vez de conjunto em InSubqueryExec
- [SPARK-32718] [SQL] Remover palavras-chave desnecessárias para unidades de intervalo
- [SPARK-32886] [WEBUI] corrigir link 'indefinido' na visualização da linha do tempo do evento
- [FAÍSCA-32898] [CORE] Corrigir executorRunTime errado quando a tarefa foi morta antes do início real
- [FAÍSCA-32635] [SQL] Adicionar um novo caso de teste no módulo catalyst
- [FAÍSCA-32930] [CORE] Substituir métodos isFile/isDirectory preteridos
- [FAÍSCA-32906] [SQL] Os nomes dos campos Struct não devem ser alterados após a normalização dos flutuadores
- [FAÍSCA-24994] [SQL] Adicionar UnwrapCastInBinaryComparison otimizador para simplificar literal integral
- [FAÍSCA-32635] [SQL] Corrigir propagação dobrável
-
[FAÍSCA-32738] [CORE] Deve reduzir o número de threads ativos se ocorrer um erro fatal em
Inbox.process - [FAÍSCA-32900] [CORE] Permitir que UnsafeExternalSorter derrame quando houver nulos
- [SPARK-32897] [PYTHON] Não mostrar um aviso de obsolescência em SparkSession.builder.getOrCreate
- [FAÍSCA-32715] [CORE] Corrigir vazamento de memória quando não foi possível armazenar partes da transmissão
- [FAÍSCA-32715] [CORE] Corrigir vazamento de memória quando não foi possível armazenar partes da transmissão
- [FAÍSCA-32872] [CORE] Impedir que BytesToBytesMap em MAX_CAPACITY exceda o limite de crescimento
- [FAÍSCA-32876] [SQL] Altere as versões de fallback padrão para 3.0.1 e 2.4.7 no HiveExternalCatalogVersionsSuite
- [FAÍSCA-32840] [SQL] O valor do intervalo inválido pode ser apenas adesivo com a unidade
- [FAÍSCA-32819] [SQL] ignoreNullability parâmetro deve ser eficaz recursivamente
- [FAÍSCA-32832] [SS] Use CaseInsensitiveMap para opções de DataStreamReader/Writer
- [FAÍSCA-32794] [SS] Corrigido erro raro de canto no mecanismo de microlote com algumas consultas stateful + no-data-batches + fontes V1
- [SPARK-32813] [SQL] Obtenha a configuração padrão do leitor vetorizado ParquetSource se não houver SparkSession ativo
- [FAÍSCA-32823] [WEB UI] Corrigir o relatório de recursos da interface do usuário mestre
- [FAÍSCA-32824] [CORE] Melhorar a mensagem de erro quando o usuário esquece o .amount em uma configuração de recurso
- [SPARK-32614] [SQL] Não aplique o processamento de comentários se 'comment' não estiver configurado para CSV
- [FAÍSCA-32638] [SQL] Corrige referências ao adicionar aliases em WidenSetOperationTypes
- [SPARK-32810] [SQL] fontes de dados CSV/JSON devem evitar a utilização de globbing em caminhos ao inferir o esquema
- [FAÍSCA-32815] [ML] Corrigir erro de carregamento da fonte de dados LibSVM em caminhos de arquivo com metacaracteres glob
- [FAÍSCA-32753] [SQL] Copie apenas tags para o nó sem tags
- [FAÍSCA-32785] [SQL] Intervalo com partes pendentes não deve resultar nulo
- [FAÍSCA-32764] [SQL] -0.0 deve ser igual a 0.0
- [SPARK-32810] [SQL] fontes de dados CSV/JSON devem evitar a utilização de globbing em caminhos ao inferir o esquema
- [FAÍSCA-32779] [SQL] Evite usar a API sincronizada de SessionCatalog no fluxo withClient, isso leva ao DeadLock
- [SPARK-32791] [SQL] A métrica de tabela não partilhada não deve incluir tempo de poda de partições dinâmicas
- [SPARK-32767] [SQL] A junção por buckets deve funcionar se o número de spark.sql.shuffle.partitions for maior que o número de buckets
- [SPARK-32788] [SQL] a leitura de tabela não particionada não deve ter filtro de partição
- [SPARK-32776] [SS] O limite no streaming não deve ser otimizado por PropagateEmptyRelation
- [FAÍSCA-32624] [SQL] Corrigir regressão em CodegenContext.addReferenceObj em tipos Scala aninhados
- [FAÍSCA-32659] [SQL] Melhorar o teste de poda de DPP em tipos não atômicos
- [FAÍSCA-31511] [SQL] Tornar os iteradores BytesToBytesMap thread-safe
- [SPARK-32693] [SQL] Comparar dois dataframes com o mesmo esquema, exceto propriedade anulável
- [FAÍSCA-28612] [SQL] Documento de método correto de DataFrameWriterV2.replace()
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 7.4.
Ambiente do sistema
- Sistema Operacional: Ubuntu 18.04.5 LTS
- Java: Zulu 8.48.0.53-CA-linux64 (compilação 1.8.0_265-b11)
- Escala: 2.12.10
- Píton: 3.7.5
- R: R versão 3.6.3 (2020-02-29)
- Lago Delta 0.7.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| asn1crypto | 1.3.0 | Backcall | 0.1.0 | Boto3 | 1.12.0 |
| Botocore | 1.15.0 | certifi | 2020.6.20 | CFFI | 1.14.0 |
| Chardet | 3.0.4 | criptografia | 2.8 | ciclista | 0.10.0 |
| Quisto | 0.29.15 | decorador | 4.4.1 | Docutils | 0.15.2 |
| pontos de entrada | 0,3 | IDNA | 2.8 | Ipykernel | 5.1.4 |
| IPython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.17.2 |
| JmesPath | 0.10.0 | Joblib | 0.14.1 | jupyter-cliente | 5.3.4 |
| Jupyter-core | 4.6.1 | Kiwisolver | 1.1.0 | coalas | 1.3.0 |
| Matplotlib | 3.1.3 | dormência | 1.18.1 | pandas | 1.0.1 |
| Parso | 0.7.0 | vítima | 0.5.1 | Espere | 4.8.0 |
| pickleshare | 0.7.5 | pip (o gestor de pacotes do Python) | 20.0.2 | kit de ferramentas de prompt | 3.0.3 |
| PSYCOPG2 | 2.8.4 | ptyprocess | 0.6.0 | Pyarrow | 1.0.1 |
| Pycparser | 2.19 | Pigmentos | 2.5.2 | PyGObject | 3.26.1 |
| pyOpenSSL | 19.1.0 | Pyparsing | 2.4.6 | Meias PySocks | 1.7.1 |
| python-apt | 1.6.5+ubuntu0.3 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.1 | Pytz | 2019.3 |
| Pyzmq | 18.1.1 | pedidos | 2.22.0 | s3transferir | 0.3.3 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.22.1 | SciPy | 1.4.1 | nascido no mar | 0.10.0 |
| Ferramentas de configuração | 45.2.0 | seis | 1.14.0 | ssh-import-id | 5.7 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.11.0 | tornado | 6.0.3 | traços | 4.3.3 |
| Upgrades autônomos | 0.1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
| largura de wc | 0.1.8 | wheel | 0.34.2 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em XXXX-XX-XX.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1.1 | asserçãoat | 0.2.1 | Retroportagens | 1.1.8 |
| base | 3.6.3 | base64enc | 0.1-3 | Belo Horizonte | 1.72.0-3 |
| pouco | 1.1-15.2 | bit64 | 0.9-7 | blob | 1.2.1 |
| arranque | 1.3-25 | fabricação de cerveja | 1.0-6 | vassoura | 0.7.0 |
| Chamador | 3.4.3 | acento circunflexo | 6.0-86 | Cellranger | 1.1.0 |
| crono | 2.3-55 | classe | 7.3-17 | CLI | 2.0.2 |
| Clipr | 0.7.0 | cluster | 2.1.0 | CodeTools | 0,2-16 |
| espaço em cores | 1.4-1 | marca comum | 1.7 | compilador | 3.6.3 |
| configuração | 0,3 | CoVR | 3.5.0 | lápis de cor | 1.3.4 |
| conversa cruzada | 1.1.0.1 | encaracolar | 4.3 | tabela de dados | 1.12.8 |
| conjuntos de dados | 3.6.3 | DBI | 1.1.0 | DBPlyr | 1.4.4 |
| descrição | 1.2.0 | DevTools | 2.3.0 | resumo | 0.6.25 |
| DPLYR | 0.8.5 | DT | 0.14 | reticências | 0.3.1 |
| avaliar | 0.14 | Fãsi | 0.4.1 | Farver | 2.0.3 |
| mapa rápido | 1.0.1 | FORCATS | 0.5.0 | para cada | 1.5.0 |
| externa | 0.8-76 | forjar | 0.2.0 | FS | 1.4.2 |
| genérico | 0.0.2 | GGPLOT2 | 3.3.2 | GH | 1.1.0 |
| Git2R | 0.27.1 | GLMNET | 3.0-2 | Globais | 0.12.5 |
| colar | 1.4.1 | Gower | 0.2.2 | gráficos | 3.6.3 |
| grDispositivos | 3.6.3 | grelha | 3.6.3 | gridExtra | 2.3 |
| GSUBFN | 0,7 | tabela g | 0.3.0 | Refúgio | 2.3.1 |
| mais alto | 0.8 | HMS | 0.5.3 | htmltools | 0.5.0 |
| htmlwidgets (componentes HTML interativos) | 1.5.1 | httpuv | 1.5.4 | HTTR | 1.4.1 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| ipred | 0.9-9 | Isoband | 0.2.2 | iteradores | 1.0.12 |
| jsonlite | 1.7.0 | KernSmooth | 2.23-17 | Knitr | 1,29 |
| etiquetagem | 0,3 | mais tarde | 1.1.0.1 | treliça | 0.20-41 |
| lave | 1.6.7 | preguiça | 0.2.2 | ciclo de vida | 0.2.0 |
| lubridato | 1.7.9 | Magrittr | 1.5 | Marcação | 1.1 |
| MASSA | 7.3-53 | Matriz | 1.2-18 | memorização | 1.1.0 |
| métodos | 3.6.3 | MGCV | 1.8-33 | mímica | 0,9 |
| ModelMetrics | 1.2.2.2 | Modelador | 0.1.8 | Munsell | 0.5.0 |
| NLME | 3.1-149 | NNET | 7.3-14 | numDeriv | 2016.8 a 1.1 |
| openssl (conjunto de ferramentas para criptografia) | 1.4.2 | paralelo | 3.6.3 | pilar | 1.4.6 |
| pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
| plogr | 0.2.0 | Plyr | 1.8.6 | elogiar | 1.0.0 |
| unidades bonitas | 1.1.1 | pROC | 1.16.2 | processx | 3.4.3 |
| Prodlim | 2019.11.13 | Progresso | 1.2.2 | promessas | 1.1.1 |
| prototipo | 1.0.0 | PS | 1.3.3 | ronronar | 0.3.4 |
| r2d3 | 0.2.3 | R6 | 2.4.1 | Floresta Aleatória | 4.6-14 |
| rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
| Rcpp | 1.0.5 | Leitor | 1.3.1 | ReadXL | 1.3.1 |
| receitas | 0.1.13 | revanche | 1.0.1 | revanche2 | 2.1.2 |
| Controles remotos | 2.1.1 | Reprex | 0.3.0 | remodelar2 | 1.4.4 |
| Rex | 1.2.0 | RJSON | 0.2.20 | Rlang | 0.4.7 |
| rmarkdown | 2.3 | RODBC | 1.3-16 | oxigénio2 | 7.1.1 |
| rpart (função de partição recursiva em R) | 4.1-15 | rprojroot | 1.3-2 | Reserva | 1.8-7 |
| RSQLite | 2.2.0 | rstudioapi | 0,11 | rversões | 2.0.2 |
| Rvest | 0.3.5 | escalas | 1.1.1 | seletor | 0.4-2 |
| Informação da sessão | 1.1.1 | forma | 1.4.4 | brilhante | 1.5.0 |
| ferramentas de origem | 0.1.7 | Brilho | 1.3.1 | Faísca | 3.0.0 |
| espacial | 7.3-11 | estrias | 3.6.3 | sqldf | 0.4-11 |
| QUADRADO | 2020.3 | estatísticas | 3.6.3 | estatísticas4 | 3.6.3 |
| string | 1.4.6 | stringr | 1.4.0 | sobrevivência | 3.2-7 |
| Sistema | 3.3 | tcltk (uma linguagem de programação) | 3.6.3 | Demonstrações de Ensino | 2.10 |
| testeatat | 2.3.2 | Tibble | 3.0.3 | Tidyr | 1.1.0 |
| arrumadoselecionar | 1.1.0 | Tidyverse | 1.3.0 | data e hora | 3043.102 |
| Tinytex | 0.24 | ferramentas | 3.6.3 | usethis | 1.6.1 |
| UTF8 | 1.1.4 | utilitários | 3.6.3 | Identificador Único Universal (UUID) | 0.1-4 |
| VCTRS | 0.3.1 | viridisLite | 0.3.0 | vibrissas | 0.4 |
| murchar | 2.2.0 | xfun | 0,15 | XML2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-diretório | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-rota53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | AWS Java SDK para SES | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.655 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | jackson-anotações | 2.10.0 |
| com.fasterxml.jackson.core | Jackson-Core | 2.10.0 |
| com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.10.0 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.10.0 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | ZSTD-JNI | 1.4.4-3 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 1.4.195 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.2.8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 8.2.1.jre8 |
| com.ning | compressa-lzf | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.univocidade | analisadores de univocidade | 2.9.0 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1.2 |
| codec commons | codec commons | 1.10 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-configuração | commons-configuração | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digestor | commons-digestor | 1.8 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.10 |
| io.dropwizard.metrics | métricas-base | 4.1.1 |
| io.dropwizard.metrics | métricas-grafite | 4.1.1 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | métricas-jetty9 | 4.1.1 |
| io.dropwizard.metrics | métricas-jmx | 4.1.1 |
| io.dropwizard.metrics | métricas-json | 4.1.1 |
| io.dropwizard.metrics | métricas do JVM | 4.1.1 |
| io.dropwizard.metrics | Métricas-Servlets | 4.1.1 |
| io.netty | netty-tudo | 4.1.47.Final |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | JSP-API | 2.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | pirolite | 04:30 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.12.8 |
| net.floco de neve | faísca-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.7.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 0.15.1 |
| org.apache.arrow | seta-memória | 0.15.1 |
| org.apache.arrow | vetor de seta | 0.15.1 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | AVRO-IPC | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-comprimir | 1.8.1 |
| org.apache.commons | commons-cripto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.9 |
| org.apache.commons | commons-matemática3 | 3.4.1 |
| org.apache.commons | commons-texto | 1.6 |
| org.apache.curador | curador-cliente | 2.7.1 |
| org.apache.curador | curador-framework | 2.7.1 |
| org.apache.curador | curador-receitas | 2.7.1 |
| org.apache.derby | Dérbi | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | API-Util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop-annotations (anotações do hadoop) | 2.7.4 |
| org.apache.hadoop | autenticação do Hadoop | 2.7.4 |
| org.apache.hadoop | Cliente Hadoop | 2.7.4 |
| org.apache.hadoop | hadoop-comum | 2.7.4 |
| org.apache.hadoop | Hadoop-HDFS | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-cliente-core | 2.7.4 |
| org.apache.hadoop | Cliente de Trabalho Hadoop MapReduce | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-cliente | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-comum | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) | 2.7.4 |
| org.apache.hive | colmeia-abelha | 2.3.7 |
| org.apache.hive | Hive-CLI | 2.3.7 |
| org.apache.hive | colmeia-comum | 2.3.7 |
| org.apache.hive | colmeia-exec-core | 2.3.7 |
| org.apache.hive | Hive-JDBC | 2.3.7 |
| org.apache.hive | hive-llap-cliente | 2.3.7 |
| org.apache.hive | colmeia-lamp-comum | 2.3.7 |
| org.apache.hive | sistema de metadados do Hive | 2.3.7 |
| org.apache.hive | Colmeia-Serde | 2.3.7 |
| org.apache.hive | colmeias-calços | 2.3.7 |
| org.apache.hive | API de armazenamento Hive | 2.7.1 |
| org.apache.hive | hive-vector-code-gen | 2.3.7 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.7 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.7 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.7 |
| org.apache.htrace | htrace-núcleo | 3.1.0 incubação |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | Núcleo Http | 4.4.12 |
| org.apache.ivy | hera | 2.4.0 |
| org.apache.orc | orc-núcleo | 1.5.10 |
| org.apache.orc | orc-mapreduce | 1.5.10 |
| org.apache.orc | Orc-calços | 1.5.10 |
| org.apache.parquet | parquet-coluna | 1.10.1-DATABRICKS6 |
| org.apache.parquet | parquet-comum | 1.10.1-DATABRICKS6 |
| org.apache.parquet | codificação-parquet | 1.10.1-DATABRICKS6 |
| org.apache.parquet | formato parquet | 2.4.0 |
| org.apache.parquet | Parquet-Hadoop | 1.10.1-DATABRICKS6 |
| org.apache.parquet | Parquet-Jackson | 1.10.1-DATABRICKS6 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | velocidade | 1.5 |
| org.apache.xbean | xbean-asm7-sombreado | 4.15 |
| org.apache.yetus | anotações de audiência | 0.5.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | Jackson-Jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | Jackson-XC | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.18.v20190429 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.18.v20190429 |
| org.eclipse.píer | Jetty-HTTP | 9.4.18.v20190429 |
| org.eclipse.píer | Molhe IO | 9.4.18.v20190429 |
| org.eclipse.píer | Cais-JNDI | 9.4.18.v20190429 |
| org.eclipse.píer | Cais-Plus | 9.4.18.v20190429 |
| org.eclipse.píer | Jetty-Proxy | 9.4.18.v20190429 |
| org.eclipse.píer | Segurança do Jetty | 9.4.18.v20190429 |
| org.eclipse.píer | servidor jetty | 9.4.18.v20190429 |
| org.eclipse.píer | Jetty-servlet | 9.4.18.v20190429 |
| org.eclipse.píer | Jetty-servlets | 9.4.18.v20190429 |
| org.eclipse.píer | Jetty-util | 9.4.18.v20190429 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.18.v20190429 |
| org.eclipse.píer | Jetty-XML | 9.4.18.v20190429 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
| org.glassfish.jersey.core | jersey-cliente | 2.30 |
| org.glassfish.jersey.core | Jersey comum | 2.30 |
| org.glassfish.jersey.core | servidor de jersey | 2.30 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.30 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.6.6 |
| org.json4s | JSON4S-core_2.12 | 3.6.6 |
| org.json4s | JSON4S-jackson_2,12 | 3.6.6 |
| org.json4s | JSON4S-scalap_2.12 | 3.6.6 |
| org.lz4 | LZ4-Java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.1.2 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | calços | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.10 |
| org.scala-lang | Escala-library_2.12 | 2.12.10 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.10 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | Brisa-macros_2.12 | 1.0 |
| org.scalanlp | breeze_2.12 | 1.0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.30 |
| org.slf4j | jul-para-slf4j | 1.7.30 |
| org.slf4j | SLF4J-API | 1.7.30 |
| org.slf4j | SLF4J-Log4J12 | 1.7.30 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.threeten | trêsdez-extra | 1.5.0 |
| org.tukaani | XZ | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | gatos-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | torre-macros_2.12 | 0,17,0-m1 |
| org.typelevel | torre-platform_2.12 | 0,17,0-m1 |
| org.typelevel | torre-util_2.12 | 0,17,0-m1 |
| org.typelevel | spire_2.12 | 0,17,0-m1 |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.7.5 |
| org.yaml | Snakeyaml | 1,24 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |
| XMLENC | XMLENC | 0.52 |