Partilhar via


Tempo de execução do Databricks 9.0 (EoS)

Nota

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 9.0 e o Databricks Runtime 9.0 Photon, com tecnologia Apache Spark 3.1.2. A Databricks lançou esta versão em agosto de 2021. Photon está em Pré-visualização Pública.

Correção

Uma versão anterior destas notas de lançamento indicava incorretamente que as dependências do Apache Parquet foram atualizadas de 1.10 para 1.12. De facto, as dependências do Parquet permanecem na versão 1.10. A nota de lançamento incorreta foi removida.

Novos recursos e melhorias

Nova API para estatísticas resumidas de conjuntos de dados (Visualização pública)

O novo dbutils.data.summarize comando no Databricks Utilities permite iniciar um trabalho do Spark que calcula automaticamente estatísticas resumidas nas colunas de um DataFrame do Spark e, em seguida, exibe os resultados interativamente. Esta função está disponível em Scala e Python. Consulte Utilitário de dados (dbutils.data).

Configuração de fonte de dados externa mais fácil para o conector Synapse do Azure

A nova opção externalDataSource do conector Consultar dados no Azure Synapse Analytics permite que possa utilizar uma fonte de dados externa pré-configurada para aceder a um banco de dados do Azure Synapse. A externalDataSource opção elimina a necessidade da CONTROL permissão anteriormente necessária.

Ao definir externalDataSource, a fonte de dados externa e a opção tempDir usada para configurar o armazenamento temporário devem referenciar o mesmo container na conta de armazenamento.

Opcionalmente, limite a sessão a uma duração especificada para o conector do Amazon Redshift

A nova fs.s3a.assumed.role.session.duration opção no conector Query Amazon Redshift usando Azure Databricks permite definir opcionalmente uma duração para a sessão quando o Redshift estiver a aceder ao bucket temporário S3 com uma função assumida.

Carregador Automático

Listagem de arquivos otimizada

As otimizações do Auto Loader oferecem melhorias de desempenho e economia de custos ao listar diretórios aninhados no armazenamento em nuvem, incluindo AWS S3, Azure Data Lake Storage (ADLS) e Google Cloud Storage (GCS).

Por exemplo, se você tinha arquivos sendo carregados como /some/path/YYYY/MM/DD/HH/fileName, para encontrar todos os arquivos nesses diretórios, o Auto Loader costumava fazer uma listagem paralela de todos os subdiretórios, causando 365 (por dia) * 24 (por hora) = 8760 LIST chamadas de diretório de API para o armazenamento subjacente para cada diretório anual. Ao receber uma resposta nivelada desses sistemas de armazenamento, o Auto Loader reduz o número de chamadas de API para o número de arquivos no sistema de armazenamento dividido pelo número de resultados retornados por cada chamada de API (1000 para S3, 5000 para ADLS e 1024 para GCS), reduzindo consideravelmente seus custos de nuvem.

Armazenamento otimizado de dados de imagem

O Auto Loader agora pode detetar automaticamente os dados de imagem que estão sendo ingeridos e otimizar seu armazenamento em tabelas Delta para melhorar o desempenho de leitura e gravação. Consulte Importar imagem ou dados binários para o Delta Lake no contexto de ML.

Miniaturas de imagens para arquivos binários (Pré-visualização Pública)

As imagens em binaryFile formato carregado ou salvo como tabelas Delta usando o Carregador Automático possuem anotações associadas para que as miniaturas de imagem apareçam quando se exibe a tabela em um notebook do Azure Databricks. Para obter mais informações, consulte Imagens.

DirectoryRename eventos permitem o processamento atômico de vários arquivos

Os fluxos do Auto Loader criados no Databricks Runtime 9.0 e versões superiores no Azure Data Lake Storage configuram notificações de eventos de ficheiro para incluir renomeações de diretório e monitorizar eventos RenameDirectory. Você pode usar renomeações de diretório para fazer com que vários arquivos apareçam atomicamente no Auto Loader.

SQL

Excluir colunas em SELECT * (Versão de Pré-visualização Pública)

SELECT * agora suporta uma EXCEPT palavra-chave, que permite excluir colunas de nível superior especificadas da expansão. Por exemplo, SELECT * EXCEPT (b) FROM tbl de uma tabela com esquema (a, b, c) se expande para (a, c).

Funções escalares SQL (Visualização pública)

CREATE FUNCTION agora suporta funções escalares SQL. Você pode criar funções escalares que usam um conjunto de argumentos e retornam um único valor de tipo escalar. O corpo da função SQL pode ser qualquer expressão. Por exemplo:

CREATE FUNCTION square(x DOUBLE) RETURNS DOUBLE RETURN x * x;
SELECT square(2);

Para obter detalhes, consulte CREATE FUNCTION (SQL e Python).

Referenciar aliases e colunas anteriores em FROM subconsultas (Visualização pública)

As subconsultas na cláusula FROM de uma consulta agora podem ser precedidas pela palavra-chave LATERAL, permitindo-lhes referenciar aliases e colunas em itens FROM anteriores. Por exemplo:

SELECT * FROM t1, LATERAL (SELECT * FROM t2 WHERE t1.c1 = t2.c1)

A LATERAL palavra-chave suporta INNER, CROSSe LEFT (OUTER) JOIN.

Consulte Parâmetros e parâmetros.

Suporte R

Bibliotecas R com escopo de notebook (Visualização pública)

Bibliotecas com escopo de notebook permitem instalar bibliotecas e criar um ambiente específico para uma sessão de notebook. Essas bibliotecas não afetam outros notebooks a correr no mesmo cluster. As bibliotecas estão disponíveis nos nós de driver e de trabalho, para que você possa consultá-las em funções definidas pelo usuário. Consulte Bibliotecas R com escopo de notebook.

Mensagens de aviso em blocos de notas R

O valor padrão da opção warn agora está definido como 1 dentro de notebooks R. Como resultado, todos os avisos agora são expostos como parte do resultado do comando. Para saber mais sobre a warn opção, consulte Configurações de Opções.

Evite refazer ao especificar o estado inicial para o processamento com estado do Structured Streaming.

Agora poderá especificar um estado inicial definido pelo usuário para processamento de streaming estruturado com estado usando o operador [flat]MapGroupsWithState.

Consulte Especificar estado inicial para mapGroupsWithState.

Uma implementação com baixo nível de mistura do comando Delta MERGE INTO já está disponível (Pré-visualização pública)

O comando Delta MERGE INTO tem uma nova implementação disponível que reduz a movimentação de linhas não modificadas. Isto melhora o desempenho do comando e ajuda a preservar a clusterização existente na tabela, como a Z-ordering. Para habilitar a mesclagem com pouco shuffle, defina spark.databricks.delta.merge.enableLowShuffle como true. Consulte Mesclagem de baixa shuffle no Azure Databricks.

Correções de erros

  • Já não é possível substituir uma vista criando uma vista com o mesmo nome.

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • certifi de 2021.5.30 a 2020.12.5
    • chardet de 3.0.4 para 4.0.0
    • Cython de 0.29.21 a 0.29.23
    • decorador de 4.4.2 a 5.0.6
    • ipython de 7.19.0 a 7.22.0
    • joblib de 0.17.0 a 1.0.1
    • jupyter-client de 6.1.7 a 6.1.12
    • jupyter-core de 4.6.3 a 4.7.1
    • kiwisolver de 1.3.0 a 1.3.1
    • matplotlib de 3.2.2 a 3.4.2
    • pandas de 1.1.5 a 1.2.4
    • pip de 20.2.4 a 21.0.1
    • prompt-toolkit de 3.0.8 a 3.0.17
    • Protobuf de 3.17.3 a 3.17.2
    • ptyprocess de 0.6.0 a 0.7.0
    • Pyarrow de 1.0.1 para 4.0.0
    • Pygments de 2.7.2 a 2.8.1
    • pyzmq de 19.0.2 a 20.0.0
    • Pedidos de 2.24.0 a 2.25.1
    • s3transfer de 0.3.6 para 0.3.7
    • scikit-learn de 0.23.2 a 0.24.1
    • scipy de 1.5.2 a 1.6.2
    • Seaborn de 0.10.0 a 0.11.1
    • setuptools de 50.3.1 a 52.0.0
    • statsmodels de 0.12.0 a 0.12.2
    • Tornado de 6.0.4 a 6.1
    • virtualenv de 20.2.1 a 20.4.1
    • roda de 0.35.1 a 0.36.2
  • Bibliotecas R atualizadas:
    • Matriz de 1.3-3 para 1.3-4

Faísca Apache

O Databricks Runtime 9.0 inclui o Apache Spark 3.1.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 8.4 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [SPARK-35886] [SQL][3.1] PromotePrecision não deve substituir genCodePromotePrecision não deve substituir genCode
  • [SPARK-35879] [CORE][shuffle] Corrigir regressão de desempenho causada por collectFetchRequests
  • [SPARK-35817] [SQL][3.1] Restaurar o desempenho de consultas em tabelas Avro amplas
  • [SPARK-35841] [SQL] A conversão de cadeia de caracteres para o tipo decimal não funciona se...
  • [SPARK-35783] [SQL] Definir a lista de colunas a serem lidas na configuração da tarefa para reduzir a leitura de dados ORC
  • [SPARK-35576] [SQL][3.1] Redigir as informações confidenciais do resultado do comando Set
  • [SPARK-35449] [SQL][3.1] Extrair apenas expressões comuns dos valores de CaseWhen se elseValue estiver definido
  • [SPARK-35288] [SQL] StaticInvoke deve encontrar o método sem uma correspondência exata das classes dos argumentos.
  • [SPARK-34794] [SQL] Corrigir problemas de nome de variável lambda em funções aninhadas de DataFrame
  • [SPARK-35278] [SQL] Invoke deve encontrar o método do número correto de parâmetros
  • [SPARK-35226] [SQL] Suportar a opção refreshKrb5Config nas fontes de dados JDBC
  • [SPARK-35244] [SQL] Invoke deve lançar a exceção original
  • [SPARK-35213] [SQL] Manter a ordem correta das estruturas aninhadas em as operações encadeadas comField
  • [SPARK-35087] [UI] Algumas colunas na tabela Métricas agregadas por executor da página de detalhes do estágio são exibidas incorretamente.
  • [SPARK-35168] [SQL] mapred.reduce.tasks deve ser shuffle.partitions e não adaptive.coalescePartitions.initialPartitionNum
  • [SPARK-35127] [UI] Quando alternamos entre diferentes páginas de detalhes das fases, o item de entrada na página recém-aberta pode estar em branco
  • [SPARK-35142] [PYTHON][ml] Corrigir o tipo de retorno incorreto para rawPredictionUDF no OneVsRestModel
  • [SPARK-35096] [SQL] SchemaPruning deve aderir à configuração spark.sql.caseSensitive
  • [SPARK-34639] [SQL][3.1] RelationalGroupedDataset.alias não deve criar UnresolvedAlias
  • [SPARK-35080] [SQL] Permitir apenas um subconjunto de predicados de igualdade correlacionados quando uma subconsulta é agregada
  • [SPARK-35117] [UI] Alterar a barra de progresso para voltar a destacar a proporção de tarefas em progresso
  • [SPARK-35136] Remova o valor nulo inicial de LiveStage.info
  • [SPARK-34834] [REDES] Corrigir uma possível fuga de memória Netty no TransportResponseHandler
  • [SPARK-35045] [SQL] Adicionar uma opção interna para controlar o buffer de entrada na Univocity
  • [SPARK-35014] Corrigir o padrão PhysicalAggregation para não reescrever expressões computáveis
  • [SPARK-35019] [PYTHON][sql] Corrigir incompatibilidades de anotações de tipo no pyspark.sql.*
  • [SPARK-34926] [SQL][3.1] PartitioningUtils.getPathFragment() deve respeitar quando o valor da partição é nulo
  • [FAÍSCA-34630] [PYTHON] Adicionar sugestão de tipo para pyspark.version
  • [SPARK-34963] [SQL] Corrigir a poda de coluna aninhada para extrair o campo struct insensível a maiúsculas e minúsculas do array de struct
  • [SPARK-34988] [CORE][3.1] Atualizar Jetty para CVE-2021-28165
  • [SPARK-34922] [SQL][3.1] Utilizar uma função de comparação de custos relativos no CBO
  • [SPARK-34970] [SQL][security][3.1] Opções de tipo de mapa Redact na saída de explain()
  • [SPARK-34923] [SQL] A saída de metadados deve estar vazia para mais planos
  • [SPARK-34949] [CORE] Impedir que o BlockManager se registe novamente quando o Executor estiver a ser desligado
  • [SPARK-34939] [CORE] Lançar exceção de falha de obtenção quando não for possível desserializar os estados do mapa difundido
  • [SPARK-34909] [SQL] Corrigir a conversão de negativo para não assinado em conv()
  • [SPARK-34845] [CORE] ProcfsMetricsGetter não deve retornar métricas procfs parciais
  • [SPARK-34814] [SQL] LikeSimplification deveria manipular NULL
  • [SPARK-34876] [SQL] Preencher defaultResultado de agregações não anuláveis
  • [SPARK-34829] [SQL] Corrigir resultados da função de ordem superior
  • [SPARK-34840] [SHUFFLE] Corrige casos de corrupção em mistura combinada ...
  • [SPARK-34833] [SQL] Aplicar preenchimento à direita corretamente para subconsultas correlacionadas
  • [SPARK-34630] [PYTHON][sql] Anotação de tipo adicionada para pyspark.sql.Column.contains
  • [FAÍSCA-34763] [SQL] col(), $"name" e df("name") devem lidar com nomes de colunas entre aspas de forma adequada
  • [SPARK-33482][SPARK-34756] [SQL] Corrigir verificação de igualdade do FileScan
  • [SPARK-34790] [CORE] Desativar a busca de blocos de shuffle em lote quando a criptografia de IO estiver ativada
  • [SPARK-34803] [PYSPARK] Transmita o ImportError levantado se pandas ou pyarrow falharem ao importar
  • [SPARK-34225] [CORE] Não codifice mais quando uma cadeia de caracteres de formulário URI é passada para addFile ou addJar
  • [SPARK-34811] [CORE] Redact fs.s3a.access.key como segredo e token
  • [SPARK-34796] [SQL][3.1] Inicializar variável de contador para LIMIT geração de código em doProduce()
  • [SPARK-34128] [SQL] Suprimir avisos indesejáveis de TTransportException envolvidos em THRIFT-4805
  • [SPARK-34776] [SQL] A poda de coluna aninhada não deve podar atributos gerados por funções de janela
  • [SPARK-34087] [3.1][sql] Corrigir vazamento de memória do ExecutionListenerBus
  • [SPARK-34772] [SQL] RebaseDateTime loadRebaseRecords deve usar o carregador de classes Spark em vez do contexto
  • [SPARK-34719] [SQL][3.1] Resolver corretamente a consulta da vista com nomes de colunas duplicados
  • [SPARK-34766] [SQL][3.1] Não capture a configuração do Maven para visualizações
  • [SPARK-34731] [CORE] Evitar ConcurrentModificationException quando ocultar propriedades em EventLoggingListener
  • [SPARK-34737] [SQL][3.1] Converter o tipo float de entrada para double TIMESTAMP_SECONDS
  • [SPARK-34749] [SQL][3.1] Simplificar ResolveCreateNamedStruct
  • [SPARK-34768] [SQL] Respeitar o tamanho do buffer de entrada padrão no Univocity
  • [SPARK-34770] [SQL] InMemoryCatalog.tableExists não deve falhar se o banco de dados não existir
  • [SPARK-34504] [SQL] Evitar a resolução desnecessária de vistas temporárias do SQL para comandos DDL
  • [SPARK-34727] [SQL] Corrigir discrepância na conversão de ponto flutuante para timestamp
  • [SPARK-34723] [SQL] Corrigir o tipo de parâmetro para a eliminação de subexpressão durante o processo completo
  • [SPARK-34724] [SQL] Corrigir avaliação interpretada usando getMethod em vez de getDeclaredMethod
  • [FAÍSCA-34713] [SQL] Corrigir grupo por CreateStruct com ExtractValue
  • [SPARK-34697] [SQL] Permitir que DESCRIBE FUNCTION e SHOW FUNCTIONS expliquem sobre || (operador de concatenação de string)
  • [SPARK-34682] [SQL] Use PrivateMethodTester em vez de reflection
  • [SPARK-34682] [SQL] Corrigir regressão na verificação de erros de canonicalização em CustomShuffleReaderExec
  • [SPARK-34681] [SQL] Corrigir o erro da associação externa completa de hash aleatório ao compilar o lado esquerdo com condição não igual
  • [SPARK-34545] [SQL] Corrigir problemas com o recurso valueCompare da pyrolite
  • [SPARK-34607] [SQL][3.1] Adicionar Utils.isMemberClass para corrigir um erro de nome de classe malformado no jdk8u
  • [SPARK-34596] [SQL] Use Utils.getSimpleName para evitar encontrar um nome de classe malformado em NewInstance.doGenCode
  • [SPARK-34613] [SQL] Corrigir que a vista não captura a configuração de desativação de dicas
  • [SPARK-32924] [WEBUI] Ordenar corretamente a coluna de duração na interface de utilizador mestre.
  • [SPARK-34482] [SS] Corrija o SparkSession ativo para StreamExecution.logicalPlan
  • [SPARK-34567] [SQL] CreateTableAsSelect também deve atualizar as métricas
  • [SPARK-34599] [SQL] Corrigir o problema em que INSERT INTO OVERWRITE não suporta colunas de partição que contêm um ponto no DSv2
  • [FAÍSCA-34577] [SQL] Corrigir remoção/acrescentar colunas num conjunto de dados de DESCRIBE NAMESPACE
  • [SPARK-34584] [SQL] A partição estática também deve seguir a StoreAssignmentPolicy ao inserir nas tabelas v2
  • [SPARK-34555] [SQL] Resolver a saída dos metadados do DataFrame
  • [SPARK-34534] Corrigir a ordem dos IDs de blocos ao usar FetchShuffleBlocks para buscar blocos
  • [SPARK-34547] [SQL] Usar colunas de metadados para resolução de conflitos apenas como último recurso
  • [SPARK-34417] [SQL] org.apache.spark.sql.DataFrameNaFunctions.fillMap falha para nomes de coluna que contêm um ponto.
  • [SPARK-34561] [SQL] Corrigir remover/adicionar colunas de/em um conjunto de dados da v2 DESCRIBE TABLE
  • [SPARK-34556] [SQL] A verificação de colunas de partição estática duplicadas deve respeitar a configuração diferenciadora de maiúsculas e minúsculas
  • [SPARK-34392] [SQL] Suportar ZoneOffset +h:mm em DateTimeUtils. getZoneId
  • [SPARK-34550] [SQL] Ignorar o valor nulo em InSet durante a aplicação do filtro para o metastore do Hive
  • [FAÍSCA-34543] [SQL] Respeitar as configurações ao resolver a especificação de partição na v1 spark.sql.caseSensitive
  • [SPARK-34436] [SQL] Suporte DPP para a expressão LIKE ANY/ALL
  • [SPARK-34531] [CORE] Remover etiqueta de API experimental no PrometheusServlet
  • [FAÍSCA-34497] [SQL] Corrigir fornecedores integrados de conexão JDBC para restaurar alterações no contexto de segurança da JVM
  • [SPARK-34515] [SQL] Corrigir NPE se InSet contiver um valor nulo durante getPartitionsByFilter
  • [SPARK-34490] [SQL] A análise deve falhar se a vista se referir a uma tabela eliminada
  • [SPARK-34473] [SQL] Prevenir NPE em DataFrameReader.schema(StructType)
  • [SPARK-34384] [CORE] Adicionar documentação em falta para APIs de ResourceProfile
  • [FAÍSCA-34373] [SQL] HiveThriftServer2 startWithContext pode travar com um problema de corrida
  • [SPARK-20977] [CORE] Usar um campo não final para o estado de CollectionAccumulator
  • [SPARK-34421] [SQL] Resolver funções e views temporárias em views com CTEs
  • [SPARK-34431] [CORE] Carregar hive-site.xml apenas uma vez
  • [SPARK-34405] [CORE] Corrigir o valor médio das etiquetas de temporizadores na classe PrometheusServlet
  • [SPARK-33438] [SQL] Inicializar proativamente objetos com Configurações SQL definidas para o comando set -v
  • [SPARK-34158] URL incorreta do único desenvolvedor Matei no pom.xml
  • [SPARK-34346] [CORE][sql][3.1] io.file.buffer.size definido por spark.buffer.size será substituído ao carregar hive-site.xml, o que acidentalmente pode causar regressão de performance
  • [SPARK-34359] [SQL][3.1] Adicione uma configuração herdada para restaurar o esquema de saída do SHOW DATABASES
  • [SPARK-34331] [SQL] Aumentar a velocidade da resolução de metadados da col DS v2
  • [FAÍSCA-34318] [SQL][3.1] Dataset.colRegex deve funcionar com nomes de colunas e qualificadores que contenham linhas novas
  • [SPARK-34326] [CORE][sql] Corrija UTs adicionados no SPARK-31793 dependendo do comprimento do caminho temporário
  • [SPARK-34319] [SQL] Resolver atributos duplicados para FlatMapCoGroupsInPandas/MapInPandas
  • [SPARK-34310] [CORE][sql] Substitui mapa e nivelamento por flatMap
  • [SPARK-34083] [SQL][3.1] Utilizando definições originais de TPCDS para colunas char/varchar
  • [SPARK-34233] [SQL][3.1] FIX NPE para preenchimento de char em comparação binária
  • [SPARK-34270] [SS] StateStoreMetrics combinado não deve sobrescrever StateStoreCustomMetric
  • [SPARK-34144] [SQL] Exceção lançada ao tentar escrever valores LocalDate e Instant numa relação JDBC
  • [SPARK-34273] [CORE] Não reinscreva o BlockManager quando o SparkContext for parado
  • [SPARK-34262] [SQL][3.1] Atualizar dados armazenados em cache da tabela v1 em ALTER TABLE .. SET LOCATION
  • [SPARK-34275] [CORE][sql][MLLIB] Substitui o filtro e o tamanho pela contagem
  • [FAÍSCA-34260] [SQL] Corrige UnresolvedException ao criar a vista temporária duas vezes
  • [SPARK-33867] [SQL] Os valores Instant e LocalDate não são manipulados ao gerar consultas SQL
  • [SPARK-34193] [CORE] TorrentBroadcast correção de condição de corrida no descomissionamento do gestor de blocos.
  • [SPARK-34221] [WEBUI] Assegure que, se um estágio falhar na página da interface, a mensagem de erro correspondente possa ser exibida corretamente
  • [SPARK-34236] [SQL] Corrigir v2 Overwrite com partição estática nula levantando erro: Não é possível traduzir expressão para filtro de origem: null
  • [SPARK-34212] [SQL] Corrigir leitura decimal incorreta de ficheiros Parquet
  • [SPARK-34244] [SQL] Remover a versão da função Scala de regexp_extract_all
  • [SPARK-34235] [SS] Tornar spark.sql.hive um pacote privado
  • [SPARK-34232] [CORE] Editar o evento SparkListenerEnvironmentUpdate no log
  • [SPARK-34229] [SQL] Avro deve ler valores decimais com o esquema do ficheiro
  • [SPARK-34223] [SQL] Corrigir NPE numa partição estática com null em InsertIntoHadoopFsRelationCommand
  • [SPARK-34192] [SQL] Mova o preenchimento de caracteres para a escrita e remova a verificação de comprimento na leitura também
  • [FAÍSCA-34203] [SQL] Converter null valores de partição para __HIVE_DEFAULT_PARTITION__ no catálogo v1 In-Memory
  • [SPARK-33726] [SQL] Correção para nomes de campo duplicados durante a agregação
  • [SPARK-34133] [AVRO] Respeitar a sensibilidade a maiúsculas e minúsculas ao realizar a correspondência de campo Catalyst-to-Avro
  • [SPARK-34187] [SS] Use a faixa de deslocamento disponível obtida durante a sondagem ao confirmar a validação de deslocamento
  • [SPARK-34052] [SQL][3.1] armazenar texto SQL para uma exibição temporária criada usando "CACHE TABLE .. COMO SELECT..."
  • [SPARK-34213] [SQL] Atualizar dados armazenados em cache da tabela v1 em LOAD DATA
  • [SPARK-34191] [PYTHON][sql] Adicionar tipagem para sobrecarga de udf
  • [SPARK-34200] [SQL] A referência ambígua da coluna deve ter em conta a disponibilidade dos atributos.
  • [SPARK-33813] [SQL][3.1] Corrija o problema de que a origem JDBC não pode tratar os tipos espaciais do MS SQL Server
  • [SPARK-34178] [SQL] Copiar tags para o novo nó criado por MultiInstanceRelation.newInstance
  • [SPARK-34005] [CORE][3.1] Atualizar métricas de memória de pico para cada Executor no final da tarefa
  • [SPARK-34115] [CORE] Verifique SPARK_TESTING como lazy val para evitar lentidão
  • [SPARK-34153] [SQL][3.1][3.0] Remover o não utilizado getRawTable() de HiveExternalCatalog.alterPartitions()
  • [FAÍSCA-34130] [SQL] Melhorar o desempenho para preenchimento de char varchar e verificação de comprimento com StaticInvoke
  • [SPARK-34027] [SQL][3.1] Atualizar cache em ALTER TABLE .. RECOVER PARTITIONS
  • [SPARK-34151] [SQL] Substitui java.io.File.toURL por java.io.File.toURI.toURL
  • [SPARK-34140] [SQL][3.1] Mover QueryCompilationErrors.scala para org/apache/spark/sql/errors
  • [SPARK-34080] [ML][python] Adicionar UnivariateFeatureSelector
  • [SPARK-33790] [CORE][3.1] Reduzir a chamada RPC de getFileStatus em SingleFileEventLogFileReader
  • [SPARK-34118] [CORE][sql][3.1] Substitui o filtro e a verificação de vazio por exists ou forall
  • [SPARK-34114] [SQL] não deve cortar à direita para a verificação e preenchimento do comprimento dos caracteres do lado da leitura
  • [SPARK-34086] [SQL][3.1] RaiseError gera demasiado código e pode falhar na verificação de comprimento para char varchar no codegen.
  • [SPARK-34075] [SQL][core] Diretórios ocultos estão sendo listados para inferência de partição
  • [SPARK-34076] [SQL] SQLContext.dropTempTable não funcionará se o cache não estiver vazio
  • [SPARK-34084] [SQL][3.1] Corrigir a atualização automática das estatísticas da tabela em ALTER TABLE .. ADD PARTITION
  • [SPARK-34090] [SS] Cache do resultado de HadoopDelegationTokenManager.isServiceEnabled usado em KafkaTokenUtil.needTokenUpdate
  • [SPARK-34069] [CORE] As tarefas de cancelamento de barreira devem respeitar SPARK_JOB_INTERRUPT_ON_CANCEL
  • [SPARK-34091] [SQL] Shuffle batch fetch deve ser capaz de desativar depois de ter sido ativado
  • [SPARK-34059] [SQL][core][3.1] Use for/foreach em vez de map para garantir que seja executado ansiosamente
  • [SPARK-34002] [SQL] Corrigir a utilização do codificador no ScalaUDF
  • [SPARK-34060] [SQL][3.1] Correção do cache de tabelas do Hive ao atualizar estatísticas por ALTER TABLE .. DROP PARTITION
  • [FAÍSCA-31952] [SQL] Corrigir métrica de derramamento de memória incorreta ao realizar a agregação
  • [SPARK-33591] [SQL][3.1] Reconhecer null nos valores de especificação de partição
  • [SPARK-34055] [SQL][3.1] Atualizar cache em ALTER TABLE .. ADD PARTITION
  • [SPARK-34039] [SQL][3.1] ReplaceTable deve invalidar a memória cache
  • [SPARK-34003] [SQL] Corrigir conflitos de regras entre PaddingAndLengthCheckForCharVarchar e ResolveAggregateFunctions
  • [SPARK-33938] [SQL][3.1] Otimização de Like Any/All por LikeSimplification
  • [SPARK-34021] [R] Corrigir hiperlinks na documentação do SparkR para submissão ao CRAN
  • [SPARK-34011] [SQL][3.1][3.0] Atualizar cache em ALTER TABLE .. RENAME TO PARTITION
  • [SPARK-33948] [SQL] Corrigir erro CodeGen do método MapObjects.doGenCode no Scala 2.13
  • [SPARK-33635] [SS] Ajuste a ordem de verificação em KafkaTokenUtil.needTokenUpdate para corrigir a regressão de desempenho
  • [SPARK-33029] [CORE][webui] Corrigir a página do executor da interface do usuário marcando incorretamente o driver como excluído
  • [SPARK-34015] [R] Correção do tempo de entrada no gapply
  • [SPARK-34012] [SQL] Manter o comportamento consistente quando conf spark.sql.legacy.parser.havingWithoutGroupByAsWhere for verdadeiro, conforme indicado no guia de migração.
  • [SPARK-33844] [SQL][3.1] O comando InsertIntoHiveDir também deve verificar o nome da coluna
  • [SPARK-33935] [SQL] Corrigir função de custo do CBO
  • [SPARK-33100] [SQL] Ignorar um ponto-e-vírgula dentro de um comentário com chavetas no spark-sql
  • [SPARK-34000] [CORE] Corrigir stageAttemptToNumSpeculativeTasks java.util.NoSuchElementException
  • [SPARK-33992] [SQL] sobrescrever transformUpWithNewOutput para adicionar allowInvokingTransformsInAnalyzer
  • [SPARK-33894] [SQL] Altere a visibilidade de classes case privadas no mllib para evitar erros de compilação de execução com o Scala 2.13
  • [SPARK-33950] [SQL][3.1][3.0] Recarregar cache na v1 ALTER TABLE .. DROP PARTITION
  • [FAÍSCA-33980] [SS] Invalidar char/varchar em spark.readStream.schema
  • [SPARK-33945] [SQL][3.1] Lida com uma semente aleatória que consiste numa árvore de expressões
  • [SPARK-33398] Corrigir o carregamento de modelos de árvore anteriores ao Spark 3.0
  • [SPARK-33963] [SQL] Canonicalize HiveTableRelation sem estatísticas da tabela
  • [FAÍSCA-33906] [WEBUI] Corrigir o bug da página do Executor da IU que fica bloqueada devido a peakMemoryMetrics indefinido
  • [SPARK-33944] [SQL] Registo incorreto para chaves de armazém nas opções SharedState
  • [SPARK-33936] [SQL][3.1] Adicione a versão quando as interfaces do conector foram adicionadas
  • [SPARK-33916] [CORE] Corrigir o deslocamento do armazenamento de fallback e melhorar a cobertura dos testes de codec de compressão
  • [SPARK-33899] [SQL][3.1] Corrigir a falha de asserção no SHOW TABLESv1 /VIEWS no spark_catalog
  • [SPARK-33901] [SQL] Corrigir erro de apresentação de Char e Varchar após DDLs
  • [SPARK-33897] [SQL] Não é possível definir a opção 'cross' no método join
  • [FAÍSCA-33907] [SQL][3.1] Apenas podar colunas de JsonToStructs se as opções de parsing estiverem vazias
  • [SPARK-33621][SPARK-33784] [SQL][3.1] Adicionar uma forma de injetar regras de reescrita da fonte de dados
  • [FAÍSCA-33900] [WEBUI] Mostrar tamanho de leitura aleatório / registros corretamente quando apenas remotebytesread está disponível
  • [SPARK-33892] [SQL] Exibir char/varchar em DESC e SHOW CREATE TABLE
  • [SPARK-33895] [SQL] Char e Varchar falham na MetaOperation do ThriftServer
  • [SPARK-33659] [SS] Documentar o comportamento atual da API DataStreamWriter.toTable
  • [FAÍSCA-33893] [CORE] Excluir o gestor de blocos de fallback da lista de executores
  • [SPARK-33277] [PYSPARK][sql] Use ContextAwareIterator para parar o consumo após o término da tarefa
  • [SPARK-33889] [SQL][3.1] Corrigir NPE causado por SHOW PARTITIONS em tabelas V2
  • [SPARK-33879] [SQL] Valores de Char e Varchar geram erro de correspondência ao serem usados como colunas de partição
  • [SPARK-33877] [SQL] documentos de referência SQL para INSERT com uma lista de colunas
  • [SPARK-33876] [SQL] Adicionar verificação de comprimento ao ler char/varchar de tabelas com uma localização externa
  • [SPARK-33846] [SQL] Incluir comentários para um esquema aninhado em StructType.toDDL
  • [SPARK-33860] [SQL] Ajustar CatalystTypeConverters.convertToCatalyst para corresponder ao valor especial de Array
  • [SPARK-33834] [SQL] Verificar ALTER TABLE MUDANÇA COLUMN com Char e Varchar
  • [SPARK-33853] [SQL] EXPLAIN CODEGEN e BenchmarkQueryTest não mostram código de subconsulta
  • [SPARK-33836] [SS][python] Tornar acessível DataStreamReader.table e DataStreamWriter.toTable
  • [FAÍSCA-33829] [SQL][3.1] Renomear tabelas V2 deve recriar o cache
  • [SPARK-33756] [SQL] Tornar o MapIterator do BytesToBytesMap idempotente
  • [SPARK-33850] [SQL] EXPLAIN FORMATTED não mostra o plano para subconsultas se o AQE estiver ativado
  • [SPARK-33841] [CORE][3.1] Corrigir o problema com trabalhos que desaparecem intermitentemente do SHS sob carga elevada
  • [SPARK-33593] [SQL] Leitor de vetores tem dados incorretos com valor de partição binária
  • [SPARK-26341] [WEBUI] Apresentar as métricas de memória do executor ao nível do estágio, na guia Estágios
  • [SPARK-33831] [UI] Atualizar para Jetty 9.4.34
  • [SPARK-33822] [SQL] Use o CastSupport.cast método em HashJoin
  • [SPARK-33774] [UI][core] "Back to Master" retorna erro 500 no cluster autónomo
  • [SPARK-26199][SPARK-31517] [R] Corrigir estratégia para manipulação ... nomes em transformação
  • [SPARK-33819] [CORE][3.1] SingleFileEventLogFileReader/RollingEventLogFilesFileReader deve ser atualizado/corrigido package private
  • [SPARK-33697] [SQL] RemoveRedundantProjects deve exigir o ordenamento das colunas por padrão
  • [SPARK-33752] [SQL][3.1] Evitar que o getSimpleMessage de AnalysisException adicione ponto-e-vírgula repetidamente
  • [SPARK-33788] [SQL][3.1][3.0][2.4] Lançar NoSuchPartitionsException de HiveExternalCatalog.dropPartitions()
  • [SPARK-33803] [SQL] Ordenar propriedades da tabela por chave no comando DESCRIBE TABLE
  • [SPARK-33786] [SQL] O nível de armazenamento de um cache deve ser respeitado quando um nome de tabela é alterado
  • [SPARK-33273] [SQL] Corrigir uma condição de concorrência na execução de subconsultas
  • [SPARK-33653] [SQL][3.1] DSv2: REFRESHREFRESH TABLE deve voltar a armazenar em cache a própria tabela
  • [SPARK-33777] [SQL] Ordenar a saída da V2 SHOW PARTITIONS
  • [SPARK-33733] [SQL] PullOutNondeterministic deve verificar e coletar campos determinísticos
  • [FAÍSCA-33764] [SS] Definir o intervalo de manutenção do armazenamento de estado como configuração SQL
  • [SPARK-33729] [SQL] Ao atualizar o cache, o Spark não deve usar o plano armazenado em cache ao recachear dados
  • [FAÍSCA-33742] [SQL][3.1] Levantar a excepção PartitionsAlreadyExistException de HiveExternalCatalog.createPartitions()
  • [SPARK-33706] [SQL] Exigir identificador de partição totalmente especificado em partitionExists()
  • [SPARK-33740] [SQL] As configurações do hadoop no hive-site.xml podem substituir as configurações do hadoop pré-existentes
  • [SPARK-33692] [SQL] A exibição deve usar o catálogo capturado e o namespace para procurar a função
  • [FAÍSCA-33669] Mensagem de erro incorreta do monitor de estado da aplicação YARN quando "sc.stop" no modo cliente yarn
  • [SPARK-32110] [SQL] normalizar números flutuantes especiais no HyperLogLog++
  • [SPARK-33677] [SQL] Ignorar a regra LikeSimplification se o padrão contiver qualquer caractere de escape.
  • [SPARK-33693] [SQL] descontinuar spark.sql.hive.convertCTAS
  • [SPARK-33641] [SQL] Invalidar novos tipos char/varchar em APIs públicas que produzem resultados incorretos
  • [SPARK-32680] [SQL] Não pré-processe CTAS V2 com consulta não resolvida
  • [SPARK-33676] [SQL] Exigir correspondência exata da especificação de partição com o esquema na V2 ALTER TABLE .. ADD/DROP PARTITION
  • [SPARK-33670] [SQL] Verifique se o provedor de partição é Hive na v1 SHOW TABLE EXTENDED
  • [SPARK-33663] [SQL] Desativar o cache não deve ser invocado em visualizações temporárias inexistentes
  • [FAÍSCA-33667] [SQL] Respeitar a configuração ao resolver a especificação de spark.sql.caseSensitive partição na v1SHOW PARTITIONS
  • [SPARK-33652] [SQL] DSv2: DeleteFrom deve atualizar o cache

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 9.0.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 20.04.2 LTS
  • Java: Zulu 8.54.0.21-CA-linux64
  • Escala: 2.12.10
  • Píton: 3.8.10
  • R: 4.1.0 (18/05/2021)
  • Lago Delta 1.0.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Antergos Linux 2015.10 (Laminação ISO) Diretórios de aplicativos 1.4.4 retorno de chamada 0.2.0
Boto3 1.16.7 Botocore 1.19.7 certifi 2020.12.5
Chardet 4.0.0 ciclista 0.10.0 Cython 0.29.23
dbus-python 1.2.16 decorador 5.0.6 Distlib 0.3.2
distro-info 0,23ubuntu1 facetas-visão geral 1.0.0 bloqueio de ficheiro 3.0.12
IDNA 2.10 Ipykernel 5.3.4 IPython 7.22.0
ipython-genutils 0.2.0 Jedi 0.17.2 JmesPath 0.10.0
Joblib 1.0.1 Jupyter Client 6.1.12 Jupyter-core 4.7.1
Kiwisolver 1.3.1 coalas 1.8.1 Matplotlib 3.4.2
dormência 1.19.2 pandas 1.2.4 Parso 0.7.0
ingénuo 0.5.1 Espere 4.8.0 pickleshare 0.7.5
Almofada 8.2.0 pip (o gestor de pacotes do Python) 21.0.1 enredo 4.14.3
kit de ferramentas de prompt 3.0.17 Protobuf 3.17.2 PSYCOPG2 2.8.5
ptyprocess 0.7.0 Pyarrow 4.0.0 Pigmentos 2.8.1
PyGObject 3.36.0 Pyparsing 2.4.7 python-apt 2.0.0+ubuntu0.20.4.5
python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.8.1 Pytz 2020.5 Pyzmq 20.0.0
pedidos 2.25.1 pedidos-unixsocket 0.2.0 A tentar novamente... 1.3.3
s3transferência 0.3.7 scikit-learn (biblioteca de aprendizado de máquina em Python) 0.24.1 SciPy 1.6.2
nascido no mar 0.11.1 Ferramentas de configuração 52.0.0 seis 1.15.0
ssh-import-id 5.10 statsmodels (uma biblioteca de Python para modelos estatísticos) 0.12.2 ThreadPoolCtl 2.1.0
tornado 6.1 traços 5.0.5 Atualizações automáticas 0.1
urllib3 1.25.11 virtualenv 20.4.1 wcwidth 0.2.5
wheel 0.36.2

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo do repositório CRAN da Microsoft em 28 de julho de 2021.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AskPass 1.1 assegurar 0.2.1 retroportações 1.2.1
base 4.1.0 base64enc 0.1-3 Belo Horizonte 1.72.0-3
pouco 4.0.4 bit64 4.0.5 blob 1.2.1
inicialização 1.3-28 preparar 1.0-6 Brio 1.1.0
vassoura 0.7.2 Chamador 3.5.1 sinal de inserção 6.0-86
Cellranger 1.1.0 crono 2.3-56 classe 7.3-19
CLI 2.2.0 Clipr 0.7.1 cluster 2.1.2
CodeTools 0.2-18 espaço em cores 2.0-0 marca comum 1.7
compilador 4.1.0 configuração 0,3 cobrir 3.5.1
CPP11 0.2.4 lápis de cor 1.3.4 credenciais 1.3.0
conversa cruzada 1.1.0.1 encaracolar 4.3 tabela de dados 1.13.4
conjuntos de dados 4.1.0 DBI 1.1.0 DBPlyr 2.0.0
descrição 1.2.0 DevTools 2.3.2 diffobj 0.3.2
resumo 0.6.27 DPLYR 1.0.2 DT 0,16
reticências 0.3.1 avaliar 0.14 Fãsi 0.4.1
cores 2.0.3 mapa rápido 1.0.1 FORCATS 0.5.0
para cada 1.5.1 estrangeiro 0.8-81 forjar 0.2.0
FS 1.5.0 Futuro 1.21.0 genérico 0.1.0
Gert 1.0.2 GGPLOT2 3.3.2 GH 1.2.0
gitcreds 0.1.1 GLMNET 4.0-2 Globais 0.14.0
cola 1.4.2 Gower 0.2.2 gráficos 4.1.0
grDispositivos 4.1.0 grelha 4.1.0 gridExtra 2.3
GSUBFN 0,7 tabela g 0.3.0 Refúgio 2.3.1
mais alto 0.8 HMS 0.5.3 htmltools 0.5.0
htmlwidgets (componentes HTML interativos) 1.5.3 httpuv 1.5.4 HTTR 1.4.2
Hwriter 1.3.2 hwriterPlus 1.0-3 ini 0.3.1
ipred 0.9-9 Isoband 0.2.3 iteradores 1.0.13
jsonlite 1.7.2 KernSmooth 2.23-20 Knitr 1,30
etiquetagem 0.4.2 mais tarde 1.1.0.1 grelha 0.20-44
lave 1.6.8.1 preguiça 0.2.2 ciclo de vida 0.2.0
ouvir 0.8.0 lubridato 1.7.9.2 Magrittr 2.0.1
Marcação 1.1 MASSA 7.3-54 Matriz 1.3-4
memorizar 1.1.0 métodos 4.1.0 MGCV 1.8-36
mímica 0,9 ModelMetrics 1.2.2.2 Modelador 0.1.8
Munsell 0.5.0 NLME 3.1-152 NNET 7.3-16
numDeriv 2016.8 a 1.1 openssl (conjunto de ferramentas para criptografia) 1.4.3 paralelo 4.1.0
Paralelamente 1.22.0 pilar 1.4.7 pkgbuild 1.1.0
pkgconfig 2.0.3 pkgload 1.1.0 plogr 0.2.0
Plyr 1.8.6 elogiar 1.0.0 unidades elegantes 1.1.1
pROC 1.16.2 processx 3.4.5 Prodlim 2019.11.13
Progresso 1.2.2 promessas 1.1.1 prototipo 1.0.0
PS 1.5.0 ronronar 0.3.4 r2d3 0.2.3
R6 2.5.0 Floresta Aleatória 4.6-14 rappdirs 0.3.1
rcmdcheck 1.3.3 RColorBrewer 1.1-2 Rcpp 1.0.5
Leitor 1.4.0 ReadXL 1.3.1 receitas 0.1.15
revanche 1.0.1 revanche2 2.1.2 Controles remotos 2.2.0
Reprex 0.3.0 remodelar2 1.4.4 Rex 1.2.0
Rlang 0.4.9 rmarkdown 2.6 RODBC 1.3-17
oxigénio2 7.1.1 rpart (função de partição recursiva em R) 4.1-15 rprojroot 2.0.2
Reserva 1.8-8 RSQLite 2.2.1 rstudioapi 0,13
rversões 2.0.2 Rvest 0.3.6 escalas 1.1.1
seletor 0.4-2 informação da sessão 1.1.1 forma 1.4.5
brilhante 1.5.0 ferramentas de código-fonte 0.1.7 Brilho 1.5.2
Faísca 3.1.1 espacial 7.3-11 estrias 4.1.0
sqldf 0.4-11 QUADRADO 2020.5 estatísticas 4.1.0
estatísticas4 4.1.0 string 1.5.3 stringr 1.4.0
sobrevivência 3.2-11 Sistema 3.4 tcltk (uma linguagem de programação) 4.1.0
Demonstrações de Ensino 2.10 teste que 3.0.0 Tibble 3.0.4
Tidyr 1.1.2 arrumadoselecionar 1.1.0 Tidyverse 1.3.0
data e hora 3043.102 Tinytex 0.28 ferramentas 4.1.0
usethis 2.0.0 UTF8 1.1.4 utilitários 4.1.0
Identificador Universalmente Único (UUID) 0.1-4 VCTRS 0.3.5 viridisLite 0.3.0
Waldo 0.2.3 vibrissa 0.4 murchar 2.3.0
xfun 0.19 XML2 1.3.2 xopen 1.0.0
xtable 1.8-4 yaml 2.2.1 ZIP 2.1.1

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
Antlr Antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.11.655
com.amazonaws AWS-Java-SDK-CloudFormation 1.11.655
com.amazonaws aws-java-sdk-cloudfront 1.11.655
com.amazonaws aws-java-sdk-cloudhsm 1.11.655
com.amazonaws AWS Java SDK para CloudSearch 1.11.655
com.amazonaws aws-java-sdk-cloudtrail 1.11.655
com.amazonaws aws-java-sdk-cloudwatch 1.11.655
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.655
com.amazonaws aws-java-sdk-codedeploy 1.11.655
com.amazonaws aws-java-sdk-cognitoidentity 1.11.655
com.amazonaws aws-java-sdk-cognitosync 1.11.655
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.11.655
com.amazonaws aws-java-sdk-core 1.11.655
com.amazonaws aws-java-sdk-datapipeline 1.11.655
com.amazonaws aws-java-sdk-directconnect 1.11.655
com.amazonaws aws-java-sdk-diretório 1.11.655
com.amazonaws aws-java-sdk-dynamodb 1.11.655
com.amazonaws aws-java-sdk-ec2 1.11.655
com.amazonaws aws-java-sdk-ecs 1.11.655
com.amazonaws aws-java-sdk-efs 1.11.655
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.11.655
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.11.655
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.11.655
com.amazonaws aws-java-sdk-elastictranscoder 1.11.655
com.amazonaws aws-java-sdk-emr 1.11.655
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.11.655
com.amazonaws aws-java-sdk-glue 1.11.655
com.amazonaws aws-java-sdk-iam 1.11.655
com.amazonaws aws-java-sdk-importexport 1.11.655
com.amazonaws aws-java-sdk-kinesis 1.11.655
com.amazonaws aws-java-sdk-kms 1.11.655
com.amazonaws aws-java-sdk-lambda 1.11.655
com.amazonaws aws-java-sdk-logs 1.11.655
com.amazonaws aws-java-sdk-aprendizado de máquina 1.11.655
com.amazonaws aws-java-sdk-marketplacecommerceanalytics (SDK para análise de comércio de marketplace) 1.11.655
com.amazonaws aws-java-sdk-marketplacemeteringservice 1.11.655
com.amazonaws aws-java-sdk-opsworks 1.11.655
com.amazonaws aws-java-sdk-rds 1.11.655
com.amazonaws aws-java-sdk-redshift 1.11.655
com.amazonaws aws-java-sdk-rota53 1.11.655
com.amazonaws aws-java-sdk-s3 1.11.655
com.amazonaws AWS Java SDK para SES 1.11.655
com.amazonaws aws-java-sdk-simpledb 1.11.655
com.amazonaws aws-java-sdk-simpleworkflow 1.11.655
com.amazonaws aws-java-sdk-sns 1.11.655
com.amazonaws aws-java-sdk-sqs 1.11.655
com.amazonaws aws-java-sdk-ssm 1.11.655
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.11.655
com.amazonaws AWS-Java-SDK-STS 1.11.655
com.amazonaws aws-java-sdk-suporte 1.11.655
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.655
com.amazonaws jmespath-java 1.11.655
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics fluxo 2.9.6
com.databricks Reserva 1.8-3
com.databricks Jatos 3T 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core Jackson Annotations 2.10.0
com.fasterxml.jackson.core Jackson-Core 2.10.0
com.fasterxml.jackson.core jackson-databind 2.10.0
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.10.0
com.fasterxml.jackson.datatype jackson-datatype-joda 2.10.0
com.fasterxml.jackson.module jackson-módulo-paranamer 2.10.0
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.10.0
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil Jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-Java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib native_system-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-nativos 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-nativos 1.1
com.github.joshelser dropwizard-metrics-hadoop-metrics2-reporter 0.1.2
com.github.luben ZSTD-JNI 1.4.8-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs JSR305 3.0.0
com.google.code.gson Gson 2.2.4
com.google.flatbuffers flatbuffers-java 1.9.0
com.google.goiaba Goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2banco de dados h2 1.4.195
com.helger gerador de perfis 1.1.1
com.jcraft JSCH 0.1.50
com.jolbox BoneCP 0.8.0.LANÇAMENTO
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (kit de desenvolvimento de software para Azure Data Lake Store) 2.3.9
com.microsoft.sqlserver MSSQL-JDBC 9.2.1.jre8
com.ning compressa-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.tdunning Json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter Chill-java 0.9.5
com.twitter chill_2.12 0.9.5
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging Escala-logging_2.12 3.7.2
com.univocidade analisadores de univocidade 2.9.1
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.4
commons-cli commons-cli 1.2
codec commons codec commons 1.10
Commons Collections Commons Collections 3.2.2
commons-configuração commons-configuração 1.6
commons-dbcp commons-dbcp 1.4
commons-digestor commons-digestor 1.8
commons-fileupload (upload de ficheiros comuns) commons-fileupload (upload de ficheiros comuns) 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
hive-2,3__hadoop-2,7 jets3t-0,7 liball_deps_2.12
hive-2,3__hadoop-2,7 Zookeeper-3,4 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.ponte aérea compressor de ar 0.10
IO.Delta delta-compartilhamento-spark_2.12 0.1.0
io.dropwizard.metrics métricas-base 4.1.1
io.dropwizard.metrics métricas-grafite 4.1.1
io.dropwizard.metrics métricas-verificações de saúde 4.1.1
io.dropwizard.metrics métricas-jetty9 4.1.1
io.dropwizard.metrics métricas-jmx 4.1.1
io.dropwizard.metrics métricas-json 4.1.1
io.dropwizard.metrics métricas da JVM 4.1.1
io.dropwizard.metrics Métricas-Servlets 4.1.1
io.netty netty-tudo 4.1.51.Final
io.prometeu cliente simples 0.7.0
io.prometeu simpleclient_comum 0.7.0
io.prometeu simpleclient_dropwizard 0.7.0
io.prometeu simpleclient_pushgateway 0.7.0
io.prometeu simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação Jakarta.annotation-api 1.3.5
Jakarta.validação Jacarta.validation-api 2.0.2
jakarta.ws.rs Jakarta.ws.rs-api 2.1.6
javax.ativação ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo JDO-API 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp JSP-API 2.1
javax.transaction JTA 1.1
javax.transaction API de transação 1.1
javax.xml.bind JAXB-API 2.2.2
javax.xml.stream Stax-API 1.0-2
Javolution Javolution 5.5.1
Jline Jline 2.14.6
Joda-Time Joda-Time 2.10.5
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
maven-árvores hive-2,3__hadoop-2,7 liball_deps_2.12
net.java.dev.jna JNA 5.8.0
net.razorvine pirolite 04:30
net.sf.jpam JPAM 1.1
net.sf.opencsv OpenCSV 2.3
net.sf.supercsv Super-CSV 2.2.0
net.floco de neve Snowflake-Ingest-SDK 0.9.6
net.floco de neve Flocos de Neve-JDBC 3.13.3
net.floco de neve faísca-snowflake_2.12 2.9.0-spark_3.1
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.5.2
org.antlr antlr4-tempo de execução 4.8-1
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ANT-JSCH 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de flecha 2.0.0
org.apache.arrow seta-memória-núcleo 2.0.0
org.apache.arrow Arrow-Memory-Netty 2.0.0
org.apache.arrow vetor de seta 2.0.0
org.apache.avro Avro 1.8.2
org.apache.avro AVRO-IPC 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.commons commons-comprimir 1,20
org.apache.commons commons-cripto 1.1.0
org.apache.commons commons-lang3 3,10
org.apache.commons commons-matemática3 3.4.1
org.apache.commons commons-texto 1.6
org.apache.curador curador-cliente 2.7.1
org.apache.curador curador-framework 2.7.1
org.apache.curador curador de receitas 2.7.1
org.apache.derby dérbi 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api API-Util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-anotações 2.7.4
org.apache.hadoop autenticação do Hadoop 2.7.4
org.apache.hadoop Cliente Hadoop 2.7.4
org.apache.hadoop hadoop-comum 2.7.4
org.apache.hadoop Hadoop-HDFS 2.7.4
org.apache.hadoop hadoop-mapreduce-client-app (aplicação cliente do hadoop-mapreduce) 2.7.4
org.apache.hadoop hadoop-mapreduce-client-common (Cliente comum do Hadoop MapReduce) 2.7.4
org.apache.hadoop hadoop-mapreduce-cliente-core 2.7.4
org.apache.hadoop Cliente de Trabalho Hadoop MapReduce 2.7.4
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.4
org.apache.hadoop hadoop-yarn-api 2.7.4
org.apache.hadoop hadoop-yarn-cliente 2.7.4
org.apache.hadoop hadoop-yarn-comum 2.7.4
org.apache.hadoop hadoop-yarn-server-common (componente do servidor comum do Hadoop YARN) 2.7.4
org.apache.hive colmeia-abelha 2.3.7
org.apache.hive Hive-CLI 2.3.7
org.apache.hive Hive-JDBC 2.3.7
org.apache.hive hive-llap-cliente 2.3.7
org.apache.hive hive-llap-comum 2.3.7
org.apache.hive Colmeia-Serde 2.3.7
org.apache.hive colmeias-calços 2.3.7
org.apache.hive API de armazenamento Hive 2.7.2
org.apache.hive.shims colmeia-calços-0,23 2.3.7
org.apache.hive.shims colmeia-calços-comum 2.3.7
org.apache.hive.shims colmeia-shims-scheduler 2.3.7
org.apache.htrace htrace-núcleo 3.1.0 incubação
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents Núcleo Http 4.4.12
org.apache.ivy hera 2.4.0
org.apache.mesos mesos-sombreado-protobuf 1.4.0
org.apache.orc núcleo de orc 1.5.12
org.apache.orc orc-mapreduce 1.5.12
org.apache.orc Orc-calços 1.5.12
org.apache.parquet coluna parquet 1.10.1-DATABRICKS9
org.apache.parquet parquet-comum 1.10.1-DATABRICKS9
org.apache.parquet codificação-parquet 1.10.1-DATABRICKS9
org.apache.parquet formato parquet 2.4.0
org.apache.parquet Parquet-Hadoop 1.10.1-DATABRICKS9
org.apache.parquet Parquet-Jackson 1.10.1-DATABRICKS9
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm7-sombreado 4.15
org.apache.yetus anotações da audiência 0.5.0
org.apache.zookeeper guarda zoológico 3.4.14
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson Jackson-Jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-ASL 1.9.13
org.codehaus.jackson Jackson-XC 1.9.13
org.codehaus.janino compilador comum 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus DataNucleus Core 4.1.17
org.datanucleus Datanucleus-RDBMS 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.píer Jetty-Cliente 9.4.36.v20210114
org.eclipse.píer jetty-continuation (componente de software do Jetty) 9.4.36.v20210114
org.eclipse.píer Jetty-HTTP 9.4.36.v20210114
org.eclipse.píer Molhe IO 9.4.36.v20210114
org.eclipse.píer Cais-JNDI 9.4.36.v20210114
org.eclipse.píer Cais-Plus 9.4.36.v20210114
org.eclipse.píer Jetty-Proxy 9.4.36.v20210114
org.eclipse.píer segurança-jetty 9.4.36.v20210114
org.eclipse.píer Jetty Server 9.4.36.v20210114
org.eclipse.píer Jetty-servlet 9.4.36.v20210114
org.eclipse.píer Jetty-servlets 9.4.36.v20210114
org.eclipse.píer Jetty-util 9.4.36.v20210114
org.eclipse.píer cais-util-ajax 9.4.36.v20210114
org.eclipse.píer Aplicação web Jetty 9.4.36.v20210114
org.eclipse.píer Jetty-XML 9.4.36.v20210114
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 HK2-API 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 HK2-Utils 2.6.1
org.glassfish.hk2 localizador de recursos OSGi 1.0.3
org.glassfish.hk2.externo aopalliance-reembalado 2.6.1
org.glassfish.hk2.externo jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.30
org.glassfish.jersey.containers jersey-container-servlet-core 2.30
org.glassfish.jersey.core jersey-cliente 2.30
org.glassfish.jersey.core Jersey comum 2.30
org.glassfish.jersey.core servidor Jersey 2.30
org.glassfish.jersey.inject Jersey-HK2 2.30
org.glassfish.jersey.media jersey-media-jaxb 2.30
org.hibernate.validator hibernate-validator (ferramenta de validação de dados de Java) 6.1.0.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-registro em log 3.3.2.Final
org.jdbi JDBI 2.63.1
org.joda joda-converter 1.7
org.jodd JODD-CORE 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M5
org.json4s JSON4S-core_2.12 3.7.0-M5
org.json4s JSON4S-jackson_2,12 3.7.0-M5
org.json4s JSON4S-scalap_2.12 3.7.0-M5
org.lz4 LZ4-Java 1.7.1
org.mariadb.jdbc mariadb-java-cliente 2.2.5
org.objenesis objenese 2.5.1
org.postgresql PostgreSQL 42.1.4
org.roaringbitmap RoaringBitmap 0.9.14
org.roaringbitmap calços 0.9.14
org.rocksdb rocksdbjni 6.20.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.10
org.scala-lang Escala-library_2.12 2.12.10
org.scala-lang Escala-reflect_2,12 2.12.10
org.scala-lang.modules scala-coleção-compat_2.12 2.1.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules Escala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp Brisa-macros_2.12 1.0
org.scalanlp breeze_2.12 1.0
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-compatível-com-slf4j 1.7.30
org.slf4j jul-para-slf4j 1.7.30
org.slf4j SLF4J-API 1.7.30
org.slf4j SLF4J-Log4J12 1.7.30
org.spark-project.spark não utilizado 1.0.0
org.springframework spring-core (núcleo do Spring) 4.1.4.VERSÃO
org.springframework teste de primavera 4.1.4.VERSÃO
org.threeten trêsdez-extra 1.5.0
org.tukaani XZ 1.5
org.typelevel algebra_2.12 2.0.0-M2
org.typelevel gatos-kernel_2.12 2.0.0-M4
org.typelevel maquinista_2.12 0.6.8
org.typelevel macro-compat_2.12 1.1.1
org.typelevel torre-macros_2.12 0,17.0-M1
org.typelevel torre-platform_2.12 0,17.0-M1
org.typelevel torre-util_2.12 0,17.0-M1
org.typelevel spire_2.12 0,17.0-M1
org.wildfly.openssl WildFly-OpenSSL 1.0.7.Final
org.xerial SQLITE-JDBC 3.8.11.2
org.xerial.snappy Snappy-java 1.1.8.2
org.yaml Snakeyaml 1,24
ouro ouro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion íon-java 1.0.2
Stax Stax-API 1.0.1
XMLENC XMLENC 0.52