Compartilhar via


Databricks Runtime 13.1 (EoS)

Observação

O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.1, da plataforma Apache Spark 3.4.0.

O Databricks lançou essa versão em maio de 2023.

Novos recursos e aprimoramentos

Suporte ao cluster para JDK 17 (Visualização Pública)

O Databricks agora fornece suporte de cluster para o Kit de Desenvolvimento do Java (JDK) 17. Consulte o SDK do Databricks para Java.

Adicionar, alterar ou excluir dados em tabelas de streaming

Agora você pode usar instruções DML para modificar tabelas de streaming publicadas no Catálogo do Unity pelo Lakeflow Spark Declarative Pipelines. Confira Adicionar, alterar ou excluir dados em uma tabela de streaming e Adicionar, alterar ou excluir dados em uma tabela de streaming de destino. Você também pode usar instruções DML para modificar tabelas de streaming criadas no Databricks SQL.

Ler Kafka com SQL

Agora você pode usar a função SQL read_kafka para ler dados Kafka. O streaming com SQL tem suporte apenas em DLT ou com tabelas de streaming no Databricks SQL. Consulte TVF read_kafka.

Novas funções internas do SQL

As seguintes funções foram adicionadas:

Suporte do Catálogo do Unity para bibliotecas do Python no escopo do cluster

O Catálogo do Unity tem algumas limitações no uso da biblioteca. No Databricks Runtime 13.1 e superior, há suporte para bibliotecas Python com escopo de cluster, incluindo arquivos de roda Python que são carregados como arquivos de espaço de trabalho. Não há suporte para bibliotecas referenciadas usando caminhos de arquivo DBFS, seja na raiz do DBFS ou em um local externo montado no DBFS. Não há suporte para bibliotecas não Python. Consulte bibliotecas com escopo de computação.

No Databricks Runtime 13.0 e abaixo, bibliotecas com escopo de cluster não são suportadas em clusters que usam o modo de acesso padrão (antigo modo de acesso compartilhado) em um workspace habilitado para o Unity Catalog.

Habilitação padrão expandida para gravações otimizadas no Catálogo do Unity

O suporte de gravação otimizado padrão para tabelas Delta registradas no Catálogo do Unity foi expandido para incluir instruções CTAS e operações INSERT para tabelas particionadas. Esse comportamento se alinha aos padrões em SQL warehouses. Consulte Gravações otimizadas para o Delta Lake no Azure Databricks.

Suporte avançado para operadores com estado em cargas de trabalho de Streaming Estruturado

Agora você pode encadear vários operadores com estado, o que significa que você pode alimentar a saída de uma operação, como uma agregação em janelas para outra operação com estado, como uma junção. Confira O que é streaming com estado?.

O clone delta do Catálogo do Unity está em versão prévia pública

Agora você pode usar o clone superficial para criar novas tabelas gerenciadas do Catálogo do Unity a partir de tabelas gerenciadas existentes do Catálogo do Unity. Confira Clone superficial para tabelas do Catálogo do Unity.

Suporte de Pub/Sub para Streaming Estruturado

Agora você pode usar um conector interno para assinar o Google Pub/Sub com Streaming Estruturado. Confira Assinar o Google Pub/Sub.

Remover duplicatas dentro de marcas d'água no Streaming Estruturado

Agora você pode usar dropDuplicatesWithinWatermark em combinação com um limite de marca d'água especificado para eliminação de duplicação de registros no Streaming Estruturado. Confira Descartar duplicatas dentro da marca d'água.

Suporte expandido para conversões Delta de tabelas do Apache Iceberg com colunas de partição truncadas

Agora você pode usar CLONE e CONVERT TO DELTA com tabelas do Apache Iceberg que têm partições definidas em colunas truncadas de tipos inte longstring. Não há suporte para as colunas truncadas do tipo decimal.

Alterações de esquema de streaming com mapeamento de coluna no Delta Lake

Agora você pode fornecer um local de acompanhamento de esquema para habilitar o streaming de tabelas Delta com o mapeamento de coluna habilitado. Confira Streaming com mapeamento de coluna e alterações de esquema.

Remover VERSÃO INICIAL

START VERSION está preterido para ALTER SHARE.

Novas expressões H3 disponíveis com Python

As expressões h3_coverash3 e h3_coverash3string estão disponíveis com Python.

Correções de bug

Parquet failOnUnknownFields não remove mais dados silenciosamente na incompatibilidade de tipo

Se um arquivo Parquet foi lido apenas com a opção failOnUnknownFields ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns, as colunas que têm tipos de dados diferentes agora falham e recomendam o uso de rescuedDataColumn. O Carregador Automático agora lê corretamente e não resgata mais os tipos Inteiro, Curto ou Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos.

Alterações de quebra

Atualizar a versão do sqlite-jdbc para 3.42.0.0 para tratar do CVE-2023-32697

Atualize a versão do sqlite-jdbc de 3.8.11.2 para 3.42.0.0. As APIs da versão 3.42.0.0 não são totalmente compatíveis com a versão 3.8.11.2. Se estiver usando sqlite-jdbc em seu código, marcar o relatório de compatibilidade sqlite-jdbc para obter detalhes. Se você migrar para a versão 13.1 e usar o sqlite, confirme seus métodos e retorne o tipo na versão 3.42.0.0.

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • facets-overview de 1.0.2 para 1.0.3
    • filelock de 3.10.7 para 3.12.0
    • pyarrow de 7.0.0 para 8.0.0
    • tenacidade de 8.0.1 a 8.1.0
  • Atualização das bibliotecas do R:
  • Bibliotecas do Java atualizadas:
    • com.github.ben-manes.cafeína.cafeína de 2.3.4 para 2.9.3
    • io.delta.delta-sharing-spark_2.12 de 0.6.8 para 0.6.4
    • net.snowflake.snowflake-jdbc de 3.13.29 para 3.13.22
    • org.checkerframework.checker-qual de 3.5.0 a 3.19.0
    • org.scalactic.scalactic_2.12 de 3.0.8 para 3.2.15
    • org.scalatest.scalatest_2.12 de 3.0.8 para 3.2.15
    • org.xerial.sqlite-jdbc de 3.8.11.2 a 3.42.0.0

Apache Spark

O Databricks Runtime 13.1 inclui o Apache Spark 3.4.0. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 13.0 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-42719] [DBRRM-199][sc-131578] Reverter “[SC-125225] `MapOutputTracker#getMap…
  • [SPARK-39696] [DBRRM-166][sc-130056][CORE] Reverter [SC-127830]/
  • [SPARK-43331] [SC-130064][connect] Adicionar Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051][connect][PYTHON] Torne possível estender o ChannelBuilder para SparkConnectClient
  • [SPARK-43323] [SC-129966][sql][PYTHON] Corrige erro no DataFrame.toPandas com Arrow habilitado para lidar com exceções corretamente
  • [SPARK-42940] [SC-129896][ss][CONNECT] Melhorar o gerenciamento de sessão para consultas de streaming
  • [SPARK-43032] [SC-125756] [CONNECT][ss] Adicionar gerenciador de consultas de streaming
  • [SPARK-16484] [SC-129975][sql] Adicionar suporte para Datasketches HllSketch
  • [SPARK-43260] [SC-129281][python] Migre os erros de tipo de seta pandas do Spark SQL para a classe de erro.
  • [SPARK-41766] [SC-129964][core] Tratar solicitação de descomissionamento enviada antes do registro do executor
  • [SPARK-43307] [SC-129971][python] Migrar erros de valor PandasUDF para a classe de erro
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] exception() StreamingQuery inclui rastreamento de pilha
  • [SPARK-43311] [SC-129905][ss] Adicionar aprimoramentos de gerenciamento de memória do provedor de armazenamento de estado RocksDB
  • [SPARK-43237] [SC-129898][core] Manipular mensagem de exceção nula no log de eventos
  • [SPARK-43320] [SC-129899][sql][HIVE] Chame diretamente a API do Hive 2.3.9
  • [SPARK-43270] [SC-129897][python] Implementar __dir__()pyspark.sql.dataframe.DataFrame para incluir colunas
  • [SPARK-43183] Reverter o "[SC-128938][ss] Introduzir um novo retorno de chamada "...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] awaitTermination() StreamingQuery de Scala
  • [SPARK-43257] [SC-129675][sql] Substitua a classe de erro _LEGACY_ERROR_TEMP_2022 por um erro interno
  • [SPARK-43198] [SC-129470][connect] Correção "Não foi possível inicializar a classe amônio..." erro ao usar filtro
  • [SPARK-43165] [SC-129777][sql] Mover o canWrite para o DataTypeUtils
  • [SPARK-43298] [SC-129729][python][ML] predict_batch_udf com entrada escalar falha com um tamanho de lote de um
  • [SPARK-43298] [SC-129700]Reverter "[PYTHON][ml] predict_batch_udf com entrada escalar falha com tamanho de lote único"
  • [SPARK-43052] [SC-129663][core] Manipular o stacktrace com o nome do arquivo nulo no log de eventos
  • [SPARK-43183] [SC-128938][ss] Introduzir um novo callback "onQueryIdle" para StreamingQueryListener
  • [SPARK-43209] [SC-129190][connect][PYTHON] Migrar os erros de expressão para a classe de erros
  • [SPARK-42151] [SC-128754][sql] Alinhar UPDATE atribuições com atributos de tabela
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] API exception() StreamingQuery do cliente JVM
  • [SPARK-43298] [SC-129699][python][ML] predict_batch_udf com entrada escalar falha quando o tamanho do lote é um
  • [SPARK-43248] [SC-129660][sql] Serialização/desserialização desnecessária do caminho em estatísticas de partição reunidas paralelamente
  • [SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Introduzido PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][connect][PYTHON] Implementar avaliação imediata para repr e repr_html
  • [SPARK-42953] [SC-129469][connect][Followup] Corrigir o build de teste do maven para testes de UDF do cliente Scala
  • [SPARK-43144] [SC-129280] API table() DataStreamReader do Cliente Scala
  • [SPARK-43136] [SC-129358][connect] Adicionando groupByKey + mapGroup + funções de coGroup
  • [SPARK-43156] [SC-129672][sc-128532][SQL] Corrigir COUNT(*) is null bug na subconsulta escalar correlacionada
  • [SPARK-43046] [SC-129110] [SS] [Connect] Implementação da API do Python dropDuplicatesWithinWatermark para Spark Connect
  • [SPARK-43199] [SC-129467][sql] Make InlineCTE idempotent
  • [SPARK-43293] [SC-129657][sql] __qualified_access_only deve ser ignorado em colunas normais
  • [SPARK-43276] [SC-129461][connect][PYTHON] Migrar erros da Janela do Spark Connect para a classe de erro
  • [SPARK-43174] [SC-129109][sql] Corrigir o completer do SparkSQLCLIDriver
  • [SPARK-43084] [SC-128654] [SS] Adicionar suporte a applyInPandasWithState para o Spark Connect
  • [SPARK-43119] [SC-129040][sql] Suporte obter palavras-chave SQL dinamicamente por meio da API JDBC e TVF
  • [SPARK-43082] [SC-129112][connect][PYTHON] UDFs de Python otimizados com Apache Arrow no Spark Connect
  • [SPARK-43085] [SC-128432][sql] Suporte para atribuição de valor padrão em colunas de nomes de tabelas com várias partes
  • [SPARK-43226] [LC-671] Definir extratores para metadados de constante de arquivo
  • [SPARK-43210] [SC-129189][connect][PYTHON] Introdução PySparkAssertionError
  • [SPARK-43214] [SC-129199][sql] Publicar métricas do lado do driver para LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Correção de ReplE2ESuite falhando consistentemente com o JDK 17
  • [SPARK-43268] [SC-129249][sql] Use classes de erro adequadas quando as exceções forem construídas com uma mensagem
  • [SPARK-43142] [SC-129299] Corrigir expressões DSL em atributos com caracteres especiais
  • [SPARK-43129] [SC-128896] API do Scala Core para streaming do Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Adicionar registro em log para Leitura em Lote do Kafka para partição de tópicos, intervalo de deslocamento e ID da tarefa
  • [SPARK-43249] [SC-129195][conectar] Corrigir estatísticas ausentes para o Comando SQL
  • [SPARK-42945] [SC-129188][connect] Suporte para PYSPARK_JVM_STACKTRACE_ENABLED no Spark Connect
  • [SPARK-43178] [SC-129197][connect][PYTHON] Migrar erros de UDF para a estrutura de erros do PySpark
  • [SPARK-43123] [SC-128494][sql] Metadados de campo internos não devem ser vazados para catálogos
  • [SPARK-43217] [SC-129205] Recursar corretamente em mapas/matrizes aninhados em findNestedField
  • [SPARK-43243] [SC-129294][python][CONNECT] Adicionar parâmetro de nível ao printSchema para Python
  • [SPARK-43230] [SC-129191][conectar] Simplificar DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403][sql] Respeitar RequiresDistributionAndOrdering no CTAS/RTAS
  • [SPARK-43234] [SC-129192][connect][PYTHON] Migrar ValueError do Conect DataFrame para a classe de erro
  • [SPARK-43212] [SC-129187][ss][PYTHON] Migrar erros de streaming estruturado para a classe de erro
  • [SPARK-43239] [SC-129186][ps] Remover null_counts de info()
  • [SPARK-43190] [SC-128930][sql] ListQuery.childOutput deve ser consistente com a saída do filho
  • [SPARK-43191] [SC-128924][core] Substituir a reflexão por chamada direta para Hadoop CallerContext
  • [SPARK-43193] [SC-129042][ss] Remover solução alternativa para HADOOP-12074
  • [SPARK-42657] [SC-128621][connect] Suporte para localizar e transferir arquivos de classe REPL do lado do cliente para o servidor como artefatos
  • [SPARK-43098] [SC-77059][sql] Corrigir bug de contagem de correção quando a subconsulta escalar tem cláusula GROUP BY
  • [SPARK-43213] [SC-129062][python] Adicionar DataFrame.offset ao vanilla PySpark
  • [SPARK-42982] [SC-128400][connect][PYTHON] Corrigir createDataFrame para respeitar a definição de esquema fornecida (DDL)
  • [SPARK-43124] [SC-129011][sql] Dataset.show projects CommandResults localmente
  • [SPARK-42998] [SC-127422][connect][PYTHON] Corrigir DataFrame.collect com struct nulo
  • [SPARK-41498] [SC-125343]Reverter "Propagar metadados por meio da União"
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Adicionar API await_termination() e exception() para Consulta de Streaming no Python
  • [SPARK-42552] [SC-128824][sql] Corrigir a estratégia de dois estágios de análise do parser ANTLR
  • [SPARK-43207] [SC-128937][connect] Adicionar funções auxiliares para extrair valor da expressão literal
  • [SPARK-43186] [SC-128841][sql][HIVE] Remover solução alternativa para FileSinkDesc
  • [SPARK-43107] [SC-128533][sql] Coalesce buckets in join aplicados no lado do fluxo de junção de transmissão
  • [SPARK-43195] [SC-128922][core] Remover wrapper serializável desnecessário no HadoopFSUtils
  • [SPARK-43137] [SC-128828][sql] Aprimore ArrayInsert se a posição for dobrável e positiva.
  • [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join deve retornar um valor nulo para linha sem correspondência
  • [SPARK-43042] [SC-128602] [SS] [Connect] Adicionar suporte à API table() para DataStreamReader
  • [SPARK-43153] [SC-128753][connect] Ignorar a execução do Spark quando o dataframe estiver local
  • [SPARK-43064] [SC-128496][sql] A guia SQL da CLI sql do Spark só deve mostrar uma instrução uma vez
  • [SPARK-43126] [SC-128447][sql] Marcar duas expressões UDF do Hive como com estado
  • [SPARK-43111] [SC-128750][ps][CONNECT][python] Mesclar instruções aninhadas if em instruções simples if
  • [SPARK-43113] [SC-128749][sql] Avaliar variáveis do lado da transmissão ao gerar código para uma condição vinculada
  • [SPARK-42895] [SC-127258][connect] Aprimorar mensagens de erro para sessões do Spark interrompidas
  • [SPARK-42884] [SC-126662][connect] Adicionar integração com o Ammonite REPL
  • [SPARK-43168] [SC-128674][sql] Remover o método Get PhysicalDataType da classe Datatype
  • [SPARK-43121] [SC-128455][sql] Use BytesWritable.copyBytes em vez de cópia manual em `HiveInspectors`
  • [SPARK-42916] [SC-128389][sql] JDBCTableCatalog mantém metadados de CHAR/VARCHAR no lado de leitura
  • [SPARK-43050] [SC-128550][sql] Corrigir expressões de agregação de construção substituindo funções de agrupamento
  • [SPARK-43095] [SC-128549][sql] Evite uma vez que a idempotência da estratégia seja interrompida para o lote: Infer Filters
  • [SPARK-43130] [SC-128597][sql] Mover InternalType para PhysicalDataType
  • [SPARK-43105] [SC-128456][connect] Abreviar bytes e cadeias de caracteres na mensagem proto
  • [SPARK-43099] [SC-128596][sql] Utilize getName em vez de getCanonicalName para obter o nome da classe do construtor ao registrar a udf no FunctionRegistry
  • [SPARK-42994] [SC-128586][ml][CONNECT] O Distribuidor PyTorch dá suporte ao Modo Local
  • [SPARK-42859] Reverter “[SC-127935][connect][PS] Suporte básico para a API do Pandas no Spark Connect”
  • [SPARK-43021] [SC-128472][sql] CoalesceBucketsInJoin não funciona ao usar o AQE
  • [SPARK-43125] [SC-128477][connect] Corrigir o problema do servidor Connect que não consegue lidar com exceções com mensagens nulas.
  • [SPARK-43147] [SC-128594] Corrigir o lint flake8 para verificação local
  • [SPARK-43031] [SC-128360] [SS] [Connect] Habilitar teste de unidade e doctest para streaming
  • [SPARK-43039] [LC-67] Suporte a campos personalizados na coluna _metadata da origem do arquivo.
  • [SPARK-43120] [SC-128407][ss] Adicionar suporte para monitoramento do uso de memória dos blocos fixados para o repositório de estado RocksDB
  • [SPARK-43110] [SC-128381][sql] Transferir asIntegral para PhysicalDataType
  • [SPARK-43118] [SC-128398][ss] Remover declaração desnecessária para UninterruptibleThread em KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331][connect][PYTHON] Dá suporte a nomes de campos aninhados duplicados
  • [SPARK-42437] [SC-128339][python][CONNECT] Catálogo do PySpark.cacheTable permitirá especificar o nível de armazenamento
  • [SPARK-42985] [SC-128332][connect][PYTHON] Correção createDataFrame para respeitar as configurações do SQL
  • [SPARK-39696] [SC-127830][core] Correção da corrida de dados no acesso a TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335][sql] Movendo Integral para PhysicalDataType
  • [SPARK-42741] [SC-125547][sql] Não desfazer conversões em comparações binárias quando literal for nulo
  • [SPARK-43057] [SC-127948][connect][PYTHON] Migrar os erros da coluna do Spark Connect para a classe de erros
  • [SPARK-42859] [SC-127935][connect][PS] Suporte básico para a API pandas no Spark Connect
  • [SPARK-43013] [SC-127773][python] Migrar ValueError do DataFrame para PySparkValueError.
  • [SPARK-43089] [SC-128051][connect] Redigir cadeia de caracteres de depuração na interface do usuário
  • [SPARK-43028] [SC-128070][sql] Adicionar classe de erro SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][sql] Adicionar teste para dropDuplicates em JavaDatasetSuite
  • [SPARK-43075] [SC-127939][conectar] Altere gRPC para grpcio quando não estiver instalado.
  • [SPARK-42953] [SC-127809][connect] Filtro tipado, mapa, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506][sql] Suporte para desembrulhar tipo data para tipo de timestamp
  • [SPARK-42931] [SC-127933][ss] Implementar dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943][connect] Adicionar constantes de tipos de dados proto
  • [SPARK-43077] [SC-128050][sql] Melhorar a mensagem de erro de UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030][ss][Connect] APIs de DataStreamReader
  • [SPARK-43049] [SC-127846][sql] Use CLOB em vez de VARCHAR(255) para StringType para Oracle JDBC
  • [SPARK-43018] [SC-127762][sql] Corrigir bug para INSERT comandos com literais de marca temporal
  • [SPARK-42855] [SC-127722][sql] Usar verificações nulas de runtime em TableOutputResolver
  • [SPARK-43030] [SC-127847][sql] Deduplicar relações com colunas de metadados
  • [SPARK-42993] [SC-127829][ml][CONNECT] Tornar o Distribuidor PyTorch compatível com o Spark Connect
  • [SPARK-43058] [SC-128072][sql] Transferir os tipos Numérico e Fracionário para PhysicalDataType
  • [SPARK-43056] [SC-127946][ss] A confirmação do repositório de estado RocksDB deve continuar o trabalho em segundo plano somente se estiver pausado
  • [SPARK-43059] [SC-127947][connect][PYTHON] Migrar TypeError de DataFrame(Leitor|Gravador) para a classe de erro
  • [SPARK-43071] [SC-128018][sql] Suporte ao PADRÃO com SELECT, ORDER BY, LIMIT para relação de fonte
  • [SPARK-43061] [SC-127956][core][SQL] Introduzir PartitionEvaluator para execução do operador SQL
  • [SPARK-43067] [SC-127938][ss] Corrigir o local do arquivo de recursos da classe de erro no conector Kafka
  • [SPARK-43019] [SC-127844][sql] Mover a ordenação para PhysicalDataType
  • [SPARK-43010] [SC-127759][python] Migrar erros de coluna para a classe de erro
  • [SPARK-42840] [SC-127782][sql] Alterar _LEGACY_ERROR_TEMP_2004 erro para erro interno
  • [SPARK-43041] [SC-127765][sql] Restaurar construtores de exceções para compatibilidade na API do conector
  • [SPARK-42939] [SC-127761][ss][CONNECT] API python de streaming principal para Spark Connect
  • [SPARK-42844] [SC-127766][sql] Atualizar a classe _LEGACY_ERROR_TEMP_2008 de erro para INVALID_URL
  • [SPARK-42316] [SC-127720][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][connect][PYTHON] Migrar erros do DataFrame do Spark Connect para a classe de erro
  • [SPARK-42983] [SC-127717][connect][PYTHON] Corrigir createDataFrame para manipular corretamente a matriz numpy de 0 dimensões
  • [SPARK-42955] [SC-127476][sql] Ignorar classifyException e encapsular AnalysisException para SparkThrowable
  • [SPARK-42949] [SC-127255][sql] Simplificar o código para NAAJ
  • [SPARK-43011] [SC-127577][sql] array_insert deve falhar com o índice 0
  • [SPARK-42974] [SC-127487][core] Restaurar Utils.createTempDir para usar o método ShutdownHookManager e limpar o método JavaUtils.createTempDir.
  • [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' também significa que a tabela já existe
  • [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME não pode qualificar um new-table-Name com um nome de esquema
  • [SPARK-37980] [SC-127668][sql] Acesse row_index via _metadata em testes, se possível
  • [SPARK-42655] [SC-127591][sql] Erro de referência de coluna ambígua incorreto
  • [SPARK-43009] [SC-127596][sql] Parametrizado sql() com Any constantes
  • [SPARK-43026] [SC-127590][sql] Aplicar AQE com cache de tabela não trocável
  • [SPARK-42963] [SC-127576][sql] Estender SparkSessionExtensions para injetar regras no otimizador de estágio de consulta do AQE
  • [SPARK-42918] [SC-127357] Generalizar o tratamento de atributos de metadados no FileSourceStrategy
  • [SPARK-42806] [SC-127452][spark-42811][CONNECT] Adicionar Catalog suporte
  • [SPARK-42997] [SC-127535][sql] TableOutputResolver deve usar caminhos de coluna corretos em mensagens de erro para matrizes e mapas
  • [SPARK-43006] [SC-127486][pyspark] Corrigir erro de digitação em StorageLevel eq()
  • [SPARK-43005] [SC-127485][pyspark] Corrigir erro de digitação no pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][core] Corrigir erro de digitação em ResourceRequest.equals()
  • [SPARK-42907] [SC-126984][connect][PYTHON] Implementar funções do Avro
  • [SPARK-42979] [SC-127272][sql] Definir construtores literais como palavras-chave
  • [SPARK-42946] [SC-127252][sql] Redact dados confidenciais que são aninhados por substituição variável
  • [SPARK-42952] [SC-127260][sql] Simplificar o parâmetro da regra do analisador PreprocessTableCreation e DataSourceAnalysis
  • [SPARK-42683] [LC-75] Renomear automaticamente colunas de metadados conflitantes
  • [SPARK-42853] [SC-126101][acompanhamento] Correção de conflitos
  • [SPARK-42929] [SC-126748][connect] make mapInPandas / mapInArrow support "is_barrier"
  • [SPARK-42968] [SC-127271][ss] Adicionar opção para ignorar o coordenador de confirmação como parte da API StreamingWrite para fontes/destinos DSv2
  • [SPARK-42954] [SC-127261][python][CONNECT] Adicionar YearMonthIntervalType ao PySpark e ao cliente Python do Spark Connect
  • [SPARK-41359] [SC-127256][sql] Use PhysicalDataType em vez de DataType em UnsafeRow
  • [SPARK-42873] [SC-127262][sql] Definir tipos sql do Spark como palavras-chave
  • [SPARK-42808] [SC-126302][core] Evite obter processadores disponíveis todas as vezes em MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][sql] PlanSubqueries deve ser definido InSubqueryExec#shouldBroadcast como true
  • [SPARK-42896] [SC-126729][sql][PYTHON] Tornar mapInPandas / mapInArrow compatível com a execução em modo de barreira
  • [SPARK-42874] [SC-126442][sql] Habilitar nova estrutura de teste de arquivo padrão para análise de todos os arquivos de entrada
  • [SPARK-42922] [SC-126850][sql] Mover de Aleatório para SecureRandom
  • [SPARK-42753] [SC-126369] ReusedExchange refere-se a nós inexistentes
  • [SPARK-40822] [SC-126274][sql] Aliases de colunas derivadas estáveis
  • [SPARK-42908] [SC-126856][python] Lançar RuntimeError quando SparkContext é necessário mas não inicializado
  • [SPARK-42779] [SC-126042][sql] Permitir escritas V2 indicar o tamanho da partição de shuffle sugerida
  • [SPARK-42914] [SC-126727][python] Reutilizar transformUnregisteredFunction para DistributedSequenceID.
  • [SPARK-42878] [SC-126882][conectar] A API de tabela no DataFrameReader também pode aceitar opções
  • [SPARK-42927] [SC-126883][core] Alterar o escopo de acesso para o.a.spark.util.Iterators#sizeprivate[util]
  • [SPARK-42943] [SC-126879][sql] Use LONGTEXT em vez de TEXT para StringType para um comprimento efetivo
  • [SPARK-37677] [SC-126855][core] Descompactar pode manter permissões de arquivo
  • [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implementar API de Mapa CoAgrupado
  • [SPARK-41876] [SC-126849][connect][PYTHON] Implementar DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761][core][SQL] Altere o escopo de acesso de ProtobufSerDe implementações relacionadas para private[protobuf]
  • [SPARK-42819] [SC-125879][ss] Adicionar suporte para definir max_write_buffer_number e write_buffer_size para RocksDB usados no streaming
  • [SPARK-42924] [SC-126737][sql][CONNECT][python] Esclarecer o comentário dos argumentos SQL parametrizados
  • [SPARK-42748] [SC-126455][connect] Gerenciamento de artefatos do lado do servidor
  • [SPARK-42816] [SC-126365][connect] Suporte para tamanho máximo de mensagem de até 128 MB
  • [SPARK-42850] [SC-126109][sql] Remover regra duplicada CombineFilters no Otimizador
  • [SPARK-42662] [SC-126355][connect][PS] Adicionar mensagem proto para a API pandas no índice padrão spark
  • [SPARK-42720] [SC-126136][ps][SQL] Usa expressão para índice padrão de sequência distribuída em vez de plano
  • [SPARK-42790] [SC-126174][sql] Abstrair o método excluído para melhor teste para testes do docker JDBC.
  • [SPARK-42900] [SC-126473][connect][PYTHON] Corrigir createDataFrame para respeitar a inferência e os nomes das colunas
  • [SPARK-42917] [SC-126657][sql] Corrigir getUpdateColumnNullabilityQuery para DerbyDialect
  • [SPARK-42684] [SC-125157][sql] v2 catalog não deve permitir o valor padrão da coluna por padrão
  • [SPARK-42861] [SC-126635][sql] Use private[sql] em vez de protected[sql] para evitar gerar documento de API
  • [SPARK-42920] [SC-126728][connect][PYTHON] Habilitar testes para UDF com UDT
  • [SPARK-42791] [SC-126617][sql] Criar uma nova estrutura de teste de arquivo ouro para análise
  • [SPARK-42911] [SC-126652][python] Introduza exceções mais básicas
  • [SPARK-42904] [SC-126634][sql] Suporte a Char/Varchar para Catálogo JDBC
  • [SPARK-42901] [SC-126459][connect][PYTHON] Mover StorageLevel para um arquivo separado para evitar um potencial file recursively imports
  • [SPARK-42894] [SC-126451][connect] Suporte cache/persist/unpersist/storageLevel para o cliente JVM do Spark Connect
  • [SPARK-42792] [SC-125852][ss] Adicionar suporte para WRITE_FLUSH_BYTES para RocksDB usado em operadores com estado de streaming
  • [SPARK-41233] [SC-126441][connect][PYTHON] Adicionar array_prepend ao cliente Python do Spark Connect
  • [SPARK-42681] [SC-125149][sql] Relaxar a restrição de ordenação para descritores de coluna ADD|REPLACE
  • [SPARK-42889] [SC-126367][connect][PYTHON] Implementar cache, persistir, não persista e storageLevel
  • [SPARK-42824] [SC-125985][connect][PYTHON] Forneça uma mensagem de erro clara para atributos JVM sem suporte
  • [SPARK-42340] [SC-126131][connect][PYTHON] Implementar API de Mapa Agrupado
  • [SPARK-42892] [SC-126454][sql] Mover sameType e métodos relevantes para fora do DataType
  • [SPARK-42827] [SC-126126][connect] Suporte functions#array_prepend para o cliente do Scala Connect
  • [SPARK-42823] [SC-125987][sql] spark-sql Shell dá suporte a namespaces de várias partes para inicialização
  • [SPARK-42817] [SC-125960][core] Registrando o nome do serviço embaralhado uma vez no ApplicationMaster
  • [SPARK-42786] [SC-126438][connect] Seleção digitada
  • [SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementar função ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][sql] Codegen Support for HiveSimpleUDF
  • [SPARK-41233] [SC-126110][sql][PYTHON] Adicionar array_prepend função
  • [SPARK-42864] [SC-126268][ml][3.4] Tornar IsotonicRegression.PointsAccumulator privado
  • [SPARK-42876] [SC-126281][sql] O tipo de dados físico de DataType deve ser privado[sql]
  • [SPARK-42101] [SC-125437][sql] Ajustar o AQE para suportar InMemoryTableScanExec
  • [SPARK-41290] [SC-124030][sql] Suporte a expressões ALWAYS AS geradas para colunas em instruções create/replace table
  • [SPARK-42870] [SC-126220][conectar] Mover toCatalystValue para connect-common
  • [SPARK-42247] [SC-126107][connect][PYTHON] Corrigir FunçãoDefinidaPeloUsuário para incluir tipoDeRetorno
  • [SPARK-42875] [SC-126258][connect][PYTHON] Correção de toPandas para lidar com os tipos de fuso horário e mapa corretamente
  • [SPARK-42757] [SC-125626][connect] Implementar textFile para DataFrameReader
  • [SPARK-42803] [SC-126081][core][SQL][ml] Use a função getParameterCount em vez de getParameterTypes.length
  • [SPARK-42833] [SC-126043][sql] Refatoração applyExtensions em SparkSession
  • [SPARK-41765] Reverter "[SC-123550][sql] Extrair métricas de gravação v1...
  • [SPARK-42848] [SC-126105][connect][PYTHON] Implementar DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][connect][PYTHON] suporte a UserDefinedType no Spark Connect
  • [SPARK-42818] [SC-125861][connect][PYTHON] Implementar DataFrameReader/Writer.jdbc
  • [SPARK-42812] [SC-125867][connect] Incluir client_type na mensagem protobuf AddArtifactsRequest
  • [SPARK-42772] [SC-125860][sql] Altere o valor padrão das opções JDBC sobre push para baixo para true
  • [SPARK-42771] [SC-125855][sql] Refatorar HiveGenericUDF
  • [SPARK-25050] [SC-123839][sql] Avro: escrevendo uniões complexas
  • [SPARK-42765] [SC-125850][connect][PYTHON] Habilitar importação pandas_udf de pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][core] MapOutputTracker#getMapLocation deve respeitar spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][sql] Melhorar o desempenho da exclusão de partições
  • [SPARK-42689] [SC-125195][core][SHUFFLE] Permitir que ShuffleDriverComponent declare se os dados de shuffle são armazenados de forma confiável
  • [SPARK-42726] [SC-125279][connect][PYTHON] Implementar DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550][sql] Puxar as métricas de gravação v1 para o WriteFiles
  • [SPARK-41171] [SC-124191][sql] Inferir e reduzir o limite da janela pela janela se partitionSpec estiver vazio
  • [SPARK-42686] [SC-125292][core] Adiar a formatação para mensagens de depuração no TaskMemoryManager
  • [SPARK-42756] [SC-125443][connect][PYTHON] Função auxiliar para converter proto literal em valor no Cliente Python
  • [SPARK-42793] [SC-125627][conectar] connect módulo requer build_profile_flags
  • [SPARK-42701] [SC-125192][sql] Adicionar a try_aes_decrypt() função
  • [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame não funciona com esquema não anulável
  • [SPARK-42733] [SC-125542][connect][Followup] Executar gravação sem especificar caminho ou tabela
  • [SPARK-42777] [SC-125525][sql] Suporte à conversão de estatísticas do catálogo TimestampNTZ em estatísticas de plano
  • [SPARK-42770] [SC-125558][connect] Adicionar truncatedTo(ChronoUnit.MICROS) para que a tarefa GA do teste diário em Java 17 passe
  • [SPARK-42752] [SC-125550][pyspark][SQL] Tornar as exceções do PySpark imprimíveis durante a inicialização
  • [SPARK-42732] [SC-125544][pyspark][CONNECT] Suporte ao método getActiveSession da sessão do Spark Connect
  • [SPARK-42755] [SC-125442][connect] Conversão de valor literal do fator para connect-common
  • [SPARK-42747] [SC-125399][ml] Corrigir o status interno incorreto de LoR e AFT
  • [SPARK-42740] [SC-125439][sql] Corrigir o bug onde o deslocamento ou paginação de pushdown é inválido para alguns dialetos internos
  • [SPARK-42745] [SC-125332][sql] Expressão AliasAwareOutput melhorada funciona com DSv2
  • [SPARK-42743] [SC-125330][sql] Suporte para analisar colunas TimestampNTZ
  • [SPARK-42721] [SC-125371][conectar] Interceptador de log RPC
  • [SPARK-42691] [SC-125397][connect][PYTHON] Implementar Dataset.semanticHash
  • [SPARK-42688] [SC-124922][connect] Renomear client_id de solicitação do proto Connect para session_id
  • [SPARK-42310] [SC-122792][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][core] Otimizar rotinas Utils.bytesToString
  • [SPARK-42725] [SC-125296][connect][PYTHON] Fazer com que LiteralExpression suporte parâmetros de array
  • [SPARK-42702] [SC-125293][spark-42623][SQL] Suporte à consulta parametrizada em subconsulta e CTE
  • [SPARK-42697] [SC-125189][webui] Corrigir /api/v1/applications para retornar o tempo de atividade total em vez de 0 para o campo de duração
  • [SPARK-42733] [SC-125278][connect][PYTHON] Corrigir DataFrameWriter.save para funcionar sem parâmetro de caminho
  • [SPARK-42376] [SC-124928][ss] Introduzir propagação de marca d'água entre operadores
  • [SPARK-42710] [SC-125205][connect][PYTHON] Renomear proto FrameMap para MapPartitions
  • [SPARK-37099] [SC-123542][sql] Introduza o limite de grupo da janela de classificação para filtro por classificação, a fim de otimizar a computação de top-k.
  • [SPARK-42630] [SC-125207][connect][PYTHON] Introduza UnparsedDataType e adie a análise da string DDL até que SparkConnectClient esteja disponível
  • [SPARK-42690] [SC-125193][connect] Implementar funções de análise CSV/JSON para o cliente Scala
  • [SPARK-42709] [SC-125172][python] Remova a suposição de __file__ estar disponível
  • [SPARK-42318] [SC-122648][spark-42319][SQL] Atribuir nome a LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][sql] Suporte ao tipo de dados do analisador json "timestamp_ltz" como TimestampType
  • [SPARK-42722] [SC-125175][connect][PYTHON] Esquema def do Python Connect() não deve armazenar em cache o esquema
  • [SPARK-42643] [SC-125152][connect][PYTHON] Registrar funções Java (agregadas) definidas pelo utilizador
  • [SPARK-42656] [SC-125177][conectar][Acompanhamento] Corrigir o script spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Permitir que dialetos jdbc substituam a consulta usada para criar uma tabela
  • [SPARK-41725] [SC-124396][connect] Execução imediata de DF.sql()
  • [SPARK-42687] [SC-124896][ss] Mensagem de erro melhor para a operação não suportada pivot no Streaming
  • [SPARK-42676] [SC-124809][ss] Gravar pontos de verificação temporários para consultas de streaming no sistema de arquivos local, mesmo que o FS padrão seja definido de forma diferente
  • [SPARK-42303] [SC-122644][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][sql] Verifique pelo menos uma unidade de tempo após "intervalo"
  • [SPARK-42649] [SC-124576][core] Remova o cabeçalho padrão do Apache License da parte superior dos arquivos de origem de terceiros
  • [SPARK-42611] [SC-124395][sql] Inserir verificações de comprimento char/varchar para campos internos durante a resolução
  • [SPARK-42419] [SC-124019][connect][PYTHON] Migrar para o framework de erros da API de Coluna do Spark Connect.
  • [SPARK-42637] [SC-124522][connect] Adicionar SparkSession.stop()
  • [SPARK-42647] [SC-124647][python] Alterar alias para tipos numpy preteridos e removidos
  • [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver só deve fechar o hive sessionState iniciado
  • [SPARK-42593] [SC-124405][ps] Descontinuar e remover as APIs que serão removidas no pandas 2.0.
  • [SPARK-41870] [SC-124402][connect][PYTHON] Correção de createDataFrame para lidar com nomes de coluna duplicados
  • [SPARK-42569] [SC-124379][connect] Lançar exceções para a API de sessão não suportada
  • [SPARK-42631] [SC-124526][conectar] Suporte para extensões personalizadas no cliente Scala
  • [SPARK-41868] [SC-124387][connect][PYTHON] Corrigir createDataFrame para dar suporte a durações
  • [SPARK-42572] [SC-124171][sql][SS] Corrigir comportamento para StateStoreProvider.validateStateRowFormat

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 13.1.

Ambiente do sistema

  • Sistema operacional: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 atributos 21.4.0 chamada de retorno 0.2.0
beautifulsoup4 4.11.1 preto 22.6.0 alvejante 4.1.0
antolho 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
normalizador de conjunto de caracteres 2.0.4 clique 8.0.4 criptografia 37.0.1
ciclista 0.11.0 Cython 0.29.32 dbus-python 1.2.18
debugpy 1.5.1 decorador 5.1.1 defusedxml 0.7.1
distlib 0.3.6 de docstring para markdown 0,12 pontos de entrada 0,4
em execução 1.2.0 Visão geral de facetas 1.0.3 fastjsonschema 2.16.3
bloqueio de arquivo 3.12.0 fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
IDNA 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets (biblioteca Python para widgets interativos) 7.7.2
Jedi 0.18.1 Jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
Cliente Jupyter 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 keyring 23.5.0 kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
Mccabe 0.7.0 Mistune 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.12 numpy 1.21.5 oauthlib 3.2.0
empacotando 21,3 Pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 Patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Almofada 9.2.0
caroço 22.2.2 platformdirs 2.5.2 enredo 5.9.0
Pluggy 1.0.0 prometheus-client 0.14.1 kit de ferramentas de prompt 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 Pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server (servidor LSP para Python) 1.7.1 pytoolconfig 1.2.2 Pytz 2022.1
pyzmq 23.2.0 solicitações 2.28.1 corda 1.7.0
s3transfer 0.6.0 scikit-aprender 1.1.1 Scipy 1.9.1
seaborn (biblioteca de visualização em Python) 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
Ferramentas de configuração 63.4.1 seis 1.16.0 Soupsieve 2.3.1
ssh-import-id 5.11 dados empilhados 0.6.2 statsmodels (biblioteca para modelos estatísticos em Python) 0.13.2
tenacidade 8.1.0 terminado 0.13.1 caminho de teste 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 atualizações não supervisionadas 0,1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
codificações web 0.5.1 whatthepatch 1.0.2 wheel 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Bibliotecas R instaladas

As bibliotecas R foram instaladas por meio do Instantâneo CRAN da Microsoft em 02/10/2023.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 10.0.1 AskPass 1,1 afirme isso 0.2.1
retroportações 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.3
ciar 1.3-28 Fabricação de cerveja 1.0-8 Brio 1.1.3
vassoura 1.0.3 bslib 0.4.2 cachem 1.0.6
chamador 3.7.3 sinal de interpolação 6.0-93 Cellranger 1.1.0
crono 2.3-59 classe 7.3-21 Interface de Linha de Comando (CLI) 3.6.0
clipr 0.8.0 relógio 0.6.1 cluster 2.1.4
codetools 0.2-19 espaço de cores 2.1-0 commonmark 1.8.1
compilador 4.2.2 configuração 0.3.1 cpp11 0.4.3
giz de cera 1.5.2 credenciais 1.3.2 encurvar 5.0.0
Tabela de Dados 1.14.6 conjuntos de dados 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Descrição 1.4.2 devtools 2.4.5
diffobj 0.3.5 hash 0.6.31 iluminação para baixo 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
reticências 0.3.2 avaliar 0,20 fansi 1.0.4
cores 2.1.1 mapa rápido 1.1.0 fontawesome 0.5.0
para gatos 1.0.0 para cada 1.5.2 estrangeiro 0.8-82
forja 0.2.0 Fs 1.6.1 futuro 1.31.0
future.apply 1.10.0 gargarejar 1.3.0 genéricos 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globais 0.16.2
cola 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 elemento gráfico 4.2.2 grDevices 4.2.2
grade 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 capacete de segurança 1.2.0 refúgio 2.5.1
mais alto 0,10 Hms 1.1.2 ferramentas HTML 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Identificadores 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 knitr 1.42
rotulagem 0.4.2 posterior 1.3.0 treliça 0.20-45
lava vulcânica 1.7.1 ciclo de vida 1.0.3 ouça 0.9.0
lubrificado 1.9.1 magrittr 2.0.3 redução de preço 1.5
MISSA 7.3-58.2 Matriz 1.5-1 memorizar 2.0.1
Métodos 4.2.2 mgcv 1.8-41 mímica 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelador 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 paralelo 4.2.2
paralelamente 1.34.0 coluna 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 elogio 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
Prodlim 2019.11.13 profvis 0.3.7 progresso 1.2.2
progressr 0.13.0 Promessas 1.2.0.1 proto 1.0.0
proxy 0.4-27 P.S. 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
Readr 2.1.3 readxl 1.4.2 Receitas 1.0.4
jogo de revanche 1.0.1 revanche2 2.1.2 Controles remotos 2.4.2
exemplo reprodutível (reprex) 2.0.2 remodelar2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 escamas 1.2.1
Seletor 0.4-2 informações de sessão 1.2.2 forma 1.4.6
brilhante 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 espacial 7.3-15 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 estatísticas 4.2.2
estatísticas4 4.2.2 stringi 1.7.12 stringr 1.5.0
sobrevivência 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 formatação de texto 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 mudança de horário 0.2.0 data e hora 4022.108
tinytex 0,44 Ferramentas 4.2.2 tzdb 0.3.0
verificador de URL 1.0.1 usethis 2.1.6 utf8 1.2.3
utilitários 4.2.2 identificador único universal (UUID) 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
vibrissa 0.4.1 murchar 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML 2.3.7 zíper 2.2.2

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws SDK Java para o ECS da AWS 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.390
com.amazonaws aws-java-sdk-swf-bibliotecas 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.datatype jackson-module-paranamer 2.14.2
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.14.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-nativos
com.github.fommil.netlib sistema_nativo-java 1,1
com.github.fommil.netlib sistema_nativo-java 1.1-nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-nativos
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-nativos
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Sininho 1.7.0
com.google.errorprone anotações_propensas_a_erros 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0,21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metrics-core 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics métricas-verificações de saúde 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json (métricas em JSON) 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty Netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty Netty Resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-comum 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction API de transação 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine picles 1,3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant lançador de formigas 1.9.16
org.apache.arrow formato de seta 11.0.0
org.apache.arrow seta-memória-core 11.0.0
org.apache.arrow Arrow-Memory-Netty 11.0.0
org.apache.arrow vetor de seta 11.0.0
org.apache.avro Avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Texto Comum 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator estrutura do curador 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.4
org.apache.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de armazenamento do Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Agendador de Ajustes do Hive (hive-shims-scheduler) 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos Mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-calços 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,22%
org.apache.yetus comentários da audiência 0.13.0
org.apache.zookeeper zelador de zoológico 3.6.3
org.apache.zookeeper guarda de zoológico-juta 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty segurança do jetty 9.4.50.v20221201
org.eclipse.jetty servidor jetty 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty Jetty Webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket API de WebSocket 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket servidor WebSocket 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-comum 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc cliente Java do MariaDB 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Calços 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1