Compartilhar via


Databricks Runtime 12.1 (EoS)

Observação

O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 12.1 da plataforma Apache Spark 3.3.1.

O Databricks lançou essa versão em janeiro de 2023.

Novos recursos e aprimoramentos

Recursos de tabela do Delta Lake com suporte para gerenciamento de protocolo

O Azure Databricks introduziu suporte para recursos de tabela do Delta Lake, que introduzem sinalizadores granulares especificando quais recursos têm suporte em determinada tabela. Consulte a compatibilidade de recursos e protocolos do Delta Lake.

A E/S preditiva para atualizações está em visualização pública

A E/S preditiva agora acelera as operações DELETE, MERGE e UPDATE para tabelas Delta com vetores de exclusão habilitados na computação habilitada para Photon. Confira O que é E/S preditiva?.

O Explorador de Catalogo agora está disponível para todas as personas

O Gerenciador de Catálogos agora está disponível para todas as personas do Azure Databricks ao usar o Databricks Runtime 7.3 LTS e superior.

Suporte para vários operadores com estado em uma única consulta de streaming

Os usuários agora podem encadear operadores com estado com o modo de acréscimo na consulta de streaming. Nem todos os operadores têm suporte total. A junção de intervalo de tempo no fluxo para fluxo e flatMapGroupsWithState não permite que outros operadores com estado sejam encadeados.

O suporte para buffers de protocolo está em Visualização Pública

Você pode usar as funções from_protobuf e to_protobuf para trocar dados entre tipos binários e struct. Confira Ler e gravar buffers de protocolo.

Suporte para autenticação do Registro de Esquema Confluent

A integração do Azure Databricks com o Registro de Esquema do Confluent agora dá suporte a endereços externos de registro de esquema com autenticação. Esse recurso está disponível para as funções from_avro, to_avro, from_protobuf e to_protobuf. Consulte Protobuf ou Avro.

Suporte para compartilhar o histórico de tabelas com compartilhamentos Delta Sharing

Agora você pode compartilhar uma tabela com histórico completo usando o Delta Sharing, permitindo que os destinatários executem consultas de viagem no tempo e consultem a tabela usando o Streaming Estruturado do Spark. WITH HISTORY é recomendado em vez de CHANGE DATA FEED, embora o último continue com suporte. Confira ALTER SHARE e Adicionar tabelas a um compartilhamento.

Suporte para streaming com compartilhamentos Delta Sharing

O Fluxo Estruturado do Spark agora funciona com o formato deltasharing em uma tabela do Delta Sharing de origem que foi compartilhada usando WITH HISTORY.

Agora há suporte para a versão de tabela que usa carimbo de data/hora do Delta Sharing em catálogos

Agora você pode usar a sintaxe SQL TIMESTAMP AS OF nas instruções SELECT para especificar a versão de uma tabela Delta Sharing montada em um catálogo. As tabelas devem ser compartilhadas usando WITH HISTORY.

Suporte para WHEN NOT MATCHED BY SOURCE para MERGE INTO

Agora você pode adicionar WHEN NOT MATCHED BY SOURCE cláusulas a MERGE INTO a fim de atualizar ou excluir linhas na tabela escolhida que não têm correspondências na tabela de origem segundo a condição de mesclagem. A nova cláusula está disponível em SQL, Python, Scala e Java. Consulte MERGE INTO.

Coleção de estatísticas otimizadas para CONVERT TO DELTA

A coleta de estatísticas para a operação CONVERT TO DELTA agora está muito mais rápida. Isso reduz o número de cargas de trabalho que podem usar NO STATISTICS para aumentar a eficiência.

Suporte do Catálogo do Unity para desfazer a exclusão de tabelas

Esse recurso foi inicialmente lançado na Versão Prévia Pública. Ele está em disponibilidade geral a partir de 25 de outubro de 2023.

Agora você pode soltar uma tabela gerenciada ou externa removida em um esquema existente dentro de sete dias após a remoção. Consulte UNDROP e SHOW TABLES DROPPED.

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • filelock de 3.8.0 para 3.8.2
    • platformdirs de 2.5.4 para 2.6.0
    • setuptools de 58.0.4 para 61.2.0
  • Atualização das bibliotecas do R:
  • Bibliotecas do Java atualizadas:
    • io.delta.delta-sharing-spark_2.12 de 0.5.2 para 0.6.2
    • org.apache.hive.hive-storage-api de 2.7.2 para 2.8.1
    • org.apache.parquet.parquet-column de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
    • org.apache.parquet.parquet-common de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
    • org.apache.parquet.parquet-encoding de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson de 1.12.3-databricks-0001 para 1.12.3-databricks-0002
    • org.tukaani.xz de 1.8 para 1.9

Apache Spark

O Databricks Runtime 12.1 inclui o Apache Spark 3.3.1. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 12.0 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Revert “[SC-119411][sql] Centralizar a lógica de resolução de colunas” e “[SC-117170][spark-41338][SQL] Resolver referências externas e colunas normais no mesmo lote do analisador”
  • [SPARK-41405] [SC-119411][sql] Centralizar a lógica de resolução de coluna
  • [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand deve definir o sinalizador de substituição corretamente
  • [SPARK-41659] [SC-119526][connect][12.X] Habilitar doctests em pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][sql] Corrigir regressão de desempenho do leitor ORC devido ao recurso de valor padrão
  • [SPARK-41807] [SC-119399][core] Remover classe de erro inexistente: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
  • [SPARK-41578] [12.x][sc-119273][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [SC-119362][sql] Atribuir nome a _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][connect] Extrair nomes de uma lista de dicionários em SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Mover a documentação do Spark Connect e o script para dev/ e para a documentação do Python
  • [SPARK-41534] [SC-119456][connect][SQL][12.x] Configurar módulo de cliente inicial para o Spark Connect
  • [SPARK-41365] [SC-118498][ui][3.3] A página de estágios da interface do usuário falha ao carregar para o proxy em um ambiente específico do Yarn
  • [SPARK-41481] [SC-118150][core][SQL] Reutilizar INVALID_TYPED_LITERAL em vez de _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][sql] Revisitar o tratamento de expressões com estado
  • [SPARK-41726] [SC-119248][sql] Remove OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][sc-118348][SQL] Suporte a consultas SQL parametrizadas por sql()
  • [SPARK-41066] [SC-119344][connect][PYTHON] Implementar DataFrame.sampleBy e DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][sc-119012][SQL][todos os testes] Efetuar pull da gravação v1 para WriteFiles
  • [SPARK-41565] [SC-118868][sql] Adicionar a classe de erro UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][sql] A função DECODE retorna resultados incorretos quando passado NULL
  • [SPARK-41554] [SC-119274] correção da alteração da escala decimal quando a escala diminuiu em m…
  • [SPARK-41065] [SC-119324][connect][PYTHON] Implementação de DataFrame.freqItems e DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Reativar testes de documentação e adicionar alias de coluna ausente para count()
  • [SPARK-41069] [SC-119310][connect][PYTHON] Implementar DataFrame.approxQuantile e DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][connect][PYTHON] Fazer a função from_json dar suporte ao esquema DataType
  • [SPARK-41804] [SC-119382][sql] Escolha o tamanho do elemento correto para InterpretedUnsafeProjection matriz de UDTs
  • [SPARK-41786] [SC-119308][connect][PYTHON] Desduplicar funções auxiliares
  • [SPARK-41745] [SC-119378][spark-41789][12.X] Fazer com que createDataFrame suporte uma lista de linhas
  • [SPARK-41344] [SC-119217][sql] Tornar o erro mais claro quando a tabela não encontrada no catálogo SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][connect][PYTHON] Adicionar função ausente log(arg1, arg2)
  • [SPARK-41808] [SC-119356][connect][PYTHON] Tornar funções JSON compatíveis com opções
  • [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Faça __getitem__ o filtro de suporte e selecione
  • [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Fazer suporte de operação de coluna Nenhum
  • [SPARK-41440] [SC-119279][connect][PYTHON] Evite o operador de cache para exemplo geral.
  • [SPARK-41785] [SC-119290][connect][PYTHON] Implementar GroupedData.mean
  • [SPARK-41629] [SC-119276][connect] Suporte para extensões de protocolo em relação e expressão
  • [SPARK-41417] [SC-118000][core][SQL] Renomear _LEGACY_ERROR_TEMP_0019 para INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][connect][12.X] Tratamento de Erros Adequado para Cliente/Servidor do Spark Connect
  • [SPARK-41292] [SC-119357][connect][12.X] Janela de suporte no namespace pyspark.sql.window
  • [SPARK-41493] [SC-119339][connect][PYTHON] Fazer opções de suporte a funções csv
  • [SPARK-39591] [SC-118675][ss] Acompanhamento de progresso assíncrono
  • [SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implementar Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][connect][PYTHON] Implementar DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][connect][12.X] Habilitar doctests em pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][connect] Misturar ClientId no cache de SparkSession
  • [SPARK-41354] [SC-119194][connect] Adicionar RepartitionByExpression ao proto
  • [SPARK-41784] [SC-119289][connect][PYTHON] Adicionar elemento ausente __rmod__ em Coluna
  • [SPARK-41778] [SC-119262][sql] Adicionar um alias "reduce" a ArrayAggregate
  • [SPARK-41067] [SC-119171][connect][PYTHON] Implementar DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][connect][PYTHON] Tornar o nome da operação de string interna consistente com FunctionRegistry
  • [SPARK-41734] [SC-119160][conectar] Adicionar uma mensagem principal para Catálogo
  • [SPARK-41742] [SC-119263] Suporte a df.groupBy().agg({“*”:”count”})
  • [SPARK-41761] [SC-119213][connect][PYTHON] Corrigir operações aritméticas: __neg__, , __pow____rpow__
  • [SPARK-41062] [SC-118182][sql] Renomear UNSUPPORTED_CORRELATED_REFERENCE para CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][connect][PYTHON] Correção Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implementar unwrap_udt função
  • [SPARK-41333] [SC-119195][spark-41737] Implementar GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][connect][PYTHON] Correção Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][sql] Suporte à resolução implícita de alias de coluna lateral em agregações
  • [SPARK-41529] [SC-119207][connect][12.X] Implementar SparkSession.stop
  • [SPARK-41729] [SC-119205][core][SQL][12.x] Renomear _LEGACY_ERROR_TEMP_0011 para UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][connect][12.X] Deduplicar impressão e repr_html no LogicalPlan
  • [SPARK-41740] [SC-119169][connect][Python] Implementar Column.name
  • [SPARK-41733] [SC-119163][sql][SS] Aplicar poda baseada em padrão de árvore para a regra ResolveWindowTime
  • [SPARK-41732] [SC-119157][sql][SS] Aplicar poda baseada em padrão de árvore para a regra SessionWindowing
  • [SPARK-41498] [SC-119018] Propagar metadados por meio de União
  • [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Implementar o acessador de coluna
  • [SPARK-41736] [SC-119161][connect][PYTHON] pyspark_types_to_proto_types deve dar suporte ArrayType
  • [SPARK-41473] [SC-119092][connect][PYTHON] Implementar format_number função
  • [SPARK-41707] [SC-119141][connect][12.X] Implementar a API de Catálogo no Spark Connect
  • [SPARK-41710] [SC-119062][connect][PYTHON] Implementar Column.between
  • [SPARK-41235] [SC-119088][sql][PYTHON]Função de alta ordem: implementação de array_compact
  • [SPARK-41518] [SC-118453][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][connect][PYTHON] Implementar sequence função
  • [SPARK-41703] [SC-119060][connect][PYTHON] Combine NullType e typed_null em Literal
  • [SPARK-41722] [SC-119090][connect][PYTHON] Implementar 3 funções de janela de tempo ausentes
  • [SPARK-41503] [SC-119043][connect][PYTHON] Implementar funções de transformação de partição
  • [SPARK-41413] [SC-118968][sql] Evite redistribuir dados na Junção Storage-Partitioned quando as chaves de partição não corresponderem, mas as expressões de junção são compatíveis.
  • [SPARK-41700] [SC-119046][connect][PYTHON] Remove FunctionBuilder
  • [SPARK-41706] [SC-119094][connect][PYTHON] pyspark_types_to_proto_types deve dar suporte MapType
  • [SPARK-41702] [SC-119049][connect][PYTHON] Adicionar operações inválidas de coluna
  • [SPARK-41660] [SC-118866][sql] Somente propagar colunas de metadados se forem usadas
  • [SPARK-41637] [SC-119003][sql] ORDER BY ALL
  • [SPARK-41513] [SC-118945][sql] Implementar um acumulador para coletar métricas de contagem de linhas por mapeador
  • [SPARK-41647] [SC-119064][connect][12.X] Desduplicar docstrings em pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][connect][PYTHON] Implementar suporte à operação de coluna
  • [SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementar rollup, cube e pivot
  • [SPARK-41635] [SC-118944][sql] GROUP BY ALL
  • [SPARK-41645] [SC-119057][connect][12.X] Remover duplicatas nas docstrings em pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][connect][PYTHON] Mover expressões para expressions.py
  • [SPARK-41687] [SC-118949][connect] Remover duplicatas de docstrings em pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][connect] Desduplicar docstrings em pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][connect] Extrair GroupedData para group.py
  • [SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementar Window funções
  • [SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Suporte à operação Make Column datetime
  • [SPARK-41672] [SC-118929][connect][PYTHON] Habilitar as funções preteridas
  • [SPARK-41673] [SC-118932][connect][PYTHON] Implementar Column.astype
  • [SPARK-41364] [SC-118865][connect][PYTHON] Implementar função broadcast
  • [SPARK-41648] [SC-118914][connect][12.X] Eliminação de duplicação de docstrings em pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][connect][12.X] Remover duplicação de docstrings em pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][connect][12.X] Deduplicar docstrings em pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implementar o restante das funções lambda
  • [SPARK-41441] [SC-118557][sql] Suportar geração sem saída obrigatória de filho para incorporar referências externas
  • [SPARK-41669] [SC-118923][sql] Poda antecipada na função canCollapseExpressions
  • [SPARK-41639] [SC-118927][sql][PROTOBUF] : Remover ScalaReflectionLock de SchemaConverters
  • [SPARK-41464] [SC-118861][connect][PYTHON] Implementar DataFrame.to
  • [SPARK-41434] [SC-118857][connect][PYTHON] Implementação inicial LambdaFunction
  • [SPARK-41539] [SC-118802][sql] Remapear estatísticas e restrições contra a saída no plano lógico para LogicalRDD
  • [SPARK-41396] [SC-118786][sql][PROTOBUF] Verificações de suporte e recursão do campo OneOf
  • [SPARK-41528] [SC-118769][connect][12.X] Mesclar namespace do Spark Connect e da API do PySpark
  • [SPARK-41568] [SC-118715][sql] Atribuir nome a _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][connect][PYTHON] Implementar DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Adicionar Spark Connect e protobuf em setup.py com a especificação de dependências
  • [SPARK-27561] [SC-101081][12.x][SQL] Suporte à resolução implícita de alias de coluna lateral no Projeto
  • [SPARK-41535] [SC-118645][sql] Definir nulo corretamente para campos de intervalo de calendário em InterpretedUnsafeProjection e InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][sql] Suporte à função interna de mascaramento de dados 'mask'
  • [SPARK-41520] [SC-118440][sql] Dividir AND_OR TreePattern para separar AND e OR TreePatterns
  • [SPARK-41349] [SC-118668][connect][PYTHON] Implementar DataFrame.hint
  • [SPARK-41546] [SC-118541][connect][PYTHON] pyspark_types_to_proto_types deve dar suporte a StructType.
  • [SPARK-41334] [SC-118549][connect][PYTHON] Mover SortOrder proto de relações para expressões
  • [SPARK-41387] [SC-118450][ss] Declarar deslocamento final atual da fonte de dados kafka para Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][core][SQL] Renomear _LEGACY_ERROR_TEMP_1180 para UNEXPECTED_INPUT_TYPE e remover _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][connect][PYTHON] Implementar Coluna. {quando, caso contrário} e Função when com UnresolvedFunction
  • [SPARK-41541] [SC-118460][sql] Corrigir chamada ao método filho errado em SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][connect][PYTHON] Implementar DataFrame.subtract
  • [SPARK-41248] [SC-118436][sc-118303][SQL] Adicionar "spark.sql.json.enablePartialResults" para habilitar/desabilitar resultados parciais JSON
  • [SPARK-41437] Reverter "[SC-117601][sql] Não otimize o inputquery duas vezes para fallback de gravação v1"
  • [SPARK-41472] [SC-118352][connect][PYTHON] Implementar o restante das funções de cadeia de caracteres/binárias
  • [SPARK-41526] [SC-118355][connect][PYTHON] Implementar Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Melhorar a especulação por meio das métricas da tarefa de preparo.
  • [SPARK-41524] [SC-118399][ss] Diferenciar SQLConf e extraOptions em StateStoreConf para seu uso no RocksDBConf
  • [SPARK-41465] [SC-118381][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][sql] LongToUnsafeRowMap com suporte a ignorarChaveDuplicada
  • [SPARK-41409] [SC-118302][core][SQL] Renomear _LEGACY_ERROR_TEMP_1043 para WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][connect][PYTHON] Implementar DataFrame.colRegex
  • [SPARK-41437] [SC-117601][sql] Não otimize a consulta de entrada duas vezes para fallback de gravação v1
  • [SPARK-41314] [SC-117172][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][connect][PYTHON] Refatorar LiteralExpression para dar suporte a DataType
  • [SPARK-41448] [SC-118046] Tornar IDs de trabalho de MR consistentes em FileBatchWriter e FileFormatWriter
  • [SPARK-41456] [SC-117970][sql] Melhorar o desempenho de try_cast
  • [SPARK-41495] [SC-118125][connect][PYTHON] Implementar collection funções: P~Z
  • [SPARK-41478] [SC-118167][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][sql] Refatorar a mensagem de erro de NUM_COLUMNS_MISMATCH de modo a torná-la mais genérica
  • [SPARK-41404] [SC-118016][sql] Refatorar ColumnVectorUtils#toBatch para tornar o teste de ColumnarBatchSuite#testRandomRows mais primitivo quanto ao tipo de dado
  • [SPARK-41468] [SC-118044][sql] Corrigir manipulação de PlanExpression em EquivalentExpressions
  • [SPARK-40775] [SC-118045][sql] Corrigir entradas de descrição duplicadas para varreduras de arquivo V2
  • [SPARK-41492] [SC-118042][connect][PYTHON] Implementar funções MISC
  • [SPARK-41459] [SC-118005][sql] corrigir a saída do log de operação do servidor Thrift que está vazia
  • [SPARK-41395] [SC-117899][sql] InterpretedMutableProjection deve usar setDecimal para definir valores nulos para decimais em uma linha não segura
  • [SPARK-41376] [SC-117840][core][3.3] Corrigir a lógica de verificação Netty preferDirectBufs no início do executor
  • [SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implementar collection funções: E~M
  • [SPARK-41389] [SC-117426][core][SQL] Reutilizar WRONG_NUM_ARGS em vez de _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][sql] Tipo de data e carimbo de data/hora pode ser convertido em TimestampNTZ
  • [SPARK-41435] [SC-117810][sql] Mudar para chamar invalidFunctionArgumentsError para curdate() quando expressions não estiver vazio
  • [SPARK-41187] [SC-118030][core] Vazamento de Memória no LiveExecutor em AppStatusListener quando ExecutorLost ocorre
  • [SPARK-41360] [SC-118083][core] Evite o re-registro do BlockManager se o executor tiver sido perdido
  • [SPARK-41378] [SC-117686][sql] Suporte para estatísticas de coluna no DS v2
  • [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Sobrescrever prettyName de StringDecode
  • [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implementar funções de data/timestamp
  • [SPARK-41329] [SC-117975][conectar] Resolver importações circulares no Spark Connect
  • [SPARK-41477] [SC-118025][connect][PYTHON] Inferir corretamente o tipo de dados de inteiros literais
  • [SPARK-41446] [SC-118024][connect][PYTHON][12.x] Criar createDataFrame esquema de suporte e mais tipos de conjunto de dados de entrada
  • [SPARK-41475] [SC-117997][connect] Corrigir erro no comando lint-scala e erro de digitação
  • [SPARK-38277] [SC-117799][ss] Limpar o lote de gravação após a confirmação do repositório de estado RocksDB
  • [SPARK-41375] [SC-117801][ss] Evitar o KafkaSourceOffset mais recente que esteja vazio
  • [SPARK-41412] [SC-118015][conectar] Implementar Column.cast
  • [SPARK-41439] [SC-117893][connect][PYTHON] Implementar DataFrame.melt e DataFrame.unpivot
  • [SPARK-41399] [SC-118007][sc-117474][CONNECT] Refatorar testes relacionados à coluna para "test_connect_column"
  • [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] A coluna deve dar suporte ao operador !=
  • [SPARK-40697] [SC-117806][sc-112787][SQL] Adicionar preenchimento de caracteres na leitura para cobrir arquivos de dados externos
  • [SPARK-41349] [SC-117594][connect][12.X] Implementar DataFrame.hint
  • [SPARK-41338] [SC-117170][sql] Resolver referências externas e colunas normais no mesmo batch do analisador
  • [SPARK-41436] [SC-117805][connect][PYTHON] Implementar collection funções: A~C
  • [SPARK-41445] [SC-117802][connect] Implementar DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][sql] to_char deve retornar nulo quando o formato for nulo
  • [SPARK-41444] [SC-117796][connect] Suporte read.json()
  • [SPARK-41398] [SC-117508][sql] Relaxe as restrições em Storage-Partitioned Ingressar quando as chaves de partição após a filtragem de runtime não corresponderem
  • [SPARK-41228] [SC-117169][sql] Renomear e melhorar a mensagem de erro para COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][connect][PYTHON] Implementar count_distinct e sum_distinct funções
  • [SPARK-41433] [SC-117596][connect] Tornar configurável o tamanho de lote máximo do Arrow
  • [SPARK-41397] [SC-117590][connect][PYTHON] Implementar parte das funções de strings e binários
  • [SPARK-41382] [SC-117588][connect][PYTHON] Implementar função product
  • [SPARK-41403] [SC-117595][connect][PYTHON] Implementar DataFrame.describe
  • [SPARK-41366] [SC-117580][connect] DF.groupby.agg() deve ser compatível
  • [SPARK-41369] [SC-117584][connect] Adicionar conexão comum ao jar sombreado dos servidores
  • [SPARK-41411] [SC-117562][ss] Correção de bug no suporte de marca d'água para operadores com vários estados
  • [SPARK-41176] [SC-116630][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implementar funções de agregação
  • [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implementar funções normais
  • [SPARK-41305] [SC-117411][connect] Aprimorar a documentação do comando proto
  • [SPARK-41372] [SC-117427][connect][PYTHON] Implementar "TempView" do DataFrame
  • [SPARK-41379] [SC-117420][ss][PYTHON] Forneça uma sessão Spark clonada no DataFrame na função do usuário para o sink foreachBatch no PySpark
  • [SPARK-41373] [SC-117405][sql][ERROR] Renomear CAST_WITH_FUN_SUGGESTION para CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][sql] Refatorar o método ColumnVectorUtils#populate para usar PhysicalDataType em vez de DataType
  • [SPARK-41355] [SC-117423][sql] Solução alternativa para problema de validação do nome da tabela hive
  • [SPARK-41390] [SC-117429][sql] Atualizar o script usado para gerar register função em UDFRegistration
  • [SPARK-41206] [SC-117233][sc-116381][SQL] Renomeie a classe _LEGACY_ERROR_TEMP_1233 de erro para COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implementar funções matemáticas
  • [SPARK-40970] [SC-117308][connect][PYTHON] Suporte a Lista[Coluna] para o argumento on do Join
  • [SPARK-41345] [SC-117178][connect] Adicionar Dica para Conectar Proto
  • [SPARK-41226] [SC-117194][sql][12.x] Refatorar tipos spark introduzindo tipos físicos
  • [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Adicionar suporte básico para DataFrameWriter
  • [SPARK-41347] [SC-117173][connect] Adicionar conversão ao protocolo de expressão
  • [SPARK-41323] [SC-117128][sql] Suporte para current_schema
  • [SPARK-41339] [SC-117171][sql] Feche e recrie o lote de gravação do RocksDB em vez de apenas limpar
  • [SPARK-41227] [SC-117165][connect][PYTHON] Implementar união cruzada de DataFrame
  • [SPARK-41346] [SC-117176][connect][PYTHON] Implementar asc e desc funções
  • [SPARK-41343] [SC-117166][connect] Mover análise do FunctionName para o lado do servidor
  • [SPARK-41321] [SC-117163][connect] Campo de destino de suporte para o UnresolvedStar
  • [SPARK-41237] [SC-117167][sql] Reutilizar a classe UNSUPPORTED_DATATYPE de erro para _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][sql] Reutilizar INVALID_SCHEMA.NON_STRING_LITERAL em vez de _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Otimizar o uso do construtor de StructType
  • [SPARK-41335] [SC-117135][connect][PYTHON] Dar suporte a IsNull e IsNotNull em Coluna
  • [SPARK-41332] [SC-117131][connect][PYTHON] Correção nullOrdering em SortOrder
  • [SPARK-41325] [SC-117132][connect][12.X] Correção da ausência de avg() para GroupBy no DF
  • [SPARK-41327] [SC-117137][core] Correção de SparkStatusTracker.getExecutorInfos por alternância de informações de memória de armazenamento fora do heap.
  • [SPARK-41315] [SC-117129][connect][PYTHON] Implementar DataFrame.replace e DataFrame.na.replace
  • [SPARK-41328] [SC-117125][connect][PYTHON] Adicionar API lógica e de cadeia de caracteres à Coluna
  • [SPARK-41331] [SC-117127][connect][PYTHON] Adicionar orderBy e drop_duplicates
  • [SPARK-40987] [SC-117124][core] BlockManager#removeBlockInternal deve garantir que o bloqueio seja desbloqueado normalmente
  • [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Refatorar "Column" para compatibilidade com API
  • [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Implementar DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][sql] Adicionar a classe de erro INVALID_FORMAT
  • [SPARK-41272] [SC-116742][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][sql] Reutilizar INVALID_SCHEMA em vez de _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][python][SS][12.x] Converter instâncias NumPy em tipos primitivos Python durante a atualização do GroupState
  • [SPARK-41174] [SC-116609][core][SQL] Transmitir uma classe de erro aos usuários para format inválido de to_binary()
  • [SPARK-41264] [SC-116971][connect][PYTHON] Ampliar suporte literal para mais tipos de dados
  • [SPARK-41326] [SC-116972] [CONNECT] A correção da eliminação de duplicação não tem entrada
  • [SPARK-41316] [SC-116900][sql] Habilitar a recursão final sempre que possível
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Suporte a expressões de cadeia de caracteres no filtro.
  • [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implementar DataFrame.withColumn(s)
  • [SPARK-41182] [SC-116632][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][sql] Migrar os erros de opções de mapa para classes de erro
  • [SPARK-40940] [SC-115993][12.x] Remover verificadores de operador com vários estados para fluxos de consultas.
  • [SPARK-41310] [SC-116885][connect][PYTHON] Implementar DataFrame.toDF
  • [SPARK-41179] [SC-116631][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][sql] BHJ LeftAnti não atualiza numOutputRows quando o codegen está desabilitado
  • [SPARK-41148] [SC-116878][connect][PYTHON] Implementar DataFrame.dropna e DataFrame.na.drop
  • [SPARK-41217] [SC-116380][sql] Adicionar a classe de erro FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][connect][PYTHON] Aprimorar DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Homogeneizar o comportamento para SparkSession.range()
  • [SPARK-41306] [SC-116860][connect] Aprimorar a documentação do Protocolo de Expressão do Connect
  • [SPARK-41280] [SC-116733][connect] Implementar DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] O esquema não definido é interpretado como Esquema
  • [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Renomear RemoteSparkSession
  • [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas não deve retornar dataframe do Pandas opcional
  • [SPARK-41291] [SC-116738][connect][PYTHON] DataFrame.explain deve imprimir e retornar None
  • [SPARK-41278] [SC-116732][connect] Remover QualifiedAttribute não utilizado em Expression.proto
  • [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Remover base de conversão de coleção redundante no código Scala 2.13
  • [SPARK-41261] [SC-116718][python][SS] Corrigir problema para applyInPandasWithState quando as colunas de chaves de agrupamento não são colocadas em ordem desde o início
  • [SPARK-40872] [SC-116717][3.3] Fallback no bloco de ordem aleatória original quando uma parte da ordem aleatória mesclada por push tem tamanho zero
  • [SPARK-41114] [SC-116628][connect] Suporte a dados locais para LocalRelation
  • [SPARK-41216] [SC-116678][connect][PYTHON] Implementar DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][connect][PYTHON] Suporte a mais tipos de dados embutidos
  • [SPARK-41230] [SC-116674][connect][PYTHON] Remover str do tipo de expressão Agregada
  • [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Implementação otimizada de coleta baseada em Arrow para fazer streaming do servidor para o cliente
  • [SPARK-41222] [SC-116625][connect][PYTHON] Unificar as definições de digitação
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Desabilitar funções sem suporte.
  • [SPARK-41201] [SC-116526][connect][PYTHON] Implementar no cliente de Python
  • [SPARK-41203] [SC-116258] [CONNECT] Suporte a Dataframe.tansform no cliente Python.
  • [SPARK-41213] [SC-116375][connect][PYTHON] Implementar DataFrame.__repr__ e DataFrame.dtypes
  • [SPARK-41169] [SC-116378][connect][PYTHON] Implementar DataFrame.drop
  • [SPARK-41172] [SC-116245][sql] Migrar o erro ref ambíguo para uma classe de erro
  • [SPARK-41122] [SC-116141][connect] A API de explicação pode oferecer suporte a diferentes modos
  • [SPARK-41209] [SC-116584][sc-116376][PYTHON] Melhorar a inferência de tipo do PySpark no método _merge_type
  • [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogênee a versão do protobuf no servidor de conexão spark para usar a mesma versão principal.
  • [SPARK-35531] [SC-116409][sql] Atualizar estatísticas da tabela hive sem conversão desnecessária
  • [SPARK-41154] [SC-116289][sql] Cache de relação incorreto para consultas com especificação de viagem no tempo
  • [SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementar DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][sql] Renomear UNSUPPORTED_EMPTY_LOCATION para INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][sql] Adicionar uma API de extensão para fazer a normalização do plano para cache
  • [SPARK-41054] [SC-116447][ui][CORE] Suporte a RocksDB como KVStore na interface do usuário dinâmica
  • [SPARK-38550] [SC-115223]Reverter "[SQL][core] Usar um repositório baseado em disco para salvar mais informações de depuração para interface do usuário dinâmica"
  • [SPARK-41173] [SC-116185][sql] Mova require() para fora dos construtores de expressões de cadeia de caracteres
  • [SPARK-41188] [SC-116242][core][ML] Definir executorEnv OMP_NUM_THREADS como spark.task.cpus por padrão para processos JVM do executor do Spark
  • [SPARK-41130] [SC-116155][sql] Renomear OUT_OF_DECIMAL_TYPE_RANGE para NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][sql] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][sql] Reduzir a conversão de coleção ao criar AttributeMap
  • [SPARK-41139] [SC-115983][sql] Melhorar a classe de erro: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][protobuf] Exigir sombreamento para jar de classe Java, melhorar o tratamento de erros
  • [SPARK-40999] [SC-116168] Propagação de dica para subconsultas
  • [SPARK-41017] [SC-116054][sql] Suporte à poda de coluna com vários filtros não determinísticos
  • [SPARK-40834] [SC-114773][sql] Use SparkListenerSQLExecutionEnd para acompanhar o status final do SQL na interface do usuário
  • [SPARK-41118] [SC-116027][sql] to_number/try_to_number deve retornar null quando o formato for null
  • [SPARK-39799] [SC-115984][sql] DataSourceV2: Exibir interface do catálogo
  • [SPARK-40665] [SC-116210][sc-112300][CONNECT] Evite inserir o Spark Connect na versão binária do Apache Spark
  • [SPARK-41048] [SC-116043][sql] Melhorar o particionamento de saída e a ordenação com o cache do AQE
  • [SPARK-41198] [SC-116256][ss] Corrigir métricas na consulta de streaming com fonte de streaming CTE e DSv1
  • [SPARK-41199] [SC-116244][ss] Corrigir problema de métricas quando a fonte de streaming DSv1 e a fonte de streaming DSv2 são coutilizados
  • [SPARK-40957] [SC-116261][sc-114706] Adicionar cache de memória no HDFSMetadataLog
  • [SPARK-40940] Reverter "[SC-115993] Remover verificadores de operador com vários estados para fluxos de consultas".
  • [SPARK-41090] [SC-116040][sql] Gerar exceção para db_name.view_name ao criar exibição temporária pela API do conjunto de dados
  • [SPARK-41133] [SC-116085][sql] Integrar em UNSCALED_VALUE_TOO_LARGE_FOR_PRECISIONNUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][sc-111442][CONNECT] Descarte de código 9 commits
  • [SPARK-40448] [SC-114447][sc-111314][CONNECT] Compilação do Spark Connect como plug-in de driver com dependências sombreadas
  • [SPARK-41096] [SC-115812][sql] Suporte para leitura de tipos parquet FIXED_LEN_BYTE_ARRAY
  • [SPARK-41140] [SC-115879][sql] Renomear a classe _LEGACY_ERROR_TEMP_2440 de erro para INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][sql] Incompatibilidade entre FileSourceScanExec e Orc e ParquetFileFormat na produção de saída columnar
  • [SPARK-41155] [SC-115991][sql] Adicionar mensagem de erro a SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Remover verificadores de operador com vários estados para fluxos de consultas.
  • [SPARK-41098] [SC-115790][sql] Renomear GROUP_BY_POS_REFERS_AGG_EXPR para GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][sql] Migrar falhas de formatação de número causadas por verificação de tipo para classes de erro
  • [SPARK-41059] [SC-115658][sql] Renomear _LEGACY_ERROR_TEMP_2420 para NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][sql] Converter DATATYPE_MISMATCH.UNSPECIFIED_FRAME para INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][sql] Renomear _LEGACY_ERROR_TEMP_0055 para UNCLOSED_BRACKETED_COMMENT

Atualizações de manutenção

Confira Atualizações de manutenção do Databricks Runtime 12.1.

Ambiente do sistema

  • Sistema operacional: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
atributos 21.4.0 chamada de retorno 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 preto 22.3.0 alvejante 4.1.0
boto3 1.21.32 botocore 1.24.32 certificação 2021.10.8
cffi 1.15.0 chardet 4.0.0 normalizador de conjunto de caracteres 2.0.4
clique 8.0.4 criptografia 3.4.8 ciclista 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
decorador 5.1.1 defusedxml 0.7.1 distlib 0.3.6
de docstring para markdown 0,11 pontos de entrada 0,4 em execução 0.8.3
Visão geral de facetas 1.0.0 fastjsonschema 2.16.2 bloqueio de arquivo 3.8.2
fonttools 4.25.0 IDNA 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets (biblioteca Python para widgets interativos) 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 Cliente Jupyter 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Mccabe 0.7.0 Mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.8 numpy 1.21.5 empacotando 21.3
Pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 Patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Almofada 9.0.1 caroço 21.2.4
platformdirs 2.6.0 enredo 5.6.0 Pluggy 1.0.0
prometheus-client 0.13.1 kit de ferramentas de prompt 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 Pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 piright 1.1.283
pirsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server (servidor LSP para Python) 1.6.0 Pytz 2021.3 pyzmq 22.3.0
solicitações 2.27.1 requests-unixsocket 0.2.0 corda 0.22.0
s3transfer 0.5.0 scikit-aprender 1.0.2 Scipy 1.7.3
seaborn (biblioteca de visualização em Python) 0.11.2 Send2Trash 1.8.0 Ferramentas de configuração 61.2.0
seis 1.16.0 Soupsieve 2.3.1 ssh-import-id 5.10
dados empilhados 0.2.0 statsmodels (biblioteca para modelos estatísticos em Python) 0.13.2 tenacidade 8.0.1
terminado 0.13.1 caminho de teste 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
atualizações não supervisionadas 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 codificações web 0.5.1 whatthepatch 1.0.3
wheel 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Bibliotecas R instaladas

As bibliotecas R foram instaladas por meio do Instantâneo CRAN da Microsoft em 11/11/2022.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 10.0.0 AskPass 1,1 afirme isso 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 blob 1.2.3
ciar 1.3-28 Fabricação de cerveja 1.0-8 Brio 1.1.3
vassoura 1.0.1 bslib 0.4.1 cachem 1.0.6
chamador 3.7.3 sinal de interpolação 6.0-93 Cellranger 1.1.0
crono 2.3-58 classe 7.3-20 Interface de Linha de Comando (CLI) 3.4.1
clipr 0.8.0 relógio 0.6.1 cluster 2.1.4
codetools 0.2-18 espaço de cores 2.0-3 commonmark 1.8.1
compilador 4.2.2 configuração 0.3.1 cpp11 0.4.3
giz de cera 1.5.2 credenciais 1.3.2 encurvar 4.3.3
Tabela de Dados 1.14.4 conjuntos de dados 4.2.2 DBI 1.1.3
dbplyr 2.2.1 Descrição 1.4.2 devtools 2.4.5
diffobj 0.3.5 hash 0.6.30 iluminação para baixo 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
reticências 0.3.2 avaliar 0.18 fansi 1.0.3
cores 2.1.1 fastmap 1.1.0 fontawesome 0.4.0
para gatos 0.5.2 para cada 1.5.2 estrangeiro 0.8-82
forja 0.2.0 Fs 1.5.2 futuro 1.29.0
future.apply 1.10.0 gargarejar 1.2.1 genéricos 0.1.3
Gert 1.9.1 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globais 0.16.1
cola 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 elemento gráfico 4.2.2 grDevices 4.2.2
grade 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 capacete de segurança 1.2.0 refúgio 2.5.1
mais alto 0,9 Hms 1.1.2 ferramentas HTML 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
Identificadores 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 malhador 1.40
rotulagem 0.4.2 posterior 1.3.0 treliça 0.20-45
lava vulcânica 1.7.0 ciclo de vida 1.0.3 ouça 0.8.0
lubrificado 1.9.0 magrittr 2.0.3 redução de preço 1,3
MISSA 7.3-58 Matriz 1.5-1 memorizar 2.0.1
Métodos 4.2.2 mgcv 1.8-41 mímica 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelador 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 paralelo 4.2.2
paralelamente 1.32.1 coluna 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 elogio 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
Prodlim 2019.11.13 profvis 0.3.7 progresso 1.2.2
progressador 0.11.0 Promessas 1.2.0.1 proto 1.0.0
proxy 0.4-27 P.S. 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
Readr 2.1.3 readxl 1.4.1 Receitas 1.0.3
jogo de revanche 1.0.1 revanche2 2.1.2 Controles remotos 2.4.2
exemplo reprodutível (reprex) 2.0.2 remodelar2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.2 escamas 1.2.1
Seletor 0.4-2 informações de sessão 1.2.2 forma 1.4.6
brilhante 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 espacial 7.3-11 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 estatísticas 4.2.2
estatísticas4 4.2.2 stringi 1.7.8 stringr 1.4.1
sobrevivência 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 formatação de texto 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 mudança de horário 0.1.1 data e hora 4021.106
tinytex 0,42 Ferramentas 4.2.2 tzdb 0.3.0
verificador de URL 1.0.1 usethis 2.1.6 utf8 1.2.2
utilitários 4.2.2 identificador único universal (UUID) 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 Vroom 1.6.0 Waldo 0.4.0
vibrissa 0,4 murchar 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
YAML 2.3.6 zíper 2.2.2

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws SDK Java para o ECS da AWS 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support (suporte para AWS Java SDK) 1.12.189
com.amazonaws aws-java-sdk-swf-libraryes 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.datatype jackson-module-paranamer 2.13.4
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.13.4
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib sistema_nativo-java 1,1
com.github.fommil.netlib sistema_nativo-java-nativos 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Sininho 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava goiaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi código-fonte_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections (coleções comuns) commons-collections (coleções comuns) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0,21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics métricas-verificações de saúde 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json (métricas em JSON) 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty Netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty Netty Resolver 4.1.74.Final
io.netty Netty Tcnative Classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-comum 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction API de transação 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine picles 1,2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lançador de formigas 1.9.2
org.apache.arrow formato de seta 7.0.0
org.apache.arrow seta-memória-core 7.0.0
org.apache.arrow Arrow-Memory-Netty 7.0.0
org.apache.arrow vetor de seta 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Texto Comum 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator estrutura do curador 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop api de cliente hadoop 3.3.4-databricks
org.apache.hadoop tempo de execução do cliente Hadoop 3.3.4
org.apache.hive hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive API de armazenamento do Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims Agendador de Ajustes do Hive (hive-shims-scheduler) 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy hera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-calços 1.7.6
org.apache.parquet coluna parquet 1.12.3-databricks-0002
org.apache.parquet parquet-comum 1.12.3-databricks-0002
org.apache.parquet codificação-parquet 1.12.3-databricks-0002
org.apache.parquet estruturas-do-formato-parquet 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus comentários da audiência 0.13.0
org.apache.zookeeper zelador de zoológico 3.6.2
org.apache.zookeeper guarda de zoológico-juta 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty Continuação do Jetty (jetty-continuation) 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty segurança do jetty 9.4.46.v20220331
org.eclipse.jetty servidor jetty 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Jetty Webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket API de WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client (cliente WebSocket) 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket servidor WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Localizador de Recursos OSGi 1.0.3
org.glassfish.hk2.external AliançaAOP-Reempacotado 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-comum 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc cliente Java do MariaDB 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenésia 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Calços 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark não utilizado 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1