Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.0, desenvolvido pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em novembro de 2024.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
Mudanças comportamentais
- Mudança disruptiva: JDK 17 agora é o padrão
- Mudança de rutura: O RStudio hospedado está em fim de vida útil
-
Alteração de ruptura: Remoção do suporte para alterar
byte,short,intelongtipos para tipos mais amplos - Análise correta dos padrões de regex com negação em agrupamentos aninhados de caracteres
-
Melhorar a deteção de duplicados no Delta Lake
MERGE - O método de instalação da biblioteca de clusters não pode mais ser substituído
- Tempo limite padrão de duas horas para instalações de bibliotecas com escopo de cluster
-
A instalação de bibliotecas do DBFS e a configuração do spark conf
spark.databricks.driver.dbfsLibraryInstallationAllowedestão desativadas -
A
addArtifact()funcionalidade agora é consistente entre os tipos de computação - Regra de backticks aplicada corretamente para identificadores principais com caracteres especiais
Mudança disruptiva: JDK 17 agora é o padrão
No Databricks Runtime 16.0 e superior, a versão padrão do JDK é trocada do JDK 8 para o JDK 17. Essa alteração é feita devido à descontinuação planejada e ao fim do suporte para o JDK 8. Isso afeta o seguinte:
- O código Java em execução na computação do Azure Databricks deve ser compatível com o Java 17.
- O código Scala em execução em blocos de anotações ou no ambiente de execução do Azure Databricks deve ser compatível com Java 17.
- As bibliotecas Java e Scala instaladas na computação devem ser compatíveis com o Java 17.
- Versões do cliente metastore Apache Hive abaixo de 2.x. Definir a configuração
spark.sql.hive.metastore.versiondo Spark para uma versão inferior a 2.x causará problemas de compatibilidade com o Java 17 e falhas de conexão com o metastore do Hive. O Databricks recomenda atualizar o Hive para uma versão acima da 2.0.0.
Se você precisar reverter para o Java 8, adicione o seguinte às variáveis de ambiente do Spark ao configurar sua computação do Azure Databricks:
JNAME=zulu8-ca-amd64
Se você estiver usando instâncias ARM, use o seguinte:
JNAME=zulu8-ca-arm64
Para saber mais sobre como especificar versões do JDK com a computação do Azure Databricks, consulte Criar um cluster com uma versão específica do JDK.
Para obter ajuda com a migração do código do Java 8, consulte os seguintes guias:
Alteração de quebra: O RStudio hospedado está em fim de vida
Com esta versão, o Servidor RStudio hospedado no Databricks está em fim de vida útil e indisponível em qualquer espaço de trabalho do Azure Databricks que execute o Databricks Runtime 16.0 e superior. Para saber mais e ver uma lista de alternativas ao RStudio, consulte Conectar-se a um servidor RStudio hospedado pelo Databricks.
Mudança descontinuada: Remoção do suporte para alterar byte, short, int e long de tipos para tipos mais genéricos
No Databricks Runtime 15.4.3 e superior, as seguintes alterações de tipo de dados não podem mais ser aplicadas a tabelas com o recurso de alargamento de tipo habilitado:
-
byte,short,intelongparadecimal. -
byte,short, eintparadouble.
Essa alteração é feita para garantir um comportamento consistente nas tabelas Delta e Apache Iceberg. Para saber mais sobre o alargamento de tipos, consulte Alargamento de tipos.
Análise correta de padrões regex com negação no agrupamento de caracteres aninhados
Esta versão inclui uma alteração para suportar a análise correta de padrões regex com negação no agrupamento de caracteres aninhados. Por exemplo, [^[abc]] será analisado como "qualquer personagem que NÃO seja um de 'abc'".
Além disso, o comportamento do Photón foi inconsistente com o Spark para classes de caracteres aninhadas. Os padrões Regex contendo classes de caracteres aninhadas não usarão mais o Photon e, em vez disso, usarão o Spark. Uma classe de caractere aninhada é qualquer padrão que contenha colchetes entre colchetes, como [[a-c][1-3]].
Melhorar a deteção de correspondência duplicada no Delta Lake MERGE
No Databricks Runtime 15.4 LTS e versões anteriores, MERGE as operações falham se mais de uma linha da tabela de origem corresponder a uma única linha na tabela de destino com base na condição especificada na cláusula MERGE. No Databricks Runtime 16.0 e superior, MERGE também considera as WHEN MATCHED condições especificadas na cláusula. Veja Incorporar numa tabela Delta Lake usando mesclagem.
O método de instalação da biblioteca de clusters não pode mais ser substituído
As configurações spark.databricks.libraries.enableSparkPyPI, spark.databricks.libraries.enableMavenResolution e spark.databricks.libraries.enableCRANResolutionnow agora são padrão para true e não podem ser substituídas.
Tempo limite padrão de duas horas para as instalações de bibliotecas no âmbito do cluster
No Databricks Runtime 16.0 ou superior, a instalação da biblioteca com escopo de cluster tem um tempo limite padrão de duas horas. As instalações da biblioteca que levarem mais tempo limite do que esse tempo limite falharão e a instalação será encerrada. Ao configurar um cluster, você pode alterar o período de tempo limite usando a configuração spark.databricks.driver.clusterLibraryInstallationTimeoutSecdo Spark .
A instalação de bibliotecas do DBFS e a configuração do spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed estão desativadas
No Databricks Runtime 16.0 e superior, a instalação de bibliotecas do DBFS está totalmente desativada. Essa alteração é feita para melhorar a segurança das bibliotecas em um espaço de trabalho Databricks. Além disso, no Databricks Runtime 16.0 e superior, você não pode mais usar a configuração spark.databricks.driver.dbfsLibraryInstallationAlloweddo Spark .
A addArtifact() funcionalidade agora é consistente entre os tipos de computação
Com esta versão, o ficheiro é descompactado automaticamente ao utilizar addArtifact(archive = True) para adicionar uma dependência à computação compartilhada ou sem servidor do Azure Databricks. Essa alteração torna o comportamento nesses tipos de computação consistente com a addArtifact(archive = True) computação dedicada (anteriormente computação de usuário único), que já suporta a descompactação automática de arquivos.
Regra de backticks aplicada corretamente para identificadores principais com caracteres especiais
Com esta versão, os identificadores principais com caracteres especiais em GRANT, DENYe REVOKE instruções agora lançarão um erro se não estiverem incluídos em backticks.
Novos recursos e melhorias
-
Recarregamento mais fiável de módulos Python modificados, com melhorias em
autoreload - Suporte Avro para esquema recursivo
- to_avro e from_avro funções
- Suporte ampliado para Confluent Schema Registry para Avro
- Forçar o reagrupamento em tabelas com agrupamento líquido
- As APIs Delta para Python e Scala agora suportam colunas de identidade
- O controle de acesso refinado em computação dedicada (anteriormente computação de usuário único) está geralmente disponível
- Crie tabelas clusterizadas líquidas durante gravações de streaming
- Apoio à cláusula OPTIMIZE INTEGRAL
- Suporte para especificação de opções WITH em INSERT e referência de tabela
- Novas funções SQL
- Habilite a evolução automática do esquema ao mesclar dados em uma tabela Delta
Recarregamento mais confiável de módulos Python modificados graças a melhorias em autoreload
No Databricks Runtime 16.0 e superior, as atualizações para a autoreload extensão melhoram a segurança e a confiabilidade do recarregamento de módulos Python modificados importados de arquivos de espaço de trabalho. Com essas alterações, autoreload, quando possível, recarrega apenas a parte de um módulo que foi alterada em vez do módulo inteiro. Além disso, o Azure Databricks agora sugere automaticamente o uso da extensão autoreload se o módulo tiver sido alterado desde sua última importação. Consulte Autoreload para módulos Python.
Suporte Avro para esquema recursivo
Agora você pode usar a recursiveFieldMaxDepth opção com a from_avro função e a fonte de avro dados. Esta opção define a profundidade máxima para recursão de esquema na fonte de dados Avro. Consulte Ler e gravar dados de streaming Avro.
to_avro e from_avro funções
As funções to_avro e from_avro permitem a conversão de tipos SQL para dados binários Avro e vice-versa.
Suporte expandido para Confluent Schema Registry for Avro
O Azure Databricks agora dá suporte à referência de esquema Avro com o Registro de Esquema Confluent. Consulte Autenticar a um Confluent Schema Registry externo.
Forçar o reagrupamento em tabelas com agrupamento líquido
No Databricks Runtime 16.0 e versões superiores, você pode usar a OPTIMIZE FULL sintaxe para forçar o reagrupamento de todos os registros em uma tabela com clustering líquido ativado. Consulte Forçar o reagrupamento de todos os registos.
As APIs Delta para Python e Scala agora suportam colunas de identidade
Agora você pode usar as APIs Delta para Python e Scala para criar tabelas com colunas de identidade. Veja Utilizar colunas de identidade no Delta Lake.
O controle de acesso refinado em computação dedicada (anteriormente computação de usuário único) está geralmente disponível
No Databricks Runtime 16.0 e superior, o controle de acesso refinado em computação dedicada está geralmente disponível. Em espaços de trabalho habilitados para computação sem servidor, se uma consulta for executada em computação suportada, como computação dedicada, e a consulta acessar qualquer um dos seguintes objetos, o recurso de computação passará a consulta para a computação sem servidor para executar a filtragem de dados:
- Vistas definidas em tabelas nas quais o utilizador não tem o privilégio
SELECT. - Vistas dinâmicas.
- Tabelas com filtros de linha ou máscaras de coluna aplicadas.
- Visualizações materializadas e tabelas de streaming
Crie tabelas clusterizadas líquidas durante gravações de streaming
Agora você pode usar clusterBy para habilitar o clustering líquido ao criar novas tabelas com gravações de Streaming Estruturado. Consulte Ativar agrupamento de líquidos.
Apoio à cláusula OPTIMIZE FULL
O Databricks Runtime 16.0 suporta a cláusula OPTIMIZE FULL. Esta cláusula otimiza todos os registos em uma tabela que usa agrupamento líquido, incluindo dados que podem ter sido agregados anteriormente.
Suporte para especificação de opções WITH em INSERT e referência de tabela
O Databricks Runtime 16.0 suporta uma especificação de opções para referências de tabela e nomes de tabela de uma INSERT instrução que pode ser usada para controlar o comportamento de fontes de dados.
Novas funções SQL
As seguintes funções SQL são adicionadas no Databricks Runtime 16.0:
-
Esta função é uma versão tolerante a erros do url_decode. Essa função retornará
NULLse a entrada não for uma cadeia de caracteres codificada por URL válida. -
Se a expressão de entrada para a
zeroifnull()função forNULL, então a função retornará 0. Caso contrário, o valor da expressão de entrada será retornado. -
Retorna
NULLse a entrada for 0 ou a própria entrada se esta não for 0. Se a expressão de entrada para anullifzero()função for 0, então a função retornaráNULL. Se a expressão de entrada não for 0, o valor da expressão de entrada será retornado
Habilite a evolução automática do esquema ao mesclar dados em uma tabela Delta
Esta versão adiciona suporte para o membro withSchemaEvolution() da classe DeltaMergeBuilder. Use withSchemaEvolution() para habilitar a evolução automática do esquema durante as operações MERGE. Por exemplo, mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.
Outras alterações
O SparkR foi preterido
Na Databricks Runtime 16.0 e superior, o SparkR no Databricks foi deprecado em preparação para a sua descontinuação na próxima versão do Spark 4. Consulte o thread Apache Spark Deprecate SparkR.
A Databricks recomenda usar sparklyr em vez disso.
O Databricks Runtime 16.0 não é suportado com PVC
O Databricks Runtime 16.0 não é suportado pelo Databricks Private Virtual Cloud (PVC). Você deve usar o Databricks Runtime 15.4 ou versões anteriores com todas as versões de PVC.
Correções de erros
Auto Loader agora resgata tipos de registro Avro com esquemas vazios
Ao carregar um arquivo Avro em uma tabela Delta usando o Auto Loader, record os tipos no arquivo que têm um esquema vazio agora são adicionados à coluna de dados resgatados. Como não é possível ingerir tipos de dados complexos vazios em uma tabela Delta, isso resolve um problema com o carregamento de alguns arquivos Avro. Para saber mais sobre os dados resgatados, consulte O que é a coluna de dados resgatados?.
Correção de erro ao gravar carimbos de data/hora com fusos horários que contêm um deslocamento de segundos.
Esta versão corrige um bug que afeta alguns timestamps com fusos horários que contêm um segundo offset. Esse bug faz com que os segundos sejam omitidos ao gravar em JSON, XML ou CSV, levando a valores de carimbo de data/hora incorretos.
Para retornar ao comportamento anterior, use a seguinte opção ao gravar em um dos formatos afetados: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- azure-core da versão 1.30.2 para a versão 1.31.0
- azure-storage-blob de 12.19.1 a 12.23.0
- azure-storage-file-datalake de 12.14.0 a 12.17.0
- black de 23.3.0 a 24.4.2
- blinker: versão de 1.4 a 1.7.0
- boto3 de 1.34.39 a 1.34.69
- botocore de 1.34.39 a 1.34.69
- certifi de 22.7.2023 a 2.6.2024
- CFFI de 1.15.1 a 1.16.0
- Clique de 8.0.4 para 8.1.7
- comunicação de 0.1.2 a 0.2.1
- contourpy de 1.0.5 para 1.2.0
- Criptografia de 41.0.3 a 42.0.5
- Cython de 0.29.32 a 3.0.11
- Databricks-SDK de 0.20.0 a 0.30.0
- dbus-python de 1.2.18 a 1.3.2
- filelock de 3.13.4 para 3.15.4
- Fonttools de 4.25.0 a 4.51.0
- GitPython de 3.1.43 a 3.1.37
- google-api-core de 2.18.0 a 2.20.0
- google-auth de 2.31.0 para 2.35.0
- google-cloud-storage de 2.17.0 a 2.18.2
- google-crc32c de 1.5.0 a 1.6.0
- google-resumable-media de 2.7.1 a 2.7.2
- googleapis-common-protos de 1.63.2 a 1.65.0
- httplib2 de 0.20.2 a 0.20.4
- IDNA de 3,4 a 3,7
- ipykernel de 6.25.1 para 6.28.0
- iPython de 8.15.0 a 8.25.0
- Jedi de 0.18.1 a 0.19.1
- jmespath de 0.10.0 a 1.0.1
- joblib de 1.2.0 a 1.4.2
- jupyter_client de 7.4.9 a 8.6.0
- jupyter_core de 5.3.0 a 5.7.2
- launchpadlib de 1.10.16 a 1.11.0
- lazr.restfulclient de 0.14.4 a 0.14.6
- matplotlib de 3.7.2 a 3.8.4
- mlflow-skinny de 2.11.4 a 2.15.1
- mais-itertools de 8.10.0 a 10.3.0
- mypy-extensões de 0.4.3 para 1.0.0
- nest-asyncio de 1.5.6 a 1.6.0
- numpy de 1.23.5 a 1.26.4
- oauthlib de 3.2.0 a 3.2.2
- embalagem de 23,2 a 24,1
- patsy de 0.5.3 a 0.5.6
- pip de 23.2.1 a 24.2
- plotly de 5.9.0 a 5.22.0
- prompt-toolkit de 3.0.36 para 3.0.43
- pyarrow de 14.0.1 para 15.0.2
- Pydantic de 1.10.6 a 2.8.2
- PyGObject de 3.42.1 a 3.48.2
- PyJWT de 2.3.0 a 2.7.0
- pyodbc de 4.0.38 para 5.0.1
- python-dateutil de 2.8.2 a 2.9.0.post0
- python-lsp-jsonrpc de 1.1.1 a 1.1.2
- pytz de 2022.7 a 2024.1
- PyYAML de 6.0 a 6.0.1
- pyzmq de 23.2.0 a 25.1.2
- Pedidos de 2.31.0 a 2.32.2
- scikit-learn de 1.3.0 a 1.4.2
- scipy de 1.11.1 a 1.13.1
- seaborn de 0.12.2 a 0.13.2
- setuptools de 68.0.0 a 74.0.0
- smmap de 5.0.1 para 5.0.0
- sqlparse de 0.5.0 a 0.5.1
- statsmodels versão 0.14.0 a 0.14.2
- Tornado de 6.3.2 a 6.4.1
- características de 5.7.1 a 5.14.3
- typing_extensions da versão 4.10.0 para a 4.11.0
- ujson de 5.4.0 a 5.10.0
- virtualenv de 20.24.2 a 20.26.2
- roda de 0.38.4 a 0.43.0
- zipp de 3.11.0 a 3.17.0
- Bibliotecas R atualizadas:
- seta de 14.0.0.2 para 16.1.0
- Retroportações de 1.4.1 a 1.5.0
- base de 4.3.2 a 4.4.0
- bitops de 1.0-7 a 1.0-8
- inicializar de 1.3-28 a 1.3-30
- brio de 1.1.4 a 1.1.5
- broom de 1.0.5 para 1.0.6
- bslib de 0.6.1 a 0.8.0
- cachem de 1.0.8 a 1.1.0
- callr de 3.7.3 para 3.7.6
- CLI de 3.6.2 a 3.6.3
- relógio de 0.7.0 a 0.7.1
- agrupamento de 2.1.4 a 2.1.6
- CodeTools de 0.2-19 a 0.2-20
- espaço de cores de 2.1-0 a 2.1-1
- compilador de 4.3.2 a 4.4.0
- giz de cera de 1.5.2 a 1.5.3
- curvatura de 5.2.0 a 5.2.1
- data.table de 1.15.0 até 1.15.4
- conjuntos de dados de 4.3.2 a 4.4.0
- DBI de 1.2.1 a 1.2.3
- dbplyr de 2.4.0 a 2.5.0
- digest de 0.6.34 a 0.6.36
- downlit de 0.4.3 para 0.4.4
- avaliar de 0,23 a 0,24,0
- cores de 2.1.1 a 2.1.2
- fastmap de 1.1.1 para 1.2.0
- estrangeiro de 0,8-85 a 0,8-86
- fs de 1.6.3 para 1.6.4
- Atualização futura de 1.33.1 para 1.34.0
- Atualização do future.apply de 1.11.1 para 1.11.2
- Gert de 2.0.1 a 2.1.0
- ggplot2 de 3.4.4 a 3.5.1
- gh de 1.4.0 a 1.4.1
- globais de 0.16.2 a 0.16.3
- gráficos de 4.3.2 a 4.4.0
- grDevices de 4.3.2 a 4.4.0
- grelha de 4.3.2 a 4.4.0
- gt de 0.10.1 a 0.11.0
- gtable de 0.3.4 a 0.3.5
- Hardhat de 1.3.1 a 1.4.0
- maior de 0,10 a 0,11
- htmltools de 0.5.7 a 0.5.8.1
- httpuv de 1.6.14 a 1.6.15
- httr2 de 1.0.0 a 1.0.2
- ipred de 0,9-14 a 0,9-15
- KernSmooth de 2.23-21 a 2.23-22
- knitr de 1,45 a 1,48
- rede de 0,21-8 a 0,22-5
- lava de 1.7.3 a 1.8.0
- markdown de 1.12 para 1.13
- MASS de 7.3-60 a 7.3-60.0.1
- Matriz de 1,5-4,1 a 1,6-5
- Métodos de 4.3.2 a 4.4.0
- mgcv de 1.8-42 a 1.9-1
- mlflow de 2.10.0 a 2.14.1
- Munsell de 0.5.0 a 0.5.1
- nlme de 3.1-163 a 3.1-165
- openssl de 2.1.1 a 2.2.0
- paralelo de 4.3.2 a 4.4.0
- paralelamente de 1.36.0 a 1.38.0
- pkgbuild de 1.4.3 para 1.4.4
- pkgdown de 2.0.7 para 2.1.0
- pkgload de 1.3.4 a 1.4.0
- processx de 3.8.3 a 3.8.4
- prodlim de 2023.08.28 a 2024.06.25
- Promessas de 1.2.1 a 1.3.0
- ps de 1.7.6 para 1.7.7
- ragg de 1.2.7 a 1.3.2
- Rcpp de 1.0.12 a 1.0.13
- RcppEigen de 0.3.3.9.4 a 0.3.4.0.0
- reactR de 0.5.0 para 0.6.0
- receitas de 1.0.9 a 1.1.0
- Controles remotos de 2.4.2.1 a 2.5.0
- reprex de 2.1.0 para 2.1.1
- rlang de 1.1.3 a 1.1.4
- rmarkdown de 2,25 para 2,27
- roxigen2 de 7.3.1 a 7.3.2
- parte de 4.1.21 a 4.1.23
- RSQLite de 2.3.5 a 2.3.7
- rstudioapi de 0.15.0 a 0.16.0
- rvest de 1.0.3 a 1.0.4
- sass de 0.4.8 a 0.4.9
- forma de 1.4.6 a 1.4.6.1
- brilhante de 1.8.0 a 1.9.1
- Sparklyr de 1.8.4 a 1.8.6
- espacial de 7,3-15 a 7,3-17
- splines de 4.3.2 a 4.4.0
- Estatísticas de 4.3.2 a 4.4.0
- stats4 da versão 4.3.2 para 4.4.0
- stringi de 1.8.3 a 1.8.4
- sobrevida de 3,5-5 a 3,6-4
- swagger de 3.33.1 para 5.17.14.1
- systemfonts de 1.0.5 a 1.1.0
- tcltk de 4.3.2 a 4.4.0
- testthat de 3.2.1 a 3.2.1.1
- textshaping de 0.3.7 a 0.4.0
- tidyselect de 1.2.0 a 1.2.1
- tinytex de 0,49 a 0,52
- Ferramentas de 4.3.2 a 4.4.0
- usethis da versão 2.2.2 para a versão 3.0.0
- utils de 4.3.2 a 4.4.0
- UUID de 1.2-0 a 1.2-1
- V8 de 4.4.1 a 4.4.2
- withr, da versão 3.0.0 para a 3.0.1
- xfun de 0,41 a 0,46
- xopen de 1.0.0 a 1.0.1
- yaml de 2.3.8 a 2.3.10
- Bibliotecas Java atualizadas:
- com.amazonaws.aws-java-sdk-autoscaling de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudformation de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudfront de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudhsm de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudsearch de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudtrail de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatch de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-codedeploy de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cognitosync de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-config de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-core de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-datapipeline de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-directconnect de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-directory de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-dynamoDB de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ec2 de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ecs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-efs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elasticache de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-emr de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-glacier de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-glue de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-iam de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-importexport de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-kinesis de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-kms de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-lambda de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-logs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-machinelearning de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-opsworks de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-rds de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-redshift de 1.12.610 para 1.12.638
- com.amazonaws.aws-java-sdk-route53 de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-s3 de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ses de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-simpledb de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-simpleworkflow de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-sns de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-sqs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ssm de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-storagegateway de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-sts de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-support de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-workspaces de 1.12.610 a 1.12.638
- com.amazonaws.jmespath-java de 1.12.610 a 1.12.638
- com.google.protobuf.protobuf-java de 2.6.1 a 3.25.1
- io.airlift.aircompressor de 0,25 a 0,27
- io.delta.delta-sharing-client_2.12 de 1.1.3 a 1.2.0
- Atualizar pacote io.netty.netty-all de 4.1.96.Final para 4.1.108.Final
- io.netty.netty-buffer de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-codec de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-codec-http de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-codec-http2 de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-codec-socks de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-common de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-handler de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-handler-proxy de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-resolver de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport-classes-epoll de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport-classes-kqueue de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport-native-epoll de 4.1.96.Final-linux-x86_64 a 4.1.108.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.96.Final-osx-x86_64 a 4.1.108.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.96.Final a 4.1.108.Final
- org.apache.ivy.ivy de 2.5.1 a 2.5.2
- org.apache.zookeeper.zookeeper de 3.6.3 a 3.9.2
- org.apache.zookeeper.zookeeper-jute de 3.6.3 a 3.9.2
- org.rocksdb.rocksdbjni de 8.11.4 a 9.2.1
- org.scalactic.scalactic_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-compatible de 3.2.15 a 3.2.16
- org.scalatest.scalatest-core_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-diagrams_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-featurespec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-flatspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-freespec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-funspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-funsuite_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-matchers-core_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-mustmatchers_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-propspec_2.12 da versão 3.2.15 para a versão 3.2.16
- org.scalatest.scalatest-refspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-shouldmatchers_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-wordspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest_2.12 de 3.2.15 a 3.2.16
Apache Spark
O Databricks Runtime 16.0 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.4 LTS, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-49093] [DBRRM-1371] Reverter "[SC-172958][sql] GROUP BY com MapType nes...
- [SPARK-49898] [DBRRM-1282][sc-178410] Corrigir a documentação e o padrão para o sinalizador de registo do acumulador de métricas de tarefas do registo de eventos do SPARK-42204
- [SPARK-49743] [ES-1260022][behave-157][SC-177475][sql] OptimizeCsvJsonExpr não deve alterar campos de esquema ao remover GetArrayStructFields
- [SPARK-49816] [SC-177896][sql] Deve atualizar apenas out-going-ref-count para relação CTE externa referenciada
- [SPARK-48939] [SC-177022][sc-172766][AVRO] Suporte à leitura Avro com referência de esquema recursivo
- [SPARK-49688] [SC-177468][es-1242349][CONNECT] Corrigir uma corrida de dados entre o plano de interrupção e execução
- [SPARK-49771] [SC-177466][python] Melhorar o erro UDF do Pandas Scalar Iter quando as linhas de saída excedem as linhas de entrada
- [SPARK-48866] [SC-170772][sql] Corrija dicas de charset válido na mensagem de erro do INVALID_PARAMETER_VALUE. CARSET
- [SPARK-48195] [FIXFORWARD][sc-177267][CORE] Salvar e reutilizar RDD/Broadcast criado por SparkPlan
- [FAÍSCA-49585] [CONECTAR] Substitua o mapa de execuções em SessionHolder pelo conjunto de operationID
- [SPARK-49211] [SC-174257][sql] O catálogo V2 também pode suportar fontes de dados incorporadas
- [SPARK-49684] Minimizar a duração do bloqueio de restauração da sessão
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Estrutura de log estruturada no lado java
- [SPARK-48857] [SC-170661][sql] Restringir conjuntos de caracteres em CSVOptions
- [SPARK-49152] [SC-173690][sql] V2SessionCatalog deve usar V2Command
- [SPARK-42846] [SC-176588][sql] Remover condição de erro _LEGACY_ERROR_TEMP_2011
- [SPARK-48195] [SC-177267][core] Salvar e reutilizar RDD/Broadcast criado por SparkPlan
- [SPARK-49630] [SC-177379][ss] Adicionar opção de nivelamento para processar tipos de coleta com leitor de fonte de dados de estado
- [SPARK-49699] [SC-177154][ss] Desativar PruneFilters para cargas de trabalho de streaming
- [SPARK-48781] [SC-175282][sql] Adicionar APIs de catálogo para carregar procedimentos armazenados
- [SPARK-49667] [SC-177068][sql] Não permitir agrupadores CS_AI com expressões que usam StringSearch
- [SPARK-49737] [SC-177207][sql] Desabilitar bucketing em colunas agrupadas em tipos complexos
- [SPARK-48712] [SC-169794][sql] Melhoria do Perf para codificação com valores vazios ou charset UTF-8
- [SPARK-49038] [SC-173933][sql] SQLMetric deve relatar o valor bruto no evento de atualização do acumulador
- [SPARK-48541] [SC-169066][core] Adicione um novo código de saída para executores mortos pelo TaskReaper
- [SPARK-48774] [SC-170138][sql] Usar SparkSession em SQLImplicits
-
[SPARK-49719] [SC-177139][sql] Criar
UUIDeSHUFFLEaceitar números inteirosseed -
[SPARK-49713] [SC-177135][python][CONNECT] Fazer com que a função
count_min_sketchaceite argumentos numéricos - [SPARK-47601] [SC-162499][graphx] Graphx: Migrar logs com variáveis para a estrutura de log estruturada
- [SPARK-49738] [SC-177219][sql] Termina com correção de bug
- [SPARK-48623] [SC-170822][core] Migrações de log estruturado [Parte 3]
- [SPARK-49677] [SC-177148][ss] Certifique-se de que os arquivos changelog sejam gravados na confirmação e que o sinalizador forceSnapshot também seja redefinido
- [SPARK-49684] [SC-177040][connect] Remover bloqueios globais dos gerenciadores de sessão e execução
- [SPARK-48302] [SC-168814][python] Preservar nulos em colunas de mapa em tabelas PyArrow
- [SPARK-48601] [SC-169025][sql] Forneça uma mensagem de erro mais amigável ao definir um valor nulo para a opção JDBC
- [SPARK-48635] [SC-169263][sql] Atribuir classes a erros de tipos de junção e erro de junção as-of
- [SPARK-49673] [SC-177032][connect] Aumentar CONNECT_GRPC_ARROW_MAX_BATCH_SIZE para 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
-
[SPARK-49693] [SC-177071][python][CONNECT] Refine a representação de cadeia de caracteres de
timedelta -
[SPARK-49687] [SC-176901][sql] Retardar a classificação em
validateAndMaybeEvolveStateSchema - [SPARK-49718] [SC-177112][ps] Alternar o gráfico para dados amostrados
- [SPARK-48472] [SC-169044][sql] Habilitar expressões de reflexão com cadeias de caracteres agrupadas
- [SPARK-48484] [SC-167484][sql] Correção: V2Write usar o mesmo TaskAttemptId para diferentes tentativas de tarefa
- [SPARK-48341] [SC-166560][connect] Permitir que plugins usem QueryTest em seus testes
-
[SPARK-42252] [SC-168723][core] Adicionar
spark.shuffle.localDisk.file.output.buffere depreciarspark.shuffle.unsafe.file.output.buffer - [SPARK-48314] [SC-166565][ss] Não duplique arquivos de cache para FileStreamSource usando Trigger.AvailableNow
-
[SPARK-49567] [SC-176241][python] Use
classicem vez devanillada base de código PySpark - [SPARK-48374] [SC-167596][python] Suporta tipos de coluna adicionais da Tabela PyArrow
-
[SPARK-48300] [SC-166481][sql] Suporte para Codegen
from_xml - [SPARK-49412] [SC-177059][ps] Calcule todas as métricas de gráfico de caixa em um único trabalho
- [SPARK-49692] [SC-177031][python][CONNECT] Refine a representação de cadeia de caracteres de data literal e data/hora
- [SPARK-49392] [ES-1130351][sc-176705][SQL] Detetar erros ao não gravar na fonte de dados externa
- [SPARK-48306] [SC-166241][sql] Melhorar UDT na mensagem de erro
- [SPARK-44924] [SC-166379][ss] Adicionar configuração para arquivos em cache do FileStreamSource
- [SPARK-48176] [SC-165644][sql] Ajustar o nome de FIELD_ALREADY_EXISTS condição de erro
-
[SPARK-49691] [SC-176988][python][CONNECT] A função
substringdeve aceitar nomes de colunas - [SPARK-49502] [SC-176077][core] Evite NPE em SparkEnv.get.shuffleManager.unregisterShuffle
- [SPARK-49244] [SC-176703][sql] Outras melhorias de exceção para analisador/interpretador
- [SPARK-48355] [SC-176684][sql] Suporte para instrução CASE
-
[SPARK-49355] [SC-175121][sql]
levenshteindeve verificar se oscollationvalores de todos os tipos de parâmetros são os mesmos -
[SPARK-49640] [SC-176953][ps] Aplicar amostragem de reservatório em
SampledPlotBase -
[SPARK-49678] [SC-176857][core] Suporte
spark.test.masteremSparkSubmitArguments -
[SPARK-49680] [SC-176856][python] Limitar
Sphinxo paralelismo de compilação a 4 por padrão - [SPARK-49396] Reverter “[SC-176030][sql] Modificar verificação de anulabilidade para a expressão CaseWhen”
- [SPARK-48419] [SC-167443][sql] A propagação de valores dobráveis deve substituir a coluna dobrável...
- [SPARK-49556] [SC-176757][sql] Adicionar sintaxe de pipe SQL para o SELECT operador
-
[SPARK-49438] [SC-175237][sql] Corrija o nome bonito da
FromAvroexpressão &ToAvro - [SPARK-49659] [SC-1229924][sql] Adicione um bom erro voltado para o usuário para subconsultas escalares dentro da VALUES cláusula
- [SPARK-49646] [SC-176778][sql] corrigir a descorrelação de subconsultas para operações de união/conjunto quando parentOuterReferences tem referências não cobertas em collectedChildOuterReferences
-
[SPARK-49354] [SC-175034][sql]
split_partdeve verificar se oscollationvalores de todos os tipos de parâmetros são os mesmos - [SPARK-49478] [SC-175914][connect] Manipular métricas nulas em ConnectProgressExecutionListener
- [SPARK-48358] [SC-176374][sql] Suporte para instrução REPEAT
- [SPARK-49183] [SC-173680][sql] V2SessionCatalog.createTable deve respeitar PROP_IS_MANAGED_LOCATION
-
[SPARK-49611] [SC-176791][sql] Introduzir o TVF
collations()e remover o comandoSHOW COLLATIONS - [SPARK-49261] [SC-176589][sql] Não substitua literais em expressões agregadas por expressões de agrupamento
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessão personalizado
- [SPARK-49594] [SC-176569][ss] Adicionando verificação sobre se columnFamilies foram adicionados ou removidos para gravar o arquivo StateSchemaV3
- [SPARK-49578] [SC-176385][sql] Remova a sugestão de configuração ANSI no CAST_INVALID_INPUT e CAST_OVERFLOW
- [SPARK-48882] [SC-174256][ss] Atribuir nomes a classes de erro relacionadas ao modo de saída de streaming
-
[SPARK-49155] [SC-176506][sql][SS] Use o tipo de parâmetro mais apropriado para construir
GenericArrayData - [SPARK-49519] [SC-176388][sql] Opções de mesclagem de tabela e relação ao construir o FileScanBuilder
- [SPARK-49591] [SC-176587][sql] Adicionar coluna de Tipo Lógico ao README da variante
-
[SPARK-49596] [SC-176423][sql] Melhorar o desempenho de
FormatString - [SPARK-49525] [SC-176044][ss][CONNECT] Pequena melhoria de log para o ListenerBus do Listener de Consulta de Streaming no Servidor
-
[SPARK-49583] [SC-176272][sql] Defina a subcondição
SECONDS_FRACTIONde erro para o padrão de fração de segundos inválido - [FAÍSCA-49536] [SC-176242] Manipular erro na pré-obtenção de registos da fonte de dados de streaming em Python
- [SPARK-49443] [SC-176273][sql][PYTHON] Implemente a expressão to_variant_object e faça com que as expressões schema_of_variant imprimam "OBJECT" para Objetos Variantes.
- [SPARK-49544] [SASP-3990][sc-176557][CONNECT] Substitua o bloqueio grosseiro no SparkConnectExecutionManager pelo ConcurrentMap
- [SPARK-49548] [SASP-3990][sc-176556][CONNECT] Substitua o bloqueio grosseiro no SparkConnectSessionManager pelo ConcurrentMap
- [SPARK-49551] [SC-176218][ss] Melhorar o log do RocksDB para replayChangelog
-
[SPARK-49595] [SC-176396][connect][SQL] Correção
DataFrame.unpivot/meltno cliente Spark Connect Scala - [FAÍSCA-49006] [SC-176162] Implementar limpeza para arquivos OperatorStateMetadataV2 e StateSchemaV3
-
[SPARK-49600] [SC-176426][python] Remova
Python 3.6 and oldera lógica relacionada detry_simplify_traceback - [SPARK-49303] [SC-176013][ss] Implementar TTL para ValueState na API transformWithStateInPandas
- [SPARK-49191] [SC-176243][ss] Adicionar suporte para leitura de variáveis de estado do mapa transformWithState com leitor de fonte de dados de estado
- [SPARK-49593] [SC-176371][ss] Lançar exceção RocksDB para o chamador no DB fechar se um erro for visto
-
[SPARK-49334] [SC-174803][sql]
str_to_mapdeve verificar se oscollationvalores de todos os tipos de parâmetros são os mesmos - [SPARK-42204] [SC-176126][core] Adicionar opção para desativar o log redundante de acumuladores internos do TaskMetrics em logs de eventos
- [SPARK-49575] [SC-176256][ss] Adicionar log para liberação de bloqueio somente se acquiredThreadInfo não for nulo
- [SPARK-49539] [SC-176250][ss] Atualize o identificador de início das famílias col internas para um identificador diferente
- [SPARK-49205] [SC-173853][sql] KeyGroupedPartitioning deve herdar HashPartitioningLike
- [SPARK-49396] [SC-176030][sql] Modificar a verificação de anulabilidade da expressão CaseWhen
- [SPARK-49476] [SC-175700][sql] Corrigir a anulabilidade da função base64
- [SPARK-47262] [SC-174829][sql] Atribuir nomes a condições de erro para conversões de parquet
- [SPARK-47247] [SC-158349][sql] Use um tamanho de destino menor ao aglutinar partições com junções explosivas
- [SPARK-49501] [SC-176166][sql] Corrigir escapamento duplo da localização da tabela
- [SPARK-49083] [SC-173214][connect] Permitir que from_xml e from_json trabalhem nativamente com esquemas json
- [SPARK-49043] [SC-174673][sql] Corrigir caminho de código interpretado 'group by' em mapa contendo cadeias de caracteres ordenadas
- [SPARK-48986] [SC-172265][connect][SQL] Adicionar representação intermediária ColumnNode
- [SPARK-49326] [SC-176016][ss] Classificar a classe de erro para erros da função de utilizador do coletor Foreach
-
[SPARK-48348] [SC-175950][spark-48376][SQL] Introduzir as
LEAVEeITERATEinstruções - [SPARK-49523] [SC-175949][connect] Aumente o tempo máximo de espera para que o servidor de conexão seja testado
- [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Corrigir o caso de "select count(distinct 1) from t" em que t é uma tabela vazia, expandindo o RewriteDistinctAggregates - versão 16.x do DBR
- [SPARK-49311] [SC-175038][sql] Tornar possível que valores grandes de 'intervalo de segundos' sejam convertidos para o tipo decimal
- [SPARK-49200] [SC-173699][sql] Corrigir exceção de ordenação não-codegen de tipo nulo
- [SPARK-49467] [SC-176051][ss] Adicionar suporte para leitor para fonte de dados de estado e listar estado
- [SPARK-47307] [SC-170891][sql] Adicionar uma configuração para opcionalmente dividir cadeias de caracteres base64
- [SPARK-49391] [SC-176032][ps] Box plot seleciona outliers com base na distância das cercas
- [SPARK-49445] [SC-175845][ui] Suportar a exibição de tooltip na barra de progresso do UI
- [SPARK-49451] [SC-175702] Permitir chaves duplicadas no parse_json.
- [SPARK-49275] [SC-175701][sql] Corrigir a nulidade do tipo de retorno da expressão xpath
- [SPARK-49021] [SC-175578][ss] Adicionar suporte para a leitura de variáveis de estado de valor em transformWithState com o leitor de fonte de dados de estado
- [SPARK-49474] [BEHAVE-143][sc-169253][SC-175933][ss] Classificar a classe de Erro para erro da função de utilizador do FlatMapGroupsWithState
- [SPARK-49408] [SC-175932][sql] Use IndexedSeq em ProjectingInternalRow
-
[SPARK-49509] [SC-175853][core] Use
Platform.allocateDirectBufferem vez deByteBuffer.allocateDirect - [SPARK-49382] [SC-175013][ps] Faça com que o gráfico da caixa de quadros renderize corretamente os panfletos/outliers
- [SPARK-49002] [SC-172846][sql] Lidar consistentemente com locais inválidos em WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
-
[SPARK-49480] [SC-175699][core] Corrigir NullPointerException de
SparkThrowableHelper.isInternalError - [SPARK-49477] [SC-175828][python] Melhorar pandas udf mensagem de erro de tipo de retorno inválido
- [SPARK-48693] [SC-169492][sql] Simplifique e unifique toString de Invoke e StaticInvoke
-
[SPARK-49441] [SC-175716][ml]
StringIndexerordenar matrizes em executores - [SPARK-49347] [SC-175004][r] Marcar o SparkR como obsoleto
- [SPARK-49357] [SC-175227][connect][PYTHON] Truncar verticalmente mensagem protobuf profundamente aninhada
- [SPARK-41982] [SC-120604][sql] As partições do tipo string não devem ser tratadas como tipos numéricos
- [SPARK-48776] [SC-170452][behave-72] Corrigir formatação de timestamp para JSON, XML e CSV
- [SPARK-49223] [SC-174800][ml] Simplifique o StringIndexer.countByValue com funções internas
-
[FAÍSCA-49016] Reverter "[SC-174663][sql] Restaurar o comportamento em que consultas de arquivos CSV brutos não são permitidas quando apenas a coluna de registro corrompido é incluída e atribuir nome a
_LEGACY_ERROR_TEMP_1285" -
[SPARK-49041] [SC-172392][python][CONNECT] Lance o erro adequado para
dropDuplicatesquando umsubsetincorreto é fornecido - [SPARK-49050] [SC-175235] Habilitando o operador deleteIfExists no TWS com famílias de colunas virtuais
- [SPARK-49216] [SC-173919][core]Correção para não registar o contexto da mensagem ao construir explicitamente um LogEntry, quando a configuração de Registo Estruturado está desativada.
-
[SPARK-49252] [SC-175596][core] Tornar
TaskSetExcludeListeHeathTrackerindependentes - [SPARK-49352] [SC-174971][sql] Evite transformação de matriz redundante para expressão idêntica
- [SPARK-42307] [SC-173863][sql] Atribuir nome para erro _LEGACY_ERROR_TEMP_2232
-
[SPARK-49197] [SC-173732][core] Redact
Spark Commandsaída no módulolauncher - [SPARK-48913] [SC-173934][sql] Implementar IndentingXMLStreamWriter
- [SPARK-49306] [SC-175363][python][SQL] Crie aliases de função SQL para 'zeroifnull' e 'nullifzero'
- [SPARK-48344] [SQL] Execução de scripts SQL (incluindo Spark Connect)
- [SPARK-49402] [SC-175122][python] Corrigir a integração do Binder na documentação do PySpark
- [SPARK-49017] [SC-174664][sql] A instrução Insert falha quando vários parâmetros estão sendo usados
- [SPARK-49318] [SC-174733][sql] Antecipe o erro de baixa prioridade na ACV até o final da análise de verificação para melhorar a experiência de erro
-
[SPARK-49016] [SC-174663][sql] Restaure o comportamento de que consultas de arquivos CSV brutos não são permitidas quando apenas incluem coluna de registro corrompido e atribuem nome a
_LEGACY_ERROR_TEMP_1285 -
[SPARK-49387] [SC-175124][python] Corrigir dica de tipo para
accuracyinpercentile_approxeapprox_percentile - [SPARK-49131] [SC-174666][ss] TransformWithState deve definir corretamente as chaves de agrupamento implícitas, mesmo com iteradores preguiçosos
- [SPARK-49301] [SC-174795][ss] Dados de seta de bloco passados para o trabalhador Python
- [SPARK-49039] [SC-174651][ui] Redefinir a caixa de seleção quando as métricas do executor são carregadas na guia Estágios
- [SPARK-48428] [SC-169806][sql]: Corrigir IllegalStateException em NestedColumnAliasing
-
[SPARK-49353] [SC-174830][sql] Atualizar documentos relacionados à
UTF-32codificação/decodificação - [SPARK-48613] [SC-170966][sql] SPJ: Suporte a auto-shuffle de um dos lados + menor número de chaves de junção do que de partição
- [SPARK-47473] [SC-160450][behave-127][SQL] Corrigir a questão de precisão na conversão de carimbos de data/hora INFINITY do Postgres
- [SPARK-49142] [SC-173658][connect][PYTHON] Acompanhamento para reverter o impacto no desempenho da conversão de proto para cadeia de caracteres
- [SPARK-49300] [SC-175008][core] Corrija o vazamento de token de delegação do Hadoop quando tokenRenewalInterval não estiver definido.
- [SPARK-49367] [SC-175012][ps] Paralelizar o cálculo do KDE para várias colunas (plotly backend)
- [SPARK-49365] [SC-175011][ps] Simplifique a agregação de compartimentos num gráfico de histograma
- [SPARK-49372] [SC-175003][ss] Certifique-se de que latestSnapshot está definido como none on close para evitar o uso subsequente
-
[SPARK-49341] [SC-174785] Remover
connector/dockerem favor deApache Spark Operator -
[SPARK-49344] [SC-174894][ps] Suporte
json_normalizepara Pandas API no Spark - [SPARK-49306] [SC-174794][sql] Criar novas funções SQL 'zeroifnull' e 'nullifzero'
- [SPARK-48796] [SC-174668][ss] Carregar ID da família de colunas do RocksDBCheckpointMetadata para VCF ao reiniciar
- [SPARK-49342] [SC-174899][sql] Tornar o argumento 'jsonFormatSchema' da função SQL TO_AVRO opcional
- [SPARK-48628] [SC-174695][core] Adicionar métricas de pico de memória on-heap/off-heap da tarefa
- [SPARK-47407] [SC-159379][behave-126][SQL] Suporte para mapear java.sql.Types.NULL para NullType
- [SPARK-48628] [SC-173407][core] Adicionar as métricas de memória de pico da tarefa dentro/fora do heap
- [SPARK-49166] [SC-173987][sql] Suportar OFFSET em subconsulta correlacionada
- [SPARK-49269] [SC-174676][sql] Avalie VALUESansiosamente () a lista no AstBuilder
- [SPARK-49281] [SC-174782][sql] Otimize o método getBytes do parquet binário utilizando getBytesUnsafe para evitar o custo de cópia
- [SPARK-49113] [SC-174734] Não verificar rigorosamente erros de tradução - suprimir silenciosamente a exceção
- [SPARK-49098] [SC-173253][sql] Adicionar opções de gravação para INSERT
- [SPARK-48638] [SC-174694][follow][CONNECT] Corrigir documentação para ExecutionInfo
- [SPARK-49250] [ES-1222826][sql] Melhorar a mensagem de erro para expressão de janela não resolvida aninhada no CheckAnalysis.
- [SPARK-48755] [SC-174258][ss][PYTHON] implementação base de transformWithState pyspark e suporte de ValueState
- [SPARK-48966] [SC-174329][sql] Melhorar a mensagem de erro com referência de coluna não resolvida inválida numa chamada UDTF
- [SPARK-46590] [SC-154115][sql] Correção para falha do coalesce com índices de partição inesperados
- [SPARK-49235] [SC-174159][sql] Refatore a regra ResolveInlineTables para que não atravesse toda a árvore
- [SPARK-49060] [SC-173107][conectar] Limpar as regras Mima para as verificações de compatibilidade binária de SQL-Connect
- [SPARK-48762] [SC-172525][sql] Apresentação de clusterBy DataFrameWriter API para Python
- [SPARK-49207] [SC-173852][sql] Corrija o mapeamento de casos um-para-muitos em SplitPart e StringSplitSQL
- [SPARK-49204] [SC-173850][sql] Corrigir manipulação de par substituto em StringInstr e StringLocate
- [SPARK-36680] [SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL
- [SPARK-49204] [SC-173849][sql] Corrigir manipulação de par substituto em SubstringIndex
- [SPARK-49204] [SC-173848][sql] Corrigir manipulação de par substituto no StringTrim
- [Spark-48967] [SC-173993] Corrigir o teste forward do SparkConfigOwnershipSuite para OPTIMIZE_INSERT_INTO_VALUES_PARSER
- [SPARK-49204] [SC-173851][sql] Corrigir manipulação de par substituto em StringReplace
- [SPARK-48967] [SC-173993][sql][16.x] Melhore o desempenho e a pegada de memória de "INSERT INTO ... VALUES"Declarações"
- [SPARK-49099] Reverter "[SC-173229][sql] CatalogManager.setCurrent...
- [SPARK-48347] [SC-173812][sql] Suporte para a instrução WHILE
- [SPARK-49128] [SC-173344][core] Suporte para título personalizado do servidor de histórico na interface do utilizador.
- [SPARK-49146] [SC-173825][ss] Transferir os erros de asserção relacionados à ausência de marca d'água em consultas de streaming no modo de acréscimo para a estrutura de erros
- [SPARK-45787] [SC-172197][sql] Suporte para Catalog.listColumns em colunas de clustering
- [SPARK-49099] [SC-173229][sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessão personalizado
- [SPARK-49138] [SC-173483][sql] Corrigir CollationTypeCasts de várias expressões
- [SPARK-49163] [SC-173666][sql] Tentativa de criar tabela com base em resultados de dados de partição parquet quebrados deve retornar erro voltado para o usuário
-
[SPARK-49201] [SC-173793][ps][PYTHON][connect] Reimplementar
histplotagem com o Spark SQL - [SPARK-49188] [SC-173682][sql] Erro interno no concat_ws chamado na matriz de matrizes de string
-
[SPARK-49137] [SC-173677][sql] Quando a condição booleana
if statementé inválida, uma exceção deve ser lançada - [SPARK-49193] [SC-173672][sql] Melhorar o desempenho de RowSetUtils.toColumnBasedSet
- [SPARK-49078] [SC-173078][sql] Suporte mostrar sintaxe de colunas na tabela v2
- [SPARK-49141] [SC-173388][sql] Marcar variante como tipo de dados incompatível com hive
-
[SPARK-49059] [Cherry-Pick][15.x][SC-172528][connect] Mover
SessionHolder.forTesting(...)para o pacote de teste - [SPARK-49111] [SC-173661][sql] Mover withProjectAndFilter para o objeto complementar de DataSourceV2Strategy
-
[SPARK-49185] [SC-173688][ps][PYTHON][connect] Reimplementar
kdeplot com o Spark SQL -
[SPARK-49178] [SC-173673][sql] Otimize o desempenho de
Row#getSeqpara corresponder ao desempenho ao usar o Spark 3.5 com o Scala 2.12 - [SPARK-49093] [SC-172958][sql] GROUP BY com MapType aninhado dentro de um tipo complexo
- [SPARK-49142] [SC-173469][connect][PYTHON] Reduzir o nível de log do cliente Spark Connect para depuração
- [SPARK-48761] [SC-172048][sql] Introduza a API clusterBy DataFrameWriter para Scala
- [SPARK-48346] [SC-173083][sql] Suporte para instruções IF ELSE em scripts SQL
- [SPARK-48338] [SC-173112][sql] Melhorar exceções lançadas pelo analisador/interpretador
- [SPARK-48658] [SC-169474][sql] As funções de codificação/decodificação relatam erros de codificação em vez de mojibake para caracteres não mapeáveis
- [SPARK-49071] [SC-172954][sql] Remover o traço ArraySortLike
-
[SPARK-49107] Revert "Revert "[SC-173103][sql]
ROUTINE_ALREADY_EXISTSsuporta RoutineType"" - [SPARK-49070] [SC-172907][ss][SQL] TransformWithStateExec.initialState é reescrito incorretamente para produzir um plano de consulta inválido
- [FAÍSCA-49114] [SC-173217] A subcategorização não pode carregar erros de armazenamento de estado
-
[SPARK-49107] Reverter "[SC-173103][sql]
ROUTINE_ALREADY_EXISTSsuporta RoutineType" - [SPARK-49048] [SC-173223][ss] Adicione suporte para leitura de metadados relevantes do operador em determinado ID de lote
- [SPARK-49094] [SC-173049][sql] Corrigir ignoreCorruptFiles não funcionando para hive orc impl com mergeSchema desligado
-
[SPARK-49108] [SC-173102][exemplo] Adicionar
submit_pi.shexemplo de API REST -
[SPARK-49107] [SC-173103][sql]
ROUTINE_ALREADY_EXISTSsuporta RoutineType - [SPARK-48997] [SC-172484][ss] Implementar descarregamentos individuais para falhas de threads no pool de manutenção
- [SPARK-49063] [SC-173094][sql] Correção entre com ScalarSubqueries
- [SPARK-45891] [SC-172305][sql][PYTHON][variant] Adicionar suporte para tipos de intervalo na especificação de variante
-
[SPARK-49074] [BEHAVE-110][sc-172815][SQL] Corrigir variante com
df.cache() - [SPARK-49003] [SC-172613][sql] Corrigir hashing de caminho de código interpretado para ter reconhecimento de agrupamento
- [SPARK-48740] [SC-172430][sql] Detetar erro de especificação de janela ausente cedo
- [SPARK-48999] [SC-172245][ss] Dividir PythonStreamingDataSourceSimpleSuite
- [SPARK-49031] [SC-172602] Implementar validação para o operador TransformWithStateExec usando OperatorStateMetadataV2
- [SPARK-49053] [SC-172494][python][ML] Faça com que as funções auxiliares de salvar/carregar o modelo aceitem sessão de faísca
- [SPARK-49032] [Backport][15.x][SS] Adicionar o caminho do esquema na entrada da tabela de metadados, verificar a versão esperada e adicionar teste relacionado aos metadados do operador para o formato de metadados v2 do operador.
- [SPARK-49034] [SC-172306][core] Suporte à substituição no lado do servidor na API de envio REST
- [SPARK-48931] [SC-171895][ss] Reduza o custo da API da Lista de Lojas na Nuvem para a tarefa de manutenção do armazenamento de estado
- [SPARK-48849] [SC-172068][ss]Criar OperatorStateMetadataV2 para o operador TransformWithStateExec
- [SPARK-49013] [SC-172322] Alterar chave em collationsMap para tipos Map e Array em Scala
-
[SPARK-48414] [SC-171884][python] Corrigir alteração incompatível na biblioteca Python
fromJson - [SPARK-48910] [SC-171001][sql] Use HashSet/HashMap para evitar pesquisas lineares em PreprocessTableCreation
-
[SPARK-49007] [SC-172204][core] Melhorar
MasterPagepara suportar título personalizado - [SPARK-49009] [SC-172263][sql][PYTHON] Fazer com que APIs e funções de coluna aceitem Enums
- [SPARK-49033] [SC-172303][core] Suporte à substituição no lado do servidor na API de envio REST
-
[SPARK-48363] [SC-166470][sql] Limpe alguns códigos redundantes em
from_xml - [SPARK-46743] [SC-170867][sql][BEHAVE-84] Bug na contagem após o ScalarSubquery ser dobrado se tiver uma relação vazia
-
[SPARK-49040] [SC-172351][sql] Corrigir doc
sql-ref-syntax-aux-exec-imm.md - [SPARK-48998] [SC-172212][ml] Salvamento/carregamento de modelos de meta algoritmos com SparkSession
-
[SPARK-48959] [SC-171708][sql] Fazer
NoSuchNamespaceExceptionextensãoNoSuchDatabaseExceptionpara restaurar o tratamento de exceções - [SPARK-48996] [SC-172130][sql][PYTHON] Permitir literais nus para ee ou de Coluna
- [SPARK-48990] [SC-171936] Acompanhamento para #101759 - ajuste de teste
- [SPARK-48338] [SC-171912][sql] Verificar declarações de variáveis
- [SPARK-48990] [SC-171936][sql] Palavras-chave de sintaxe SQL relacionadas a variáveis unificadas
-
[SPARK-48988] [SC-171915][ml] Fazer
DefaultParamsReader/Writerlidar com metadados utilizando a sessão Spark -
[SPARK-48974] [SC-171978][sql][SS][ml][MLLIB] Use
SparkSession.implicitsem vez deSQLContext.implicits - [SPARK-48760] [SC-170870][sql] Corrigir CatalogV2Util.applyClusterByChanges
- [FAÍSCA-48928] [SC-171956] Aviso de log para chamar .unpersist() em RDDs de ponto de verificação local
- [SPARK-48760] [SC-170139][sql] Introduzir ALTER TABLE ... CLUSTER BY sintaxe SQL para alterar colunas de clusterização
- [SPARK-48844] Reverter “[SC-170669][sql] USE INVALID_EMPTY_LOCATION em vez de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho estiver vazio”
-
[SPARK-48833] [SC-171914][sql][VARIANT] Variante de suporte em
InMemoryTableScan -
[SPARK-48975] [SC-171894][protobuf] Remova a definição desnecessária
ScalaReflectionLockdeprotobuf - [SPARK-48970] [SC-171800][python][ML] Evite usar SparkSession.getActiveSession no leitor/gravadore do Spark ML
- [SPARK-48844] [SC-170669][sql] Usar INVALID_EMPTY_LOCATION em vez de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho estiver vazio
- [SPARK-48714] [SC-170136] Corrigir falhas nos testes df.mergeInto no PySpark e UC
- [SPARK-48957] [SC-171797][ss] Retorna classe de erro subclassificada na carga de armazenamento de estado para provedor hdfs e rocksdb
- [SPARK-48891] [Backport][15x][SC-171677][ss] Refactor StateSchemaCompatibilityChecker para unificar todos os formatos de esquema de estado
- [SPARK-48972] [SC-171795][python] Unifique a manipulação literal de cadeias de caracteres em funções
- [SPARK-48388] [SC-171337][sql] Corrigir SET o comportamento da instrução para scripts SQL
- [SPARK-48743] [SC-170552][sql][SS] MergingSessionIterator deve lidar melhor quando getStruct retorna null
- [SPARK-48623] [15.x][sc-171322][CORE] Migrar registos do FileAppender para registos estruturados
- [SPARK-36680] [DBRRM-1123] Reverter "[SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL"
-
[SPARK-48841] [SC-170868][behave-83][SQL] Incluir
collationNameasql()deCollate - [SPARK-48941] [SC-171703][python][ML] Substitua a invocação da API de leitura/gravação RDD pela API de leitura/gravação Dataframe
- [SPARK-48938] [SC-171577][python] Melhorar mensagens de erro ao registrar UDTFs Python
- [SPARK-48350] [SC-171040][sql] Introdução de exceções personalizadas para scripts SQL
-
[SPARK-48907] [SC-171158][sql] Corrija o valor
explicitTypesemCOLLATION_MISMATCH.EXPLICIT -
[SPARK-48945] [SC-171658][python] Simplifique as funções regex com
lit - [SPARK-48944] [SC-171576][connect] Unifique a manipulação de esquema no formato JSON no Connect Server
- [SPARK-48836] [SC-171569] Integrar esquema SQL com esquema/metadados de estado
- [SPARK-48946] [SC-171504][sql] NPE no método de ocultação quando a sessão é nula
- [SPARK-48921] [SC-171412][sql] Os codificadores ScalaUDF na subconsulta devem ser resolvidos para MergeInto
- [SPARK-45155] [SC-171048][connect] Adicionar documentos de API para o cliente JVM/Scala do Spark Connect
-
[SPARK-48900] [SC-171319] Adicionar o
reasoncampo paracancelJobGroupecancelJobsWithTag - [SPARK-48865] [SC-171154][sql] Adicionar função try_url_decode
-
[SPARK-48851] [SC-170767][sql] Altere o valor de
SCHEMA_NOT_FOUNDdenamespaceparacatalog.namespace - [SPARK-48510] [SC-170893][2/2] Suportar a API UDAF no Spark Connect
-
[SPARK-45190] [SC-171055][spark-48897][PYTHON][connect] Tornar
from_xmlo esquema StructType de suporte -
[SPARK-48930] [SC-171304][core] Editar
awsAccessKeyIdincluindo o padrãoaccesskey - [SPARK-48909] [SC-171080][ml][MLLIB] Usa SparkSession sobre SparkContext ao escrever metadados
- [SPARK-48883] [SC-171133][ml][R] Substitua a invocação da API de leitura/gravação RDD pela API de leitura/gravação Dataframe
-
[SPARK-48924] [SC-171313][ps] Adicionar uma função auxiliar semelhante à do pandas
make_interval -
[SPARK-48884] [SC-171051][python] Remover função auxiliar não utilizada
PythonSQLUtils.makeInterval - [SPARK-48817] [SC-170636][sql] Executar prontamente vários comandos union
- [SPARK-48896] [SC-171079][ml][MLLIB] Evite a repartição ao escrever os metadados
-
[SPARK-48892] [SC-171127][ml] Evitar a leitura de parâmetros linha a linha
Tokenizer -
[SPARK-48927] [SC-171227][core] Mostrar o número de RDDs armazenados em cache em
StoragePage - [SPARK-48886] [15.x][backport][SC-171039][ss] Adicione informações de versão ao changelog v2 para permitir uma evolução mais fácil
- [SPARK-48903] [SC-171136][ss] Defina a última versão do instantâneo do RocksDB corretamente no carregamento remoto
- [SPARK-48742] [SC-170538][ss] Família de colunas virtuais para RocksDB
- [SPARK-48726] [15.x][sc-170753][SS] Crie o formato de arquivo StateSchemaV3 e escreva-o para o operador TransformWithStateExec
- [SPARK-48794] [SC-170882][connect][15.x] df.mergeInto suporte para Spark Connect (Scala e Python)
-
[SPARK-48714] [SC-170136][python] Implementar
DataFrame.mergeIntono PySpark - [SPARK-48772] [SC-170642][ss][SQL] Alteração da fonte de dados de estado Modo de leitor de feed
- [SPARK-48666] [SC-170887][sql] Não empurre o filtro para baixo se ele contiver PythonUDFs
- [SPARK-48845] [SC-170889][sql] GenericUDF captura exceções de crianças
- [SPARK-48880] [SC-170974][core] Evite lançar NullPointerException se o plug-in do driver falhar ao inicializar
- [SPARK-48888] [Backport][15x][SC-170973][ss] Remova a criação de snapshot com base no tamanho das operações do changelog
- [SPARK-48871] [SC-170876] Corrigir a validação de INVALID_NON_DETERMINISTIC_EXPRESSIONS em…
- [SPARK-48883] [SC-170894][ml][R] Substitua a invocação da API de leitura/gravação RDD pela API de leitura/gravação Dataframe
- [SPARK-36680] [SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL
[SPARK-48804] [SC-170558][sql] Adicionar verificação de classIsLoadable & OutputCommitter.isAssignableFrom para configurações da classe de committer de saída.- [SPARK-46738] [SC-170791][python] Reativar um grupo de doctests
-
[SPARK-48858] [SC-170756][python] Remover a chamada de método preterido
setDaemondeThreademlog_communication.py - [SPARK-48639] [SC-169801][connect][PYTHON] Adicionar origem ao RelationCommon
- [SPARK-48863] [SC-170770][es-1133940][SQL] Corrija ClassCastException ao analisar JSON com "spark.sql.json.enablePartialResults" ativado
- [SPARK-48343] [SC-170450][sql] Introdução ao interpretador de scripts SQL
- [SPARK-48529] [SC-170755][sql] Introdução de rótulos em scripts SQL
- [SPARK-45292] Reverter "[SC-151609][sql][HIVE] Remover Guava de classes compartilhadas de IsolatedClientLoader"
- [SPARK-48037] [SC-165330][core][3.5] Corrigir o SortShuffleWriter que carece de métricas relacionadas ao 'shuffle write', resultando em dados potencialmente imprecisos.
-
[SPARK-48720] [SC-170551][sql] Alinhar o comando
ALTER TABLE ... UNSET TBLPROPERTIES ...em v1 e v2 - [SPARK-48485] [SC-167825][connect][SS] Suporte interruptTag e interruptAll em consultas de streaming
- [SPARK-45292] [SC-151609][sql][HIVE] Remover Guava de classes compartilhadas de IsolatedClientLoader
- [SPARK-48668] [SC-169815][sql] Suporte ALTER NAMESPACE ... PROPRIEDADES NÃO DEFINIDAS na v2
- [SPARK-47914] [SC-165313][sql] Não exibir o parâmetro splits em Range
- [SPARK-48807] [SC-170643][sql] Suporte binário para fonte de dados CSV
- [SPARK-48220] [SC-167592][python][15.X] Permite passar a tabela PyArrow para createDataFrame()
- [SPARK-48545] [SC-169543][sql] Crie funções to_avro e from_avro SQL para corresponder aos equivalentes do DataFrame
- [SPARK-47577] [SC-168875][spark-47579] Correção do uso enganoso da chave de log TASK_ID
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.1 LTS
- Java: Zulu17.50+19-CA
- Escala: 2.12.15
- Píton: 3.12.3
- R: 4.4.0
- Lago Delta: 3.2.1
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos com anotações | 0.7.0 | AstTokens | 2.0.5 | "Astunparse" | 1.6.3 |
| Comando automático | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Armazenamento de Ficheiros Azure Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
| Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | CFFI | 1.16.0 |
| Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clicar | 8.1.7 |
| Cloudpickle | 2.2.1 | Comunicação | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | depuração | 1.6.7 |
| decorador | 5.1.1 | Preterido | 1.2.14 | Distlib | 0.3.8 |
| convertendo docstring em markdown | 0.11 | pontos de entrada | 0.4 | executar | 0.8.3 |
| facetas-visão geral | 1.1.1 | bloqueio de arquivo | 3.15.4 | Fonttools | 4.51.0 |
| GitDB | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| Google-Auth (Autenticação) | 2.35.0 | Google Cloud Core | 2.4.1 | google-armazenamento-em-nuvem | 2.18.2 |
| Google-CRC32C | 1.6.0 | google-media-reutilizável | 2.7.2 | googleapis-comuns-protos | 1.65.0 |
| Grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadados | 6.0.0 | importlib_resources | 6.4.0 |
| flexionar | 7.3.1 | ipyflow-núcleo | 0.0.198 | Ipykernel | 6.28.0 |
| IPython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Isodato | 0.6.1 | jaraco.contexto | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.texto | 3.12.1 | Jedi | 0.19.1 | JmesPath | 1.0.1 |
| Joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| Kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-em linha | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-magro | 2.15.1 | mais-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy extensions | 1.0.0 | Ninho-Asyncio | 1.6.0 |
| nodeenv | 1.9.1 | dormência | 1.26.4 | OAuthlib | 3.2.2 |
| OpenTelemetry API | 1.27.0 | OpenTelemetry SDK | 1.27.0 | Convenções Semânticas de OpenTelemetry | 0,48b0 |
| embalagem | 24.1 | pandas | 1.5.3 | Parso | 0.8.3 |
| PathSpec | 0.10.3 | vítima | 0.5.6 | Espere | 4.8.0 |
| almofada | 10.3.0 | pip (o gestor de pacotes do Python) | 24,2 | plataformadirs | 3.10.0 |
| enredo | 5.22.0 | Pluggy | 1.0.0 | kit de ferramentas de prompt | 3.0.43 |
| Proto-Plus | 1.24.0 | Protobuf | 4.24.1 | PSUTIL | 5.9.0 |
| PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 15.0.2 | Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
| Pyccolo | 0.0.52 | Pycparser | 2.21 | Pidântico | 2.8.2 |
| pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pigmentos | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | Pyodbc | 5.0.1 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 |
| Pytz | 2024.1 | PyYAML | 6.0.1 | Pyzmq | 25.1.2 |
| pedidos | 2.32.2 | corda | 1.12.0 | RSA | 4,9 |
| s3transferência | 0.10.2 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.4.2 | SciPy | 1.13.1 |
| nascido no mar | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
| smmap | 5.0.0 | SQLPARSE | 0.5.1 | ssh-import-id | 5.11 |
| dados de pilha | 0.2.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.2 | tenacidade | 8.2.2 |
| Threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
| tornado | 6.4.1 | traços | 5.14.3 | Protetor de Tipografia | 4.3.0 |
| tipos-protobuf | 3.20.3 | tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 |
| tipos-PyYAML | 6.0.0 | tipos-de-pedidos | 2.31.0.0 | tipos de setuptools | 68.0.0.0 |
| seis tipos | 1.16.0 | tipos-urllib3 | 1.26.25.14 | typing_extensions (extensões de digitação) | 4.11.0 |
| Ujson | 5.10.0 | Atualizações não supervisionadas | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.43.0 | embrulhado | 1.14.1 |
| Yapf | 0.33.0 | zipp | | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir de um instantâneo CRAN do Gestor de Pacotes Posit de 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 16.1.0 | AskPass | 1.2.0 | afirme que | 0.2.1 |
| Retroportagens | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | pouco | 4.0.5 | bit64 | 4.0.5 |
| Bitops | 1.0-8 | blob | 1.2.4 | inicialização | 1.3-30 |
| fabricação de cerveja | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
| BSLIB | 0.8.0 | cachemira | 1.1.0 | Chamador | 3.7.6 |
| Caret | 6.0-94 | CellRanger | 1.1.0 | crono | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.1 | compilador | 4.4.0 |
| Configurações | 0.3.2 | conflituoso | 1.2.0 | CPP11 | 0.4.7 |
| lápis de cor | 1.5.3 | credenciais | 2.0.1 | encaracolar | 5.2.1 |
| tabela de dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.36 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| E1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| Fansi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | forçados | 1.0.0 | para cada elemento | 1.5.2 |
| estrangeiro/a | 0.8 a 86 | forjar | 0.2.0 | FS | 1.6.4 |
| Futuro | 1.34.0 | futuro.apply | 1.11.2 | gargarejo | 1.5.2 |
| genérico | 0.1.3 | Gert | 2.1.0 | GGPLOT2 | 3.5.1 |
| GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
| GLMNET | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
| gridExtra | 2.3 | GSUBFN | 0,7 | GT | 0.11.0 |
| tabela g | 0.3.5 | capacete de segurança | 1.4.0 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets (componentes HTML interativos) | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| HTTR2 | 1.0.2 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9 a 15 | Banda isobárica | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1.48 | etiquetagem | 0.4.3 |
| mais tarde | 1.3.2 | treliça | 0.22-5 | lave | 1.8.0 |
| ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.3 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.0 |
| MGCV | 1.9-1 | mímica | 0.12 | miniUI | 0.1.1.1 |
| Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
| Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| unidades bonitas | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
| progressor | 0.14.0 | promessas | 1.3.0 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P.S. | 1.7.7 | ronronar | 1.0.2 |
| R6 | 2.5.1 | RAGG | 1.3.2 | Random Forest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | capaz de reagir | 0.4.4 |
| reactR | 0.6.0 | Readr | 2.1.5 | ReadXL | 1.4.3 |
| receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Exemplo Reproduzível (Reprex) | 2.1.1 | remodelar2 | 1.4.4 |
| Rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| oxigénio2 | 7.3.2 | rpart (função de partição recursiva em R) | 4.1.23 | rprojroot | 2.0.4 |
| Reserva | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversões | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | Informação da sessão | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | ferramentas de código-fonte | 0.1.7-1 |
| Brilho | 1.8.6 | Faísca | 3.5.0 | espacial | 7.3-17 |
| estrias | 4.4.0 | sqldf | 0.4-1 | QUADRADO | 2021.1 |
| estatísticas | 4.4.0 | estatísticas4 | 4.4.0 | string | 1.8.4 |
| stringr | 1.5.1 | Sobrevivência | 3.6-4 | Charme | 5.17.14.1 |
| Sistema | 3.4.2 | fontes do sistema | 1.1.0 | tcltk (uma linguagem de programação) | 4.4.0 |
| teste que | 3.2.1.1 | formatação de texto | 0.4.0 | Tibble | 3.2.1 |
| Tidyr | 1.3.1 | arrumadoselecionar | 1.2.1 | Tidyverse | 2.0.0 |
| mudança de hora | 0.3.0 | data e hora | 4032.109 | Tinytex | 0.52 |
| Ferramentas | 4.4.0 | TZDB | 0.4.0 | verificador de URL | 1.0.1 |
| usethis | 3.0.0 | UTF8 | 1.2.4 | utilitários | 4.4.0 |
| Identificador Único Universal (UUID) | 1.2-1 | V8 | 4.4.2 | VCTRS | 0.6.5 |
| viridisLite | 0.4.2 | vruum | 1.6.5 | Waldo | 0.5.2 |
| vibrissas | 0.4.1 | murchar | 3.0.1 | xfun | 0,46 |
| XML2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | Zeallot | 0.1.0 | ZIP | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | AWS Java SDK para SES | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombra kriogénica | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/2026 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | ICU4J | 75.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.ning | compressa-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Configurações | 1.4.3 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1.16.0 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.27 |
| IO.Delta | delta-compartilhamento-cliente_2.12 | 1.2.0 |
| io.dropwizard.metrics | métricas e anotação | 4.2.19 |
| io.dropwizard.metrics | métricas-base | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas do JVM | 4.2.19 |
| io.dropwizard.metrics | Métricas-Servlets | 4.2.19 |
| io.netty | netty-tudo | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-meias | 4.1.108.Final |
| io.netty | Netty Comum | 4.1.108.Final |
| io.netty | Netty Handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Última |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-Windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Última |
| io.netty | Netty-Transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| Jakarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Hora de Joda | Hora de Joda | 2.12.1 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | conserva | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de flecha | 15.0.0 |
| org.apache.arrow | núcleo de memória Arrow | 15.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | AVRO-IPC | 1.11.3 |
| org.apache.avro | avro-mapreduce | 1.11.3 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador e cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Colmeia-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | Hive-LLAP Comum | 2.3.9 |
| org.apache.hive | Hive-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.8.1 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | Núcleo Http | 4.4.16 |
| org.apache.ivy | hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-esquema-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-núcleo | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-cunhas | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.9.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-API | 11.1.0 |
| org.eclipse.píer | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.píer | Molhe IO | 9.4.52.v20230823 |
| org.eclipse.píer | Cais-JNDI | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.píer | Segurança do Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | servidor jetty | 9.4.52.v20230823 |
| org.eclipse.píer | cais-servlet | 9.4.52.v20230823 |
| org.eclipse.píer | cais-servlets | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-util | 9.4.52.v20230823 |
| org.eclipse.píer | cais-util-ajax | 9.4.52.v20230823 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.52.v20230823 |
| org.eclipse.píer | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey comum | 2.40 |
| org.glassfish.jersey.core | servidor Jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-log de eventos | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mlflow | mlflow-spark_2,12 | 2.9.1 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | Escala-library_2.12 | 2.12.15 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-compatível-com-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | SLF4J-Simples | 1.7.25 |
| org.threeten | trêsdez-extra | 1.7.1 |
| org.tukaani | XZ | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| Stax | Stax-API | 1.0.1 |