Partilhar via


Notas de versão da engenharia de características do Databricks e do Feature Store herdado do Workspace

Esta página lista as versões do cliente Databricks Feature Engineering no Unity Catalog e do cliente Databricks Workspace Feature Store. Ambos os clientes estão disponíveis no PyPI: databricks-feature-engineering e databricks-feature-store.

As bibliotecas estão habituadas a:

  • Crie, leia e escreva tabelas de funcionalidades.
  • Treine modelos em dados de características.
  • Publique tabelas de funcionalidades em lojas online para disponibilização em tempo real.

Para obter a documentação de uso, consulte Databricks Feature Store. Para obter a documentação da API do Python, consulte API do Python.

O cliente de Engenharia de Características no Unity Catalog funciona para características e tabelas de características no Unity Catalog. O cliente do Armazém de Funcionalidades do Espaço de Trabalho é usado para funcionalidades e tabelas de funcionalidades no Armazém de Funcionalidades do Espaço de Trabalho. Ambos os clientes são pré-instalados no Databricks Runtime for Machine Learning. Eles também podem ser executados no Databricks Runtime após a instalação databricks-feature-engineering a partir do PyPI (pip install databricks-feature-engineering). Apenas para testes de unidade, ambos os clientes podem ser usados localmente ou em ambientes CI/CD.

Para ver uma tabela que mostra a compatibilidade das versões do cliente com as versões do Databricks Runtime e do Databricks Runtime ML, consulte a matriz de compatibilidade de Feature Engineering . Versões mais antigas do cliente Databricks Workspace Feature Store estão disponíveis no PyPI como databricks-feature-store.

Databricks-Feature-Engineering 0.12.1

  • Suporte valores padrão para consultas de funcionalidades.
  • Correções de bugs e melhorias.

Databricks-Feature-Engineering 0.11.0

  • Adicione suporte para a mlflow versão 3.0.
  • Correções de bugs e melhorias.

Databricks-Feature-Engineering 0.10.2

  • Adicione suporte para a mlflow versão 2.20.0 e superior.
  • Adicione suporte para a numpy versão 2.x.
  • Correções de bugs e melhorias.

Databricks-Feature-Engineering versão 0.9.0

  • Suportar o uso de prebuilt_env nas invocações score_batch.
  • A funcionalidade "point-in-time" melhora o desempenho com o Photon.
  • Correções de bugs e melhorias.

Databricks-Feature-Engineering 0.8.0

  • Suporte para o uso de params nas invocações de score_batch, o que permite que parâmetros adicionais sejam passados para o modelo para inferência.
  • Correções de bugs e melhorias.

Databricks-Feature-Engineering 0.7.0

  • Certas visualizações no Unity Catalog agora podem ser usadas como tabelas de recursos para treinamento e avaliação de modelos offline. Veja Ler de uma tabela de características no Catálogo Unity.
  • Os conjuntos de treinamento agora podem ser criados com consultas de características ou uma especificação de características. Consulte a referência do SDK do Python.

Databricks-Feature-Engineering 0.6.0

  • A execução de junções point-in-time com o Spark nativo agora é suportada, além do suporte existente com o Tempo. Muito obrigado a Semyon Sinchenko por sugerir a ideia!
  • StructType agora é suportado como um tipo de dados PySpark. StructType não é suportado para serviço online.
  • write_table agora suporta a escrita em tabelas que têm aglomeração líquida ativada.
  • O timeseries_columns parâmetro de create_table foi renomeado para timeseries_column. Os fluxos de trabalho existentes podem continuar a usar o timeseries_columns parâmetro.
  • score_batch agora suporta o env_manager parâmetro. Consulte a documentação do MLflow para obter mais informações.

Databricks-Feature-Engineering 0.5.0

  • Nova API update_feature_spec em databricks-feature-engineering que permite aos usuários atualizar o proprietário de um FeatureSpec no Unity Catalog.

Databricks-Feature-Engineering 0.4.0

  • Pequenas correções de bugs e melhorias.

Databricks-Feature-Engineering 0.3.0

databricks-feature-store 0.17.0

  • databricks-feature-store está obsoleto. Todos os módulos existentes neste pacote estão disponíveis na databricks-feature-engineering versão 0.2.0 e superior. Para obter detalhes, consulte Python API.

Databricks-Feature-Engineering 0.2.0

  • databricks-feature-engineering agora contém todos os módulos do databricks-feature-store. Para obter detalhes, consulte Python API.

databricks-feature-store 0.16.3

  • Corrige erro de tempo limite ao usar o AutoML com tabelas de características.

Databricks-Feature-Engineering 0.1.3

  • Pequenas melhorias no UpgradeClient.

databricks-feature-store 0.16.2

  • Agora você pode criar pontos de extremidade para Distribuição de Funcionalidades e Funções. Para obter detalhes, consulte Feature & Function Serving.

databricks-feature-store 0.16.1

  • Pequenas correções de bugs e melhorias.

databricks-feature-engineering 0.1.2 & databricks-feature-store 0.16.0

  • Pequenas correções de bugs e melhorias.
    • Corrigidas as URLs de linhagem de trabalho incorretas registadas automaticamente em determinados ambientes de trabalho.

Databricks-Feature-Engineering 0.1.1

  • Pequenas correções de bugs e melhorias.

Databricks-Feature-Engineering 0.1.0

  • Versão de disponibilidade geral da Engenharia de Funcionalidades no cliente Python do Unity Catalog para PyPI

databricks-feature-store 0.15.1

  • Pequenas correções de bugs e melhorias.

databricks-feature-store 0.15.0

  • Agora você pode inferir e registrar automaticamente um exemplo de entrada ao registrar um modelo. Para fazer isso, defina infer_model_example como True quando chamar log_model. O exemplo é baseado nos dados de treinamento especificados no training_set parâmetro.

databricks-feature-store 0.14.2

  • Corrigir bug na publicação a partir do MariaDB Connector/J para o Aurora MySQL >= 2.7.5.

databricks-feature-store 0.14.1

  • Pequenas correções de bugs e melhorias.

Databricks-feature-store 0.14.0

A partir da versão 0.14.0, deve especificar colunas chave de timestamp no argumento primary_keys. As chaves de carimbo de data/hora são parte das "chaves primárias" que identificam exclusivamente cada linha da tabela de funcionalidades. Como outras colunas de chave primária, as colunas de chave de timestamp não podem conter valores NULL.

No exemplo a seguir, o DataFrame user_features_df contém as seguintes colunas: user_id, ts, purchases_30de is_free_trial_active.

0.14.0 e superior

fs = FeatureStoreClient()

fs.create_table(
name="ads_team.user_features",
primary_keys=["user_id", "ts"],
timestamp_keys="ts",
features_df=user_features_df,
)

0.13.1 e inferior

fs = FeatureStoreClient()

fs.create_table(
name="ads_team.user_features",
primary_keys="user_id",
timestamp_keys="ts",
features_df=user_features_df,
)

databricks-feature-store 0.13.1

  • Pequenas correções de bugs e melhorias.

databricks-feature-store 0.13.0

  • A versão mínima necessária mlflow-skinny é agora 2.4.0.
  • A criação de um conjunto de treinamento falhará se o DataFrame fornecido não contiver todas as chaves de pesquisa necessárias.
  • Ao registrar um modelo que usa tabelas de recursos no Unity Catalog, uma assinatura MLflow é registrada automaticamente com o modelo.

databricks-feature-store 0.12.0

  • Agora você pode excluir uma loja online usando a drop_online_table API.

databricks-feature-store 0.11.0

  • Nos espaços de trabalho habilitados para Catálogo Unity, agora você pode publicar tabelas de recursos do espaço de trabalho e do Catálogo Unity nas lojas online do Cosmos DB. Isso requer o Databricks Runtime 13.0 ML ou superior.

databricks-feature-store 0.10.0

  • Pequenas correções de bugs e melhorias.

databricks-feature-store 0.9.0

  • Pequenas correções de bugs e melhorias.

Databricks Feature Store 0.8.0

  • Pequenas correções de bugs e melhorias.

Databricks-feature-store 0.7.1

  • Adicione flask como uma dependência para corrigir o problema de dependência ausente ao pontuar modelos com score_batch.

Databricks Feature Store 0.7.0

  • Pequenas correções de bugs e melhorias.

databricks-feature-store 0.6.1

  • Lançamento público inicial do cliente Databricks Feature Store para o PyPI.