Partilhar via


Tabelas de inferência do agente: registos de pedido e avaliação (preteridos)

Importante

Aviso de descontinuação: A partir de 4 de dezembro de 2025, o Databricks deixou de preencher automaticamente as payload_request_logs e as payload_assessment_logs tabelas. Estas tabelas foram preteridas.

  • Os agentes recém-implantados por meio de agents.deploy() não gerarão mais tabelas request_logs ou assessment_logs.
  • As tabelas request_logs e assessment_logs legadas não são mais preenchidas pela Mosaic AI. Você pode criar sua própria tabela de substituição usando visualizações materializadas. Veja soluções alternativas para o MLflow 2.
  • A API experimental legada para registo de feedback não será mais suportada para agentes desplegados com a versão mais recente dos agentes databricks. Em vez disso, use a API de avaliações MLflow 3.

Ação necessária:

  • Recomendado: atualize para o MLflow 3 para usar o rastreamento em tempo real, que fornece registro em log unificado com melhor desempenho.
  • Alternativa: Se você precisar continuar usando o MLflow 2, consulte soluções alternativas para manter o acesso aos seus dados.

Quando você implanta um agente de IA, o Databricks cria três tabelas de inferência que capturam automaticamente solicitações e respostas de e para seu agente. Essas tabelas ajudam a monitorar o desempenho, depurar problemas e analisar os comentários dos usuários.

Tabela de inferência Exemplo de nome da tabela do Azure Databricks Conteúdos da tabela
Carga útil {catalog_name}.{schema_name}.{model_name}_payload Cargas úteis brutas de solicitação e resposta JSON
Registos de pedidos de carga útil {catalog_name}.{schema_name}.{model_name}_payload_request_logs Solicitação e respostas formatadas. Rastreamentos MLflow.
Derivado da tabela de carga bruta.
Registos de avaliação de carga {catalog_name}.{schema_name}.{model_name}_payload_assessment_logs Comentários formatados, conforme fornecidos no aplicativo Avaliações, para cada solicitação
Derivado da tabela de carga bruta.
  • Os dados JSON brutos entram na tabela de carga dentro de uma hora após o agente receber uma solicitação.
  • Os logs de solicitação e as tabelas de logs de avaliação processam e formatam dados da tabela de carga útil. Isso leva mais tempo.
  • Você pode extrair e processar dados manualmente da tabela de carga útil, se necessário.
  • As alterações na tabela de carga (exclusões ou atualizações) não são sincronizadas automaticamente com as tabelas derivadas.

O que está mudando?

O Databricks não preenche mais automaticamente as payload_request_logs tabelas e payload_assessment_logs .

O que ainda funciona: a tabela bruta payload continua a receber dados de novas solicitações.

Migre para o MLflow 3 e use o rastreamento em tempo real para unificar os logs do agente

A Databricks recomenda vivamente a migração de pontos de extremidade do agente para utilizar o MLflow 3. O rastreamento em tempo real do MLflow 3 elimina a necessidade de tabelas separadas request_logs e assessment_logs, unificando todos os logs do agente em um único local de traço.

Observabilidade do legado MLflow 3 Observabilidade
Latência da recolha de dados 1+ horas <10 segundos
Organização de Dados Os rastreamentos e comentários dos usuários (avaliações) são extraídos em tabelas separadas do Catálogo Unity (request_logs e assessment_logs). Todos os seus dados relacionados à observabilidade, como rastreamentos, feedback e avaliações, podem ser facilmente acessados no mesmo experimento.
Recolha de comentários Não tem bom suporte. Usa a API de feedback experimental, que coloca os dados na tabela de inferência do payload. O MLflow 3 fornece APIs simplificadas para executar a avaliação, a rotulagem humana e o gerenciamento de conjuntos de dados de avaliação.
Monitorização Não tem bom suporte. O suporte é limitado ao monitoramento herdado agora obsoleto, que era limitado a juízes internos herdados e juízes de diretrizes, e não tem suporte a métricas personalizadas.
O monitoramento legado é realizado sobre os registos de pedidos de carga, o que significa que as respostas do agente levarão mais de 1 hora para serem avaliadas.
A monitorização é integrada nativamente com o MLflow 3, suportando qualquer Scorer:
  • Marcadores integrados
  • Avaliador de código personalizado
  • Juízes personalizados

Inclui recursos de preenchimento de métricas para aplicar retroativamente novas métricas a rastreamentos históricos.
Os traços são lidos do MLflow para avaliação, diminuindo a latência da monitorização para 15 a 30 minutos.

O MLflow 3 anexa avaliações a rastreamentos e, em seguida, registra os rastreamentos no servidor de rastreamento do MLflow, juntamente com todos os logs de carga útil, de resposta e das etapas intermédias. Veja Rótulo durante o desenvolvimento e Conceitos & modelo de dados.

Etapas de migração

  1. Atualize para o MLflow 3: verifique se o agente usa o MLflow 3.1.3 ou superior. O rastreamento será ativado automaticamente quando você implantar agentes com MLflow 3.
# Install prerequisites
%pip install mlflow>=3.1.3

# Restart Python to make sure the new packages are picked up
dbutils.library.restartPython()
  1. Registre seu agente: registre o agente como faria normalmente, certificando-se de que ele requer MLflow 3.1.3 ou superior. Em seguida, registre o modelo na UC.
# Log your agent
with mlflow.start_run():
    logged_agent_info = mlflow.pyfunc.log_model(
        name="my_agent",
        pip_requirements=[
            "mlflow>=3.1.3",
        ],
        ...
    )

# Register your model to UC
uc_registered_model_info = mlflow.register_model(
    model_uri=logged_agent_info.model_uri, name=UC_MODEL_NAME
)
  1. Implante seu agente: Implante o agente como faria normalmente. Opcionalmente, defina seu experimento MLflow antes da implantação para controlar onde os rastreamentos são registrados. Se você não fizer isso, os rastreamentos serão registrados no experimento MLflow atualmente ativo.
import mlflow
from databricks import agents

# Set experiment for trace logging
mlflow.set_experiment("/path/to/your/experiment")

# Deploy with automatic tracing
deployment = agents.deploy(uc_model_name, uc_model_info.version)

# Retrieve the query endpoint URL for making API requests
deployment.query_endpoint

Observação

Atualmente, o MLflow 3 suporta até 100.000 traços por endpoint de serviço. Se você prevê precisar de limites mais altos, entre em contato com sua equipe de conta Databricks.

Consulte Agentes de rastreio implementados no Databricks para mais informações.

Opções alternativas para continuar usando o MLflow 2

Importante

Os métodos alternativos MLflow 2 não suportam endpoints com a monitorização de agente ativada. Se usares monitorização, deves migrar para o MLflow 3 e recriar os teus monitores como pontuadores do MLflow 3.

Se não for possível atualizar para o MLflow 3, o Databricks continuará a preencher a tabela bruta payload . No entanto, o Databricks não processa mais esses dados nas tabelas payload_requests_logs e payload_assessment_logs.

Em vez disso, o Databricks gera visualizações sobre suas tabelas de carga útil que fornecem os mesmos dados formatados. Você tem duas opções para acessar esses dados. Use os modos de exibição fornecidos ou crie modos de exibição materializados.

Opção 1: Utilizar as vistas fornecidas

O método mais simples é usar as exibições payload_request_logs_view geradas e payload_assessment_logs_view no lugar das tabelas preteridas.

Essas exibições consultam a tabela de carga para fornecer os mesmos dados formatados e funcionam imediatamente, sem necessidade de configuração.

Opcionalmente, renomeie os modos de exibição para corresponder aos nomes da tabela original para minimizar as alterações de código.

Opção 2: Criar vistas materializadas

As visualizações fornecidas (payload_request_logs_view e payload_assessment_logs_view) computam dados em tempo real consultando a tabela de carga útil. Para cenários que exigem tabelas Delta físicas, como monitoramento em tempo real, crie exibições materializadas.

Execute o seguinte bloco de notas para converter as suas vistas em vistas materializadas:

Criar visões materializadas para logs do agente de inferência

Obter caderno

Perguntas frequentes

O que acontece aos dados nos meus registos de pedidos e registos de avaliação existentes?

Os dados existentes em suas tabelas de inferência continuarão acessíveis. No entanto, após 4 de dezembro de 2025, nenhum novo dado será preenchido nas tabelas request_logs e assessment_logs.

A implantação do meu agente falha?

Não, as suas implantações de agentes antigos continuam a funcionar, e as suas tabelas de inferência de dados continuam a ser preenchidas. No entanto, após as datas de descontinuação, você não receberá dados nas tabelas request_logs e assessment_logs. Use as exibições fornecidas ou migre para o MLflow 3 para manter a funcionalidade equivalente.

Se precisar de ajuda com a migração, entre em contato com a equipe de suporte do Databricks.

O que vem por aí