Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O Mosaic AI Model Serving fornece ferramentas avançadas para monitorar a qualidade e a integridade dos modelos e suas implantações. A tabela a seguir é uma visão geral de cada ferramenta de monitoramento disponível.
| Ferramenta | Descrição | Finalidade | Access |
|---|---|---|---|
| Logs de serviço | As capturas stdout e stderr transmitem do ponto de extremidade do serviço do modelo. |
Isso é útil para depuração durante a implantação do modelo. Use logging.warning(...) ou logging.error(...) para exibição imediata nos logs. |
Acessível por meio da guia Logs na interface do usuário de serviço. Os logs são transmitidos em tempo real e podem ser exportados por meio da API. |
| Logs de build | Exibe a saída do processo que cria automaticamente um ambiente Python pronto para produção para o ponto de extremidade de serviço do modelo. | Útil para diagnosticar problemas de implantação e dependência de modelo. | Disponível após a conclusão do modelo que serve o build em Logs de build na guia Logs. Os logs podem ser exportados por meio da API. Esses logs são mantidos por até trinta (30) dias. |
| Métricas de integridade do ponto de extremidade | Fornece insights sobre métricas de infraestrutura, como latência, taxa de solicitação, taxa de erro, uso da CPU e uso de memória. | Isso é importante para entender o desempenho e a integridade da infraestrutura de serviço. | Disponível por padrão na interface do usuário de serviço nos últimos 14 dias. Os dados também podem ser transmitidos para ferramentas de observabilidade em tempo real. |
| Tabelas de inferência habilitadas para gateway de IA | Registra automaticamente solicitações e respostas de previsão online em tabelas Delta gerenciadas pelo Catálogo do Unity para endpoints que atendem modelos personalizados, modelos externos ou cargas de trabalho de taxa de transferência provisionadas. | Use essa ferramenta para monitorar e depurar a qualidade ou respostas do modelo, gerar conjuntos de dados de treinamento ou realizar auditorias de conformidade. | Pode ser habilitado para pontos de extremidade de serviço de modelo existentes e novos ao habilitar os recursos do Gateway de IA usando a Interface do Usuário de Serviço ou a API REST. |
Dica
Use essas ferramentas de monitoramento para identificar gargalos de desempenho e otimizar seus pontos de extremidade. Para obter estratégias de otimização abrangentes, consulte Otimizar pontos de extremidade de serviço de modelo para produção.