Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O Azure Content Understanding in Foundry Tools usa suas implantações de modelo do Foundry para todas as operações que exigem um modelo de IA generativo. Essa abordagem permite maximizar o uso da capacidade provisionada e agregar capacidade em menos implantações, se necessário. Você também pode escolher o modelo que se ajusta melhor ao seu cenário para preço e latência.
Você é cobrado por todos os tokens (entrada e saída) processados pela implantação conectada, e a Compreensão de conteúdo cobra apenas por unidades de medição específicas da Compreensão de conteúdo. Consulte o explicador de preços para saber mais sobre o modelo de cobrança.
O serviço requer modelos chat completion e embeddings e oferece suporte a várias opções diferentes para cada um.
Modelos com suporte
O serviço é atualizado periodicamente para adicionar suporte para mais modelos. Os modelos com suporte no momento podem ser encontrados em Limites de Serviço – Modelos generativos com suporte.
Definir implantações padrão no nível do recurso
Você pode definir implantações de modelo padrão no nível do recurso usando uma solicitação PATCH . Quando você define padrões, não precisa passar implantações de modelo a cada solicitação do analisador.
Etapa 1: Defina as implantações padrão no recurso.
PATCH /contentunderstanding/defaults
{
// Specify the default model deployments for each completion and embedding model you plan to use
"modelDeployments": {
// This dictionary is formatted as "model name": "deployment name"
"gpt-4.1": "gpt-4.1-deployment",
"gpt-4.1-mini": "gpt-4.1-mini",
"text-embedding-3-large": "text-embedding-3-large-deployment",
"text-embedding-ada-002": "text-embedding-ada-002"
}
}
Etapa 2: Chame o analisador sem especificar implantação de modelos.
POST /myReceipt:analyze
{
// No modelDeployments needed - uses resource defaults
}
Quando você tiver padrões definidos no recurso, você ainda pode substituí-los por uma solicitação específica fornecendo modelDeployments na chamada de análise.
Definir modelos para o analisador
Quanto você criar um analisador personalizado, especifique quais modelos de preenchimento e incorporação de chat o analisador deve usar. Essa configuração fornece a flexibilidade de escolher um modelo que fornece os melhores resultados com o menor custo. A definição do analisador associa um nome de modelo à definição do analisador, mas não a uma implantação de modelo específica.
{
"analyzerId": "myReceipt",
"models": {
// Specifies the completion and embedding models used by this analyzer.
"completion": "gpt-4.1",
"embedding": "text-embedding-ada-002"
},
"config": {
}
// Complete analyzer definition
}
Dica
GPT-4.1 é um modelo recomendado para uso com o Foundry e o Studio. Você pode experimentar ou usar qualquer um dos modelos de conclusão de chat com suporte, além do GPT-4.1. Os modelos de incorporações são usados quando você usa exemplos rotulados ou aprendizado no contexto para melhorar a qualidade do analisador.
Testar o analisador e examinar o uso
Quando você envia uma solicitação de análise para o analisador, o objeto de resposta contém uma usage propriedade. Essa propriedade inclui informações sobre tokens consumidos na sua implantação e outros usos de cobrança incorridos pelo analisador. Você pode validar esses dados em relação aos dados de uso na implantação para correlacionar o uso do Content Understanding com a implantação do modelo.
{
"usage": {
"documentPagesMinimal": 3,
"documentPagesBasic": 2,
"documentPagesStandard": 1,
"audioHours": 0.234,
"videoHours": 0.123,
"contextualizationToken": 1000,
"tokens": {
"gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
"gpt-4.1-output": 2345,
"text-embedding-3-large": 3456 /*Embedding tokens consumed*/
}
}
}
Para obter detalhes sobre como a cobrança funciona para o Content Understanding, consulte o explicador de preços.