你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

将内容理解分析器连接到 Foundry 模型部署

在 Foundry 工具中,Azure 内容分析使用您的 Foundry 模型部署来执行所有需要生成 AI 模型的操作。 此方法使你能够最大限度利用已预配的容量,并在需要时将容量合并为较少的部署。 还可以选择最适合你的方案的价格和延迟的模型。

你需要为连接部署处理的所有标记(输入和输出)支付费用,而内容理解仅对与内容理解相关的特定计量进行收费。 请参阅 定价说明, 了解有关计费模型的详细信息。

该服务需要一个 chat completion 模型和 embeddings 模型,并且支持一些不同的选项。

支持的模型

该服务会定期更新,以添加对更多模型的支持。 当前支持的模型可在 服务限制 - 支持的生成模型中找到。

在资源级别设置默认部署

可以通过使用PATCH请求在资源级定义默认模型部署。 设置默认值时,无需在每个分析器请求中传递模型部署。

步骤 1: 在资源上设置默认部署。

PATCH /contentunderstanding/defaults
{
  // Specify the default model deployments for each completion and embedding model you plan to use
  "modelDeployments": {
    // This dictionary is formatted as "model name": "deployment name"
    "gpt-4.1": "gpt-4.1-deployment",
    "gpt-4.1-mini": "gpt-4.1-mini",
    "text-embedding-3-large": "text-embedding-3-large-deployment",
    "text-embedding-ada-002": "text-embedding-ada-002"
  }
}

步骤 2: 在不指定模型部署的情况下调用分析器。

POST /myReceipt:analyze
{
  // No modelDeployments needed - uses resource defaults
}

在资源上定义了默认值时,您仍然可以在分析调用中通过提供 modelDeployments 来覆盖这些默认值,以适用于特定请求。

为分析器定义模型

创建自定义分析器时,请指定分析器应使用的聊天完成和嵌入模型。 此配置提供了选择模型的灵活性,该模型以最低的成本提供最佳结果。 分析器定义将模型名称与分析器定义相关联,但不将特定模型部署相关联。

{
  "analyzerId": "myReceipt",
  "models": {
    // Specifies the completion and embedding models used by this analyzer. 
    "completion": "gpt-4.1",
    "embedding": "text-embedding-ada-002"
  },
  "config": {
    
  }
  // Complete analyzer definition
}

小窍门

GPT-4.1 是用于 Foundry 和 Studio 的建议模型。 除了 GPT-4.1 之外,还可以试验或使用任何受支持的聊天完成模型。 在使用带标签的样本或上下文学习提高分析器质量时,会使用嵌入模型。

测试分析器并查看使用情况

提交分析器分析请求时,响应对象包含一个 usage 属性。 此属性包括在你的部署中消耗的标记以及由分析器产生的其他计费使用的信息。 可以根据部署上的使用情况数据验证此数据,以将内容理解中的使用情况与模型部署相关联。

{
  "usage": {
    "documentPagesMinimal": 3, 
    "documentPagesBasic": 2, 
    "documentPagesStandard": 1, 
    "audioHours": 0.234,
    "videoHours": 0.123,
    "contextualizationToken": 1000,
    "tokens": {
      "gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
      "gpt-4.1-output": 2345,
      "text-embedding-3-large": 3456 /*Embedding tokens consumed*/
    }
  }
}

有关内容理解计费工作原理的详细信息,请参阅定价说明。