次の方法で共有


Content Understanding アナライザーを Foundry モデルのデプロイに接続する

Foundry Tools の Azure Content Understanding では、Generative AI モデルを必要とするすべての操作に Foundry モデルのデプロイが使用されます。 この方法を使用すると、プロビジョニングされた容量の使用を最大化し、必要に応じて容量を少ないデプロイに集約できます。 また、価格と待機時間に最適なシナリオに合ったモデルを選択することもできます。

接続されたデプロイによって処理されたすべてのトークン (入力と出力) に対して課金され、コンテンツの解釈ではコンテンツの解釈に固有のメーターについてのみ課金されます。 課金モデルの詳細については、 価格の説明を 参照してください。

このサービスには、 chat completion モデルと embeddings モデルが必要であり、それぞれに対していくつかの異なるオプションがサポートされています。

サポートされているモデル

サービスは定期的に更新され、より多くのモデルのサポートが追加されます。 現在サポートされているモデルは、「 サービス制限 - サポートされている生成モデル」で確認できます。

リソース レベルで既定のデプロイを設定する

PATCH要求を使用して、リソース レベルで既定のモデル デプロイを定義できます。 既定値を設定する場合、すべてのアナライザー要求でモデルのデプロイを渡す必要はありません。

手順 1: リソースの既定のデプロイを設定します。

PATCH /contentunderstanding/defaults
{
  // Specify the default model deployments for each completion and embedding model you plan to use
  "modelDeployments": {
    // This dictionary is formatted as "model name": "deployment name"
    "gpt-4.1": "gpt-4.1-deployment",
    "gpt-4.1-mini": "gpt-4.1-mini",
    "text-embedding-3-large": "text-embedding-3-large-deployment",
    "text-embedding-ada-002": "text-embedding-ada-002"
  }
}

手順 2: モデルのデプロイを指定せずにアナライザーを呼び出します。

POST /myReceipt:analyze
{
  // No modelDeployments needed - uses resource defaults
}

リソースに既定値が定義されている場合でも、分析呼び出しで modelDeployments を指定することで、特定の要求に対してオーバーライドできます。

アナライザーのモデルを定義する

カスタム アナライザーを作成するときに、アナライザーで使用するチャット完了モデルと埋め込みモデルを指定します。 この構成により、最適な結果を最も低いコストで提供するモデルを柔軟に選択できます。 アナライザー定義は、モデル名をアナライザー定義に関連付けますが、特定のモデルデプロイには関連付けません。

{
  "analyzerId": "myReceipt",
  "models": {
    // Specifies the completion and embedding models used by this analyzer. 
    "completion": "gpt-4.1",
    "embedding": "text-embedding-ada-002"
  },
  "config": {
    
  }
  // Complete analyzer definition
}

ヒント

GPT-4.1 は、Foundry と Studio で使用するための推奨モデルです。 GPT-4.1 に加えて、サポートされているチャット完了モデルを試したり使用したりできます。 埋め込みモデルは、アナライザーの品質を向上させるためにラベル付けされたサンプルまたはコンテキスト内学習を使用する場合に使用されます。

アナライザーをテストし、使用状況を確認する

アナライザーの分析要求を送信すると、応答オブジェクトには usage プロパティが含まれます。 このプロパティには、デプロイで使用されるトークンと、アナライザーによって発生するその他の課金使用量に関する情報が含まれます。 このデータをデプロイの使用状況データと照らして検証して、Content Understanding の使用状況をモデルのデプロイと関連付けることができます。

{
  "usage": {
    "documentPagesMinimal": 3, 
    "documentPagesBasic": 2, 
    "documentPagesStandard": 1, 
    "audioHours": 0.234,
    "videoHours": 0.123,
    "contextualizationToken": 1000,
    "tokens": {
      "gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
      "gpt-4.1-output": 2345,
      "text-embedding-3-large": 3456 /*Embedding tokens consumed*/
    }
  }
}

Content Understanding の課金のしくみの詳細については、 価格の説明を参照してください。