Udostępnij przez


Łączenie analizatora usługi Content Understanding z wdrożeniami modelu rozwiązania Foundry

Usługa Azure Content Understanding w narzędziach Foundry używa wdrożeń modelu Foundry dla wszystkich operacji wymagających modelu generowania sztucznej inteligencji. Takie podejście pozwala zmaksymalizować wykorzystanie przyznanej pojemności i zagregować ją do mniejszej liczby wdrożeń, jeśli to konieczne. Możesz również wybrać model, który najlepiej pasuje do twojego scenariusza w przypadku cen i opóźnień.

Opłaty są naliczane za wszystkie tokeny (dane wejściowe i wyjściowe) przetwarzane przez połączone wdrożenie, a Content Understanding rozlicza tylko za mierniki specyficzne dla Content Understanding. Zobacz objaśnienie cen , aby dowiedzieć się więcej na temat modelu rozliczeń.

Usługa wymaga modelu chat completion i modelu embeddings, a także obsługuje kilka różnych opcji dla każdego z nich.

Obsługiwane modele

Usługa jest okresowo aktualizowana w celu dodania obsługi większej liczby modeli. Obecnie obsługiwane modele można znaleźć w artykule Limity usług — obsługiwane modele generowania.

Ustawianie domyślnych wdrożeń na poziomie zasobu

Domyślne wdrożenia modelu można zdefiniować na poziomie zasobu przy użyciu PATCH żądania. Po ustawieniu wartości domyślnych nie trzeba przesyłać wdrożeń modelu z każdym żądaniem analizatora.

Krok 1: Ustaw domyślne wdrożenia w zasobie.

PATCH /contentunderstanding/defaults
{
  // Specify the default model deployments for each completion and embedding model you plan to use
  "modelDeployments": {
    // This dictionary is formatted as "model name": "deployment name"
    "gpt-4.1": "gpt-4.1-deployment",
    "gpt-4.1-mini": "gpt-4.1-mini",
    "text-embedding-3-large": "text-embedding-3-large-deployment",
    "text-embedding-ada-002": "text-embedding-ada-002"
  }
}

Krok 2. Wywoływanie analizatora bez określania wdrożeń modelu.

POST /myReceipt:analyze
{
  // No modelDeployments needed - uses resource defaults
}

Jeśli w zasobie zdefiniowano wartości domyślne, nadal można je zastąpić dla określonego żądania, podając modelDeployments w wywołaniu analizy.

Definiowanie modeli dla analizatora

Podczas tworzenia analizatora niestandardowego określ, które modele uzupełniania czatu i osadzania ma używać analizator. Ta konfiguracja zapewnia elastyczność wybierania modelu, który zapewnia najlepsze wyniki przy najniższym koszcie. Definicja analizatora kojarzy nazwę modelu z definicją analizatora, ale nie z konkretnym wdrożeniem modelu.

{
  "analyzerId": "myReceipt",
  "models": {
    // Specifies the completion and embedding models used by this analyzer. 
    "completion": "gpt-4.1",
    "embedding": "text-embedding-ada-002"
  },
  "config": {
    
  }
  // Complete analyzer definition
}

Wskazówka

GPT-4.1 jest zalecanym modelem do użycia z usługą Foundry i programem Studio. Oprócz biblioteki GPT-4.1 można eksperymentować lub używać dowolnego z obsługiwanych modeli uzupełniania czatu. Modele osadzania są używane podczas używania oznaczonych etykietami przykładów lub uczenia kontekstowego w celu poprawy jakości analizatora.

Przetestuj analizator i przejrzyj użycie

Po przesłaniu żądania analizy dla analizatora obiekt odpowiedzi zawiera usage właściwość. Ta właściwość zawiera informacje o tokenach używanych we wdrożeniu oraz innych wykorzystaniach fakturowania związanych z analizatorem. Te dane można zweryfikować względem danych użycia we wdrożeniu, aby skorelować użycie z usługi Content Understanding z wdrożeniem modelu.

{
  "usage": {
    "documentPagesMinimal": 3, 
    "documentPagesBasic": 2, 
    "documentPagesStandard": 1, 
    "audioHours": 0.234,
    "videoHours": 0.123,
    "contextualizationToken": 1000,
    "tokens": {
      "gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
      "gpt-4.1-output": 2345,
      "text-embedding-3-large": 3456 /*Embedding tokens consumed*/
    }
  }
}

Aby uzyskać szczegółowe informacje na temat sposobu działania rozliczeń dla usługi Content Understanding, zobacz objaśnienie cen.