Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Usługa Azure Content Understanding w narzędziach Foundry używa wdrożeń modelu Foundry dla wszystkich operacji wymagających modelu generowania sztucznej inteligencji. Takie podejście pozwala zmaksymalizować wykorzystanie przyznanej pojemności i zagregować ją do mniejszej liczby wdrożeń, jeśli to konieczne. Możesz również wybrać model, który najlepiej pasuje do twojego scenariusza w przypadku cen i opóźnień.
Opłaty są naliczane za wszystkie tokeny (dane wejściowe i wyjściowe) przetwarzane przez połączone wdrożenie, a Content Understanding rozlicza tylko za mierniki specyficzne dla Content Understanding. Zobacz objaśnienie cen , aby dowiedzieć się więcej na temat modelu rozliczeń.
Usługa wymaga modelu chat completion i modelu embeddings, a także obsługuje kilka różnych opcji dla każdego z nich.
Obsługiwane modele
Usługa jest okresowo aktualizowana w celu dodania obsługi większej liczby modeli. Obecnie obsługiwane modele można znaleźć w artykule Limity usług — obsługiwane modele generowania.
Ustawianie domyślnych wdrożeń na poziomie zasobu
Domyślne wdrożenia modelu można zdefiniować na poziomie zasobu przy użyciu PATCH żądania. Po ustawieniu wartości domyślnych nie trzeba przesyłać wdrożeń modelu z każdym żądaniem analizatora.
Krok 1: Ustaw domyślne wdrożenia w zasobie.
PATCH /contentunderstanding/defaults
{
// Specify the default model deployments for each completion and embedding model you plan to use
"modelDeployments": {
// This dictionary is formatted as "model name": "deployment name"
"gpt-4.1": "gpt-4.1-deployment",
"gpt-4.1-mini": "gpt-4.1-mini",
"text-embedding-3-large": "text-embedding-3-large-deployment",
"text-embedding-ada-002": "text-embedding-ada-002"
}
}
Krok 2. Wywoływanie analizatora bez określania wdrożeń modelu.
POST /myReceipt:analyze
{
// No modelDeployments needed - uses resource defaults
}
Jeśli w zasobie zdefiniowano wartości domyślne, nadal można je zastąpić dla określonego żądania, podając modelDeployments w wywołaniu analizy.
Definiowanie modeli dla analizatora
Podczas tworzenia analizatora niestandardowego określ, które modele uzupełniania czatu i osadzania ma używać analizator. Ta konfiguracja zapewnia elastyczność wybierania modelu, który zapewnia najlepsze wyniki przy najniższym koszcie. Definicja analizatora kojarzy nazwę modelu z definicją analizatora, ale nie z konkretnym wdrożeniem modelu.
{
"analyzerId": "myReceipt",
"models": {
// Specifies the completion and embedding models used by this analyzer.
"completion": "gpt-4.1",
"embedding": "text-embedding-ada-002"
},
"config": {
}
// Complete analyzer definition
}
Wskazówka
GPT-4.1 jest zalecanym modelem do użycia z usługą Foundry i programem Studio. Oprócz biblioteki GPT-4.1 można eksperymentować lub używać dowolnego z obsługiwanych modeli uzupełniania czatu. Modele osadzania są używane podczas używania oznaczonych etykietami przykładów lub uczenia kontekstowego w celu poprawy jakości analizatora.
Przetestuj analizator i przejrzyj użycie
Po przesłaniu żądania analizy dla analizatora obiekt odpowiedzi zawiera usage właściwość. Ta właściwość zawiera informacje o tokenach używanych we wdrożeniu oraz innych wykorzystaniach fakturowania związanych z analizatorem. Te dane można zweryfikować względem danych użycia we wdrożeniu, aby skorelować użycie z usługi Content Understanding z wdrożeniem modelu.
{
"usage": {
"documentPagesMinimal": 3,
"documentPagesBasic": 2,
"documentPagesStandard": 1,
"audioHours": 0.234,
"videoHours": 0.123,
"contextualizationToken": 1000,
"tokens": {
"gpt-4.1-input": 1234, /*Completion model Input and output tokens consumed*/
"gpt-4.1-output": 2345,
"text-embedding-3-large": 3456 /*Embedding tokens consumed*/
}
}
}
Aby uzyskać szczegółowe informacje na temat sposobu działania rozliczeń dla usługi Content Understanding, zobacz objaśnienie cen.