Udostępnij przez


Cennik usługi Azure Content Understanding w narzędziach Foundry

W tym artykule wyjaśniono model cen usługi Azure Content Understanding w narzędziu Foundry Tools z przejrzystymi przykładami i podziałami kosztów. Dowiedz się, za co są naliczane opłaty i jak oszacować koszty obciążenia.

Aby uzyskać szczegółowe stawki cenowe, zobacz Cennik usługi Azure Content Understanding.

Omówienie dwóch typów opłat

Cennik usługi Azure Content Understanding jest oparty na dwóch głównych kategoriach użycia:

1. Opłaty za wyodrębnianie zawartości

Wyodrębnianie zawartości przekształca dane wejściowe bez struktury (dokumenty, dźwięk, wideo) na ustrukturyzowany, wyszukiwany tekst i zawartość. Te dane wyjściowe obejmują optyczne rozpoznawanie znaków (OCR) dla dokumentów, zamiany mowy na tekst na potrzeby audio/wideo i wykrywania układu. Płacisz za jednostkę wejściową przetworzoną:

  • Dokumenty: na 1000 stron
  • Dźwięk i wideo: na minutę

2. Opłaty za funkcje generowania

W przypadku używania funkcji opartych na sztucznej inteligencji, które wykorzystują duże modele językowe (LLM), naliczane są dwa typy opłat.

  • Opłaty za kontekstualizację: przygotowuje kontekst, generuje miary zaufania, połączenia ze źródłem, oraz formatowanie danych wyjściowych. Aby uzyskać szczegółowe informacje, zobacz Tokeny kontekstowe.
  • Opłaty za model generowania: koszty oparte na tokenach z wdrożeń modeli rozwiązania Microsoft Foundry (LLMs for generation, embeddings for training examples). Usługa Content Understanding wykorzystuje zastosowanie modelu Foundry dla wszystkich wywołań związanych z generatywną sztuczną inteligencją. W usłudze Content Understanding nie będzie widoczny żaden moduł LLM ani osadzanie rozliczeń użycia tokenu — użycie jest wyświetlane we wdrożeniu modelu Foundry. Aby uzyskać szczegółowe informacje, zobacz Opłaty za model generatywny.

Funkcje generowania obejmują: wyodrębnianie pól, analiza danych, segmentacja, kategoryzacja, trenowanie.

Równanie kosztów

Łączny koszt uruchomienia analizatora „Content Understanding” określa się według następującego wzoru:

Total Cost = Content Extraction + Contextualization Tokens + LLM Input Tokens + LLM Output Tokens + Embeddings Tokens

Jeśli używasz wyodrębniania zawartości tylko bez możliwości generowania, opłaty są naliczane tylko za wyodrębnianie zawartości. W przypadku korzystania z funkcji generowania obowiązują wszystkie odpowiednie opłaty.

Jak oszacować koszty

1. Testowanie z reprezentatywnymi plikami

Przeprowadź małą analizę testową z rzeczywistymi plikami i schematem. usage Sprawdź obiekt w odpowiedzi interfejsu API Analizatory, aby zobaczyć rzeczywiste użycie tokenu:

  "usage": {
    "documentPagesMinimal": 0, // Pages processed at the minimal level (i.e. txt, xlsx, html, and other digital file types)
    "documentPagesBasic": 0, // Pages processed at the basic level (i.e. read)
    "documentPagesStandard": 2, // Pages processed at the standard level (i.e. layout)
   
    "contextualizationToken": 2000,
    "tokens": {
      "gpt-4.1-input": 10400,
      "gpt-4.1-output": 360,
    }
  }

2. Korzystanie z kalkulatora cen platformy Azure

Znajdź informacje o zawartości w kalkulatorze cen platformy Azure i skonfiguruj ustawienia:

  • Dodawanie aplikacji "Content Understanding" do kalkulatora
  • Użyj wyników testu z kroku 1, aby obliczyć średnią liczbę tokenów na stronę lub na minutę
  • Wprowadź liczbę tokenów wraz z regionem, typem pliku, oczekiwanym woluminem i wdrożeniem modelu

Kalkulator zapewnia dokładne prognozy kosztów dla Twojego obciążenia roboczego.

Przykład ustalania ceny: wyodrębnianie pól faktury

Po podejściu do szacowania omówimy konkretny przykład ręcznie, aby zademonstrować sposób obliczania kosztów. Przetwarzasz faktury, aby wyodrębnić dane ustrukturyzowane, takie jak nazwa dostawcy, numer faktury, łączna kwota i elementy wiersza.

Scenariusz: chcesz przetworzyć 1000 stron faktur przy użyciu GPT-4o-mini z wyłączonymi opcjami osadzenia źródła i wyników pewności.

Krok 1. Testowanie przy użyciu plików reprezentatywnych Po przetestowaniu plików reprezentatywnych znaleziono następujące średnie użycie tokenu na stronę:

  • Tokeny wejściowe: 1100 na stronę
  • Tokeny wyjściowe: 60 na stronę
  • Kontekstualizacja: 1 000 tokenów na stronę (stała stawka)

W przypadku 1000 stron suma jest równa:

  • Łączna liczba tokenów wejściowych: 1000 stron × 1100 = 1100 000 tokenów
  • Łączna liczba tokenów wyjściowych: 1000 stron × 60 = 60 000 tokenów
  • Łączna liczba tokenów kontekstowych: 1000 stron × 1000 = 1000 000 tokenów

Krok 2. Ręczne obliczanie kosztów (zamiast korzystania z kalkulatora cen) Korzystanie z wdrożenia globalnego GPT-4o-mini z następującymi założeniami cenowymi:

Założenia dotyczące cen :

  • Wyodrębnianie zawartości: 5,00 USD za 1000 stron
  • Kontekstualizacja: 1,00 USD za 1 milion tokenów
  • Tokeny wejściowe GPT-4o-mini: 0,40 USD za 1 mln tokenów
  • Tokeny wyjściowe GPT-4o-mini: 1,60 USD za 1 mln tokenów
  • Wbudowania: 0,02 USD za 1000 tokenów. Nie używasz bazy wiedzy z przykładami szkoleniowymi, więc nie mają zastosowania opłaty za osadzanie. Jeśli dodano oznaczone przykłady w celu zwiększenia dokładności, system doda użycie tokenów osadzania do osadzenia pełnego tekstu z dokumentów wejściowych, a także tokenów uzupełniających do przetwarzania przykładowych danych dodanych do kontekstowego okna.

Obliczanie kosztów:

  • Wyodrębnianie zawartości: 1000 stron × $5.00 na 1000 stron = $5.000
  • Kontekstualizacja: 1 000 000 tokenów × 1,00 USD za 1 000 000 tokenów = 1,00 USD
  • Tokeny wejściowe: 1100 000 tokenów × 0,40 USD za 1 mln tokenów = 0,44 USD
  • Tokeny wyjściowe: 60 000 tokenów × 1,60 USD za 1 mln tokenów = 0,10 USD
  • Osadzanie: nieużywane = $0.00
Total Cost = $5.00 + $1.00 + $0.44 + $0.10 + $0.00 = $6.54 per 1000 pages

Uwaga / Notatka

Ceny te są przeznaczone tylko do celów ilustracyjnych i nie są przeznaczone do reprezentowania rzeczywistego kosztu. Sprawdź cennik usługi Azure Content Understanding i cennik usługi Azure OpenAI pod kątem bieżących stawek

Szczegółowe składniki kosztów

Wyodrębnianie zawartości

Wyodrębnianie zawartości jest pierwszym krokiem przekształcania danych wejściowych bez struktury — niezależnie od tego, czy jest to dokument, dźwięk czy wideo — w standardowym formacie wielokrotnego użytku. To podstawowe przetwarzanie jest wymagane dla wszystkich funkcji generowania i może być używane autonomicznie.

Ceny wyodrębniania zawartości według modalności:

  • Dokumenty: trzystopniowe metry (minimalny, podstawowy lub standardowy) na podstawie złożoności przetwarzania
  • Dźwięk: Transkrypcja konwersji mowy na tekst (standardowa jednostka miary, rozliczenie za minutę)
  • Wideo: wyodrębnianie ramek, detekcja ujęć i transkrypcja mowy na tekst (pojedynczy standardowy licznik, cena za minutę)
  • Obrazy: Brak opłat za wyodrębnianie zawartości

Mierniki wyodrębniania zawartości dokumentu

W przypadku dokumentów są naliczane opłaty za typ przetwarzania wykonywanego przez usługę Content Understanding:

Miernik podstawowy: ma zastosowanie, gdy usługa Content Understanding wykonuje przetwarzanie OCR w celu wyodrębniania tekstu z dokumentów opartych na obrazach (zeskanowanych plików PDF, obrazów, plików TIFF).

Miernik standardowy: ma zastosowanie, gdy usługa Content Understanding przeprowadza analizę układu, w tym rozpoznawanie tabel i wykrywanie elementów strukturalnych z dokumentów opartych na obrazach (zeskanowanych plików PDF, obrazów, plików TIFF).

Minimalny miernik: dotyczy dokumentów cyfrowych (DOCX, XLSX, HTML, TXT), w których nie jest wymagane przetwarzanie OCR ani układu. Opłaty są naliczane za minimalną stawkę niezależnie od tego, którego analizatora używasz — nawet jeśli wywołasz analizator układu w dokumencie cyfrowym, opłaty są naliczane tylko za minimalne przetwarzanie.

W poniższej tabeli przedstawiono, który miernik ma zastosowanie na podstawie typu pliku i poziomu analizy:

Typ pliku Odczyt (podstawowy) Układ (standardowy)
Oparte na obrazach (PDF, PNG, TIFF, JPG itp.) Miernik podstawowy Miernik standardowy
Formaty cyfrowe (DOCX, XLSX, HTML, TXT itp.) Minimalny miernik Minimalny miernik

Wskazówka

Opłata za miernik zależy od rzeczywistego wykonania przetwarzania usługi Content Understanding, a nie od wybranego analizatora. Dokumenty cyfrowe zawsze używają minimalnego formatu, ponieważ nie wymagają przetwarzania OCR ani przetwarzania układu stron.

Możliwości generowania

Generatywne możliwości Content Understanding wykorzystują generatywne modele AI, aby poprawić jakość wyników. W najnowszej wersji interfejsu API [2025-11-01], można wybrać model generowania na podstawie przypadku użycia (np. GPT-4o lub GPT-4o-mini).

W przypadku korzystania z dowolnych funkcji generatywnych, usługa Content Understanding będzie używać wdrożenia modeli Foundry, które podasz. Zastosowanie tokenów dla modeli uzupełniania lub modeli osadzeń będzie w ramach tego wdrożenia.

Tokeny kontekstowe

Kontekstualizacja jest warstwą przetwarzania w usłudze Content Understanding, która przygotowuje kontekst dla modeli generatywnych i przetwarza ich wyniki do końcowych, ustrukturyzowanych rezultatów.

Jaka kontekstyzacja zapewnia:

  • Normalizacja i formatowanie danych wyjściowych w schematach strukturalnych
  • Uziemienie źródła informacji w celu ukazania, skąd pochodzą informacje
  • Obliczanie wskaźnika ufności na potrzeby niezawodności wyodrębniania
  • Inżynieria kontekstu w celu optymalizacji użycia i dokładności usługi LLM

Kiedy są naliczane opłaty: Za każdym razem, gdy używasz zdolności generatywnych (wyodrębnianie pól, analiza danych, segmentacja, kategoryzacja, trenowanie).

Cennik: stała stawka na jednostkę zawartości

Tokeny kontekstowe są obliczane na jednostkę zawartości:

Units Tokeny kontekstowe Efektywna cena standardowa za jednostkę
1 strona 1000 tokenów kontekstowych $1 na 1000 stron
1 Obraz 1000 tokenów kontekstowych 1 USD za 1000 obrazów
1 godzina dźwięku 100 000 tokenów kontekstowych 0,10 USD na godzinę
1 godzina wideo 1000 000 tokenów kontekstowych $1 na godzinę

Przy założeniu kosztu 1 dolara za 1 milion tokenów kontekstowych.

Koszty modelu generującego (LLM)

Opłaty oparte na tokenach z modeli Foundry, które zasilają rzeczywiste wyodrębnianie, analizę i generatywne możliwości.

Tokeny wejściowe obejmują:

  • Wyodrębniony tekst i transkrypcje
  • Tokeny obrazów (na potrzeby analizy wizualnej)
  • Definicje schematu
  • Komunikaty systemowe
  • Przykłady szkoleń (w przypadku korzystania z bazy wiedzy)

Tokeny wyjściowe obejmują:

  • Wartości pól i dane ustrukturyzowane
  • Współczynniki ufności i uziemienia źródła
  • Wyniki i opisy analizy

Optymalizacja kosztów: wybierz mniejsze modele (GPT-4o-mini) lub wdrożenia globalne, aby uzyskać znaczne oszczędności.

Opłaty za osadzanie

Opłaty oparte na tokenach na potrzeby osadzania modeli używanych podczas trenowania analizatorów niestandardowych z oznaczonymi przykładami w celu zwiększenia dokładności.

  • Gdy jest naliczana opłata: tylko w przypadku korzystania z funkcji trenowania z danymi oznaczonymi etykietami
  • Modele: osadzanie tekstu-3-duże, osadzanie tekstu-3-małe lub osadzanie tekstu-ada-002
  • Typowe użycie: cały dokument jest osadzony. Użycie może się różnić w zależności od gęstości tekstu, ale ok. 1500 tokenów na stronę to dobre wstępne oszacowanie.

Szczegóły funkcji generatywnych

Istnieje kilka cech generujących, z których każda ma nieco inne konsekwencje związane z kosztami.

Wyodrębnianie pól

Generuje pary ustrukturyzowane klucz-wartość na podstawie definicji schematu. Przykłady obejmują nadawcę/odbiorcę faktury, elementy wiersza lub elementy reklamy wideo, takie jak tagline i wygląd produktu.

Wpływ na koszty: opłaty są skalowane ze złożonością schematu i rozmiarem zawartości.

Analiza rysunku

Tworzy tekst opisowy dla obrazów, wykresów i diagramów, aby umożliwić wyszukiwanie zawartości wizualnej w przepływach pracy RAG.

Wpływ na koszty: tokeny LLM na obraz przeanalizowany — zarówno tokeny wejściowe na potrzeby interpretacji obrazu, jak i tokeny wyjściowe dla opisów. Użycie jest skalowane z rozmiarem i liczbą obrazów zawartych w dokumencie.

Segmentacja

Dzieli dokumenty lub filmy wideo na sekcje logiczne na potrzeby ukierunkowanego przetwarzania i lepszej wydajności.

Wpływ na koszty: koszty tokenów wyjściowych dla każdego utworzonego segmentu. Opcjonalnie można łączyć analizatory w celu dalszej analizy poszczególnych segmentów. Podczas łączenia generujesz większą ilość operacji wyodrębniania treści i użycia generatywnego, co jest równoważne uruchamianiu analizatorów łańcuchowych niezależnie.

Kategoryzacja

Przypisuje etykiety do dokumentów lub segmentów na potrzeby klasyfikacji i inteligentnego routingu do wyspecjalizowanych analizatorów.

Wpływ na koszty: LLM i koszty kontekstowe klasyfikacji. Przekierowanie do innych analizatorów dodaje ich opłaty.

Training

Tworzy analizatory niestandardowe przy użyciu przykładów oznaczonych etykietami w celu ulepszenia dokładności specyficznej dla domeny.

Wpływ na koszty: Wykorzystanie tokenów przy dodawaniu oznaczonych danych oraz zwiększona liczba tokenów LLM podczas analizy, gdy przykłady treningowe są pobierane i dostarczane do modelu.

Baza wiedzy

Rozszerza niestandardowe analizatory o oznaczone przykładami szkoleniowymi, aby poprawić dokładność specyficzną dla domeny.

Wpływ na koszty: model osadzania służy do indeksowania i pobierania przykładów. Ponadto tokeny LLM są używane podczas analizy, gdy przykłady trenowania są pobierane i dostarczane do modelu.

Najczęściej zadawane pytania

Kiedy są naliczane opłaty za użycie usługi LLM?

Opłaty są naliczane za tokeny LLM tylko wtedy, gdy udostępniasz analizatorowi wdrożenie rozwiązania Foundry i używasz funkcji generowania w usłudze Content Understanding. Analizatory, które wykonują wyodrębnianie zawartości (np. prebuilt-read, prebuilt-layoutlub analizatory niestandardowe bez żadnych możliwości generowania) nie powodują naliczania opłat za usługę LLM.

Czy opłaty są naliczane dwukrotnie za użycie modelu Foundry?

Nie. Usługa Content Understanding używa wdrożeń LLM połączonych dla wszystkich wywołań LLM i osadzania. Opłaty są naliczane za te wdrożenia. Płacisz za usługę Content Understanding za wyodrębnianie i kontekstualizację zawartości oraz za Foundry za tokeny modelu generowania (tokeny wejściowe/wyjściowe i osadzanie).

Ile mogę zaoszczędzić dzięki mniejszym modelom?

Wybranie opcji GPT-4o-mini zamiast GPT-4o może zmniejszyć koszty LLM o maksymalnie 80%. Wdrożenia globalne zapewniają kolejne 9% oszczędności. Opłaty za wyodrębnianie zawartości i kontekstualizację pozostają takie same niezależnie od wyboru modelu.

Co zwiększa użycie tokenów?

Kilka funkcji mnoży użycie tokenu:

  • Uziemienie źródła i oceny zaufania: ~2x użycie tokenów
  • Tryb wyodrębniania: użycie tokenu ok. 1,5 x
  • Przykłady trenowania: użycie tokenu ok. 2x
  • Segmentacja/kategoryzacja: ~2x użycie tokenu

Czy opłaty są naliczane, jeśli moje żądanie zakończy się niepowodzeniem?

Usługa Content Understanding nie pobiera opłat za wyodrębnianie zawartości ani kontekstowość, gdy żądanie kończy się niepowodzeniem z powodu błędu (na przykład błędu 400). Jeśli jednak wywołanie modelu uzupełnienia Foundry zakończyło się pomyślnie w ramach tego żądania przed wystąpieniem błędu, zostanie naliczona opłata za użycie modelu Foundry na podstawie zasad rozliczeniowych Foundry.

Wskazówki dotyczące optymalizacji kosztów

  • Zacznij od mini modeli — GPT-4o-mini oferuje znaczne oszczędności dla większości zadań wyodrębniania
  • Używaj wdrożeń globalnych, gdy lokalizacja danych i zgodność z przepisami na to pozwalają.
  • Selektywne włączanie zaawansowanych funkcji — w razie potrzeby używaj odwołań do źródeł i ocen zaufania
  • Przetestuj pliki reprezentatywne przed skalowaniem, aby zrozumieć rzeczywiste użycie tokenu
  • Regularne monitorowanie użycia za pośrednictwem witryny Azure Portal w celu identyfikowania szans optymalizacji

Więcej przykładów cen

Poniżej przedstawiono szczegółowe przykłady pokazujące sposób działania cen w różnych scenariuszach:

Przykład 1. Przetwarzanie dokumentów dla przepływów pracy RAG

Scenariusz: musisz wyodrębnić zawartość z dokumentów dla rozwiązania Retrieval-Augmented Generation (RAG). prebuilt-documentSearch jest używane do wyodrębniania tekstu, układu i opisów rysunków.

Dane wejściowe:

  • 1000 stron
  • Model: globalne wdrożenie GPT-4.1
  • Region: Wschodnie stany USA

Podział cen:

  1. Wyodrębnianie zawartości: 1000 stron

    • Koszt: (1000 / 1000) × $5.00 = $5.00
  2. Analiza rysunku:

    Przy założeniu, że dwie liczby na stronę. Kosztuje około 1000 tokenów wejściowych i 200 tokenów wyjściowych na rysunek.

    • Tokeny wejściowe: 2000 liczb × 1000 tokenów/obrazu = 2000 000 tokenów
    • Koszt: (2 000 000 / 1 000 000) × $ 2.00 = $4.00
    • Tokeny wyjściowe: 2000 stron × 200 tokenów/strony = 400 000 tokenów
    • Koszt: (400 000 / 1000 000) × $8.00 = $3.2
  3. Kontekstualizacja: 1 000 stron × 1 000 tokenów/strona = 1 000 000 tokenów

    • Koszt: (1000 000 / 1 000 000) × $ 1.00 = $1.00

Łączny szacowany koszt: $5.00 + $4 + $3.2 + $1.00 = $13.20

Uwaga / Notatka

Ceny te są przeznaczone tylko do celów ilustracyjnych i nie są przeznaczone do reprezentowania rzeczywistego kosztu. Sprawdź cennik usługi Azure Content Understanding i cennik usługi Azure OpenAI pod kątem bieżących stawek

Przykład 2. Przetwarzanie faktur za pomocą wyodrębniania pól

Scenariusz: Automatyzujesz przetwarzanie faktur przy użyciu funkcji prebuilt-invoice wyodrębniania danych ustrukturyzowanych (numer faktury, data, dostawca, suma, elementy wiersza).

Dane wejściowe:

  • 1000 stron
  • Model: wdrożenie globalne GPT-4.1-mini (zoptymalizowane pod kątem kosztów)
  • Funkcje: tryb wyodrębniania + szacowanie źródła i oceny ufności
  • Region: Wschodnie stany USA

Podział cen:

  1. Wyodrębnianie zawartości: 1000 stron

    • Koszt: (1000 / 1000) × $5.00 = $5.00
  2. Wyodrębnianie pól: przy włączonym szacowaniu źródła i pewności, użycie tokenów będzie około 2 razy większe na stronę:

    • Podstawowe tokeny wejściowe: 1000 stron × 5200 tokenów/strony = 5200 000 tokenów
    • Koszt: (5200 000 / 1 000 000) × $0.40 = $2.08
    • Podstawowe tokeny wyjściowe: 1000 stron × 180 tokenów/strony = 180 000 tokenów
    • Koszt: (180 000 / 1000 000) × $1.60 = $0.29
  3. Kontekstualizacja: 1 000 stron × 1 000 tokenów/strona = 1 000 000 tokenów

    • Koszt: (1000 000 / 1 000 000) × $ 1.00 = $1.00

Łączny szacowany koszt: $5.00 + $2.08 + $0.29 + $1.00 = $8.37

Uwaga / Notatka

Użycie standardowego globalnego wdrożenia GPT-4.1 zamiast mini zwiększyłoby koszt wyodrębniania pól około pięciokrotnie, podnosząc całkowity koszt do około $33.

Uwaga / Notatka

Ceny te są przeznaczone tylko do celów ilustracyjnych i nie są przeznaczone do reprezentowania rzeczywistego kosztu. Sprawdź cennik usługi Azure Content Understanding i cennik usługi Azure OpenAI pod kątem bieżących stawek

Przykład 3. Analizowanie zawartości wideo przy użyciu wyodrębniania pól na poziomie segmentu

Scenariusz: wyodrębniasz ustrukturyzowaną reprezentację zawartości wideo dla aplikacji RAG. Aby wyodrębnić dane ustrukturyzowane na segment wideo, możesz użyć elementu prebuilt-videoSearch. Segmenty to krótkie klipy średnio 15–30 sekund, co skutkuje wieloma segmentami danych wyjściowych z pojedynczym polem podsumowania na segment.

Dane wejściowe:

  • 60 minut (1 godzina) wideo
  • Model: globalne wdrożenie GPT-4.1
  • Region: Wschodnie stany USA

Założenia:

  • Tokeny wejściowe: 7500 tokenów na minutę (na podstawie próbek ramek, transkrypcji, zapytań schematu i metapromptów)
  • Tokeny wyjściowe: 900 tokenów na minutę (przy założeniu 10–20 krótkich pól strukturalnych na segment z autosegmentacją)
  • Kontekstualizacja: 1 000 000 tokenów na godzinę wideo

Podział cen:

  1. Wyodrębnianie zawartości: 60 minut

    • Koszt: 60 minut × $1/hour = $1.00
  2. Wyodrębnianie pól:

    • Tokeny wejściowe: 60 minut × 7500 tokenów/minuty = 450 000 tokenów
    • Koszt: (450 000 / 1000 000) × $2.00 = $0.90
    • Tokeny wyjściowe: 60 minut × 900 tokenów na minutę = 54 000 tokenów
    • Koszt: (54 000 / 1000 000) × $8.00 = $0.43
  3. Kontekstualizacja: 1 000 000 tokenów na godzinę

    • Koszt: (1000 000 / 1 000 000) × $ 1.00 = $1.00

Łączny szacowany koszt: $1.00 + $0.90 + $0.43 + $1.00 = $3.33

Uwaga / Notatka

Koszt rzeczywisty różni się w zależności od specyfiki danych wejściowych i wyjściowych. Ten przejrzysty, oparty na użyciu model rozliczeń gwarantuje, że płacisz tylko za używane elementy.

Uwaga / Notatka

Ceny te są przeznaczone tylko do celów ilustracyjnych i nie są przeznaczone do reprezentowania rzeczywistego kosztu. Sprawdź cennik usługi Azure Content Understanding i cennik usługi Azure OpenAI pod kątem bieżących stawek

Przykład 4: Przetwarzanie nagrań w centrum obsługi telefonicznej

Scenariusz: analizujesz nagrania w centrum obsługi telefonicznej przy użyciu funkcji prebuilt-callCenter generowania transkrypcji, diaryzacji osoby mówiącej, analizy tonacji i podsumowań.

Dane wejściowe:

  • 60 minut dźwięku
  • Model: wdrożenie globalne GPT-4.1-mini
  • Region: Wschodnie stany USA

Podział cen:

  1. Wyodrębnianie zawartości: 60 minut

    • Koszt: 60 minut × $0.36/minute = $0.36
  2. Wyodrębnianie pól:

    • Tokeny wejściowe: 60 minut × 604 tokeny/minutę = 36 240 tokenów
    • Koszt: (36 240 / 1000 000) × $0.40 = $0.01
    • Tokeny wyjściowe: 60 minut × 19 tokenów/minut = 1140 tokenów
    • Koszt: (1140 / 1000 000) × $1.60 = $0.00
  3. Kontekstualizacja: 60 minut × 1 667 tokenów/minutę = 100 020 tokenów

    • Koszt: (100 020 / 1000 000) × $1.00 = $0.10

Łączny szacowany koszt: $0.36 + $0.01 + $0.00 + $0.10 = $0.47

Uwaga / Notatka

Ceny te są przeznaczone tylko do celów ilustracyjnych i nie są przeznaczone do reprezentowania rzeczywistego kosztu. Sprawdź cennik usługi Azure Content Understanding i cennik usługi Azure OpenAI pod kątem bieżących stawek

Przykład 5. Przetwarzanie obrazów z podpisami

Scenariusz: Generujesz opisowe napisy dla obrazów produktów przy użyciu polecenia prebuilt-imageSearch.

Dane wejściowe:

  • 1000 obrazów
  • Model: globalne wdrożenie GPT-4.1
  • Region: Wschodnie stany USA

Podział cen:

  1. Wyodrębnianie zawartości: brak opłat za obrazy

    • Koszt: $0.00
  2. Wyodrębnianie pól:

    • Tokeny wejściowe: 1000 obrazów × 1043 tokenów/obrazu = 1043 000 tokenów
    • Koszt: (1043 000 / 1 000 000) × $ 2.00 = $2.09
    • Tokeny wyjściowe: 1000 obrazów × 170 tokenów/obrazu = 170 000 tokenów
    • Koszt: (170 000 / 1000 000) × $8.00 = $1.36
  3. Kontekstualizacja: 1000 obrazów × 1000 tokenów/obrazu = 1 000 000 tokenów

    • Koszt: (1000 000 / 1 000 000) × $ 1.00 = $1.00

Łączny szacowany koszt: $0.00 + $2.09 + $1.36 + $1.00 = $4.45

Uwaga / Notatka

Ceny te są przeznaczone tylko do celów ilustracyjnych i nie są przeznaczone do reprezentowania rzeczywistego kosztu. Sprawdź cennik usługi Azure Content Understanding i cennik usługi Azure OpenAI pod kątem bieżących stawek

Dalsze kroki