Udostępnij przez


Wnioskowanie Azure AI Foundry

Jest to specyfikacja struktury Swagger pierwszej firmy dla modeli usługi Azure AI Foundry, specjalnie zaprojektowana pod kątem zadań ukończenia czatu. Obecnie obsługuje tylko punkt końcowy uzupełniania czatów.

Ten łącznik jest dostępny w następujących produktach i regionach:

Usługa Class Regions
Copilot Studio Standard Wszystkie regiony usługi Power Automate
Logic Apps Standard Wszystkie regiony usługi Logic Apps
Power Apps Standard Wszystkie regiony usługi Power Apps
Power Automate Standard Wszystkie regiony usługi Power Automate
Kontakt
Name Microsoft
adres URL https://support.microsoft.com/
Email abapi@microsoft.com
Metadane łącznika
Publisher Microsoft
Witryna internetowa https://learn.microsoft.com/en-us/azure/ai-foundry/
Zasady ochrony prywatności https://privacy.microsoft.com/en-us/privacystatement
Kategorie AI

Tworzenie połączenia

Łącznik obsługuje następujące typy uwierzytelniania:

Wartość domyślna Parametry tworzenia połączenia. Wszystkie regiony Udostępnialne

Domyślny

Dotyczy: wszystkie regiony

Parametry tworzenia połączenia.

Jest to możliwe do udostępnienia połączenie. Jeśli aplikacja power jest udostępniana innemu użytkownikowi, połączenie jest również udostępniane. Aby uzyskać więcej informacji, zobacz Omówienie łączników dla aplikacji kanwy — Power Apps | Microsoft Docs

Name Typ Description Wymagane
Identyfikator URI obiektu docelowego ciąg Określanie punktu końcowego wnioskowania dla modelu Foundry Prawda
Klucz interfejsu API securestring Klucz interfejsu API dla tego punktu końcowego wnioskowania modelu Prawda
Nazwa wdrożenia modelu ciąg Określanie nazwy wdrożenia modelu dla modelu Foundry
Nazwa modelu podstawowego ciąg Określanie nazwy modelu podstawowego dla modelu Foundry

Limity ograniczania

Nazwa Wywołania Okres odnowienia
Wywołania interfejsu API na połączenie 5000 60 sekund

Akcje

Tworzenie ukończenia czatu

Generuje ukończenie konwersacji na podstawie podanych komunikatów i konfiguracji modelu.

Tworzenie ukończenia czatu

Generuje ukończenie konwersacji na podstawie podanych komunikatów i konfiguracji modelu.

Parametry

Nazwa Klucz Wymagane Typ Opis
wersja API
api-version string

Wersja interfejsu API do użycia dla tego punktu końcowego uzupełniania czatu modelu.

rola
role string

Rola nadawcy wiadomości (np. "użytkownik", "asystent").

zawartość
content object
temperatura
temperature float

Temperatura próbkowania do użycia z zakresu od 0 do 1. Wyższe wartości sprawiają, że dane wyjściowe będą bardziej losowe.

top_p
top_p float

Parametr próbkowania top-p z zakresu od 0 do 1.

maks_tokenów
max_tokens integer

Maksymalna liczba tokenów do wygenerowania w odpowiedzi.

model
model string

Nazwa wdrożenia modelu.

Zwraca

Definicje

Wybór

Nazwa Ścieżka Typ Opis
content_filter_results
content_filter_results object

Wyniki z filtru zawartości zastosowanego do odpowiedzi.

powód zakończenia
finish_reason string

Przyczyna, dla którego model przestał generować kolejne tokeny. Możliwe wartości obejmują "stop", "length", "content_filter" itp.

indeks
index integer

Indeks tego wyboru w wygenerowanych zestawach uzupełniania.

logprobs
logprobs string

Prawdopodobieństwo rejestrowania skojarzone z każdym tokenem w odpowiedzi (jeśli jest to wymagane).

zawartość
message.content string

Zawartość wygenerowanej wiadomości w konwersacji. Jest to odpowiedź na zapytanie NL użytkownika.

refusal
message.refusal string

Jeśli model nie chce wygenerować komunikatu, w tym polu opisano odmowę.

rola
message.role string

Rola nadawcy wiadomości (np. "użytkownik", "asystent").

PromptFilterResult

Nazwa Ścieżka Typ Opis
prompt_index
prompt_index integer

Indeks monitu w oryginalnych danych wejściowych.

content_filter_results
content_filter_results object

Metadane filtru zawartości zastosowane do monitu.

CompletionTokensDetails

Szczegółowe informacje o użyciu tokenu do ukończenia.

Nazwa Ścieżka Typ Opis
accepted_prediction_tokens
accepted_prediction_tokens integer

Liczba tokenów akceptowanych jako prawidłowe przewidywania odpowiedzi.

tokeny_rozumowania
reasoning_tokens integer

Liczba tokenów używanych do procesu rozumowania modelu.

rejected_prediction_tokens
rejected_prediction_tokens integer

Liczba tokenów odrzuconych podczas procesu przewidywania.

PromptTokensDetails

Szczegółowe informacje o tokenach używanych w wierszu polecenia.

Nazwa Ścieżka Typ Opis
cached_tokens
cached_tokens integer

Liczba tokenów, które zostały buforowane i ponownie użyte dla monitu.

Usage

Szczegóły użycia tokenu dla żądania, w tym tokeny monitu i ukończenia.

Nazwa Ścieżka Typ Opis
completion_tokens
completion_tokens integer

Liczba tokenów używanych przez ukończenie.

completion_tokens_details
completion_tokens_details CompletionTokensDetails

Szczegółowe informacje o użyciu tokenu do ukończenia.

prompt_tokens
prompt_tokens integer

Liczba tokenów używanych przez monit.

prompt_tokens_details
prompt_tokens_details PromptTokensDetails

Szczegółowe informacje o tokenach używanych w wierszu polecenia.

total_tokens
total_tokens integer

Łączna liczba tokenów używanych przez całe żądanie (monit i ukończenie).

ChatCompletionResponse

Nazwa Ścieżka Typ Opis
choices
choices array of Choice

Lista wygenerowanych uzupełnień dla danego monitu.

id
id string

Unikatowy identyfikator żądania ukończenia czatu.

model
model string

Model używany do generowania ukończenia czatu.

prompt_filter_results
prompt_filter_results array of PromptFilterResult

Filtr zawartości powoduje wyświetlenie każdego monitu w żądaniu.

użycie
usage Usage

Szczegóły użycia tokenu dla żądania, w tym tokeny monitu i ukończenia.