Udostępnij przez


Dokumentacja referencyjna interfejsu API REST dla usługi Azure OpenAI w modelach Microsoft Foundry v1

Tylko podzbiór operacji jest obecnie obsługiwany w interfejsie API w wersji 1. Aby dowiedzieć się więcej, zobacz przewodnik cyklu życia wersji interfejsu API.

Tworzenie ukończenia czatu

POST {endpoint}/openai/v1/chat/completions

Tworzy ukończenie czatu.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Firmy Microsoft Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
dźwięk obiekt Parametry dla danych wyjściowych dźwięku. Wymagane w przypadku żądania danych wyjściowych dźwięku za pomocą polecenia
modalities: ["audio"].
Nie.
Format └* wyliczenie Określa format dźwięku wyjściowego. Musi być jednym z wavelementów , , mp3, flac
opuslub pcm16.
Możliwe wartości: wav, , aacmp3, flac, , opuspcm16
Nie.
└* głos obiekt Nie.
data_sources macierz Źródła danych, które mają być używane w funkcji On Your Data , wyłącznie w usłudze Azure OpenAI. Nie.
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie
ich istniejąca częstotliwość w tekście do tej pory, zmniejszając model
prawdopodobieństwo powtórzenie tego samego wiersza dosłowne.
Nie. 0
function_call wyliczenie Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.
Możliwe wartości: none, auto
Nie.
functions macierz Przestarzałe na rzecz .tools

Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON mapujący tokeny (określony przez ich identyfikator tokenu w elem.
tokenizer) do skojarzonej wartości stronniczej z -100 do 100. Matematycznie
stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem.
Dokładny efekt będzie się różnić w zależności od modelu, ale wartości między -1 a 1 powinny
zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości, takie jak -100 lub 100
w wyniku zakazu lub wyłącznego wyboru odpowiedniego tokenu.
Nie. Żaden
logprobs typ logiczny (boolowski) Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true,
Zwraca prawdopodobieństwo dziennika dla każdego tokenu wyjściowego zwróconego w elem.
content z message.
Nie. Nieprawda
max_completion_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla elementu
uzupełnianie, w tym widoczne tokeny wyjściowe i tokeny rozumowania.
Nie.
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.
Ta wartość może służyć do kontrolowania kosztów tekstu generowanego za pośrednictwem interfejsu API.

Ta wartość jest teraz przestarzała na rzecz max_completion_tokenselementu i jest
niezgodne z modelami serii o1.
Nie.
messages macierz Lista wiadomości składających się na dotychczasową rozmowę. W zależności od
model używany, obsługiwane są różne typy komunikatów (modalności),
na przykład tekst, obrazy i dźwięk.
Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
Sposoby obiekt Typy danych wyjściowych, które mają być generowane przez model.
Większość modeli jest w stanie wygenerować tekst, co jest wartością domyślną:

["text"]

Model gpt-4o-audio-preview może również służyć do generowania dźwięku. Aby zażądać wygenerowania tego modelu
odpowiedzi tekstowe i dźwiękowe, których można użyć:

["text", "audio"]
Nie.
model ciąg Identyfikator wdrożenia modelu do użycia dla żądania ukończenia czatu. Tak
n liczba całkowita Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n , 1 aby zminimalizować koszty. Nie. 1
wywołania_narzędzia_równoległe obiekt Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie.
przewidywanie obiekt Podstawowa reprezentacja przewidywanych danych wyjściowych z modelu. Nie.
└typ OpenAI.ChatOutputPredictionType Nie.
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie
czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo modelu
mówić o nowych tematach.
Nie. 0
wysiłek rozumowania obiekt tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
format_odpowiedzi obiekt Nie.
└typ wyliczenie
Możliwe wartości: text, , json_objectjson_schema
Nie.
nasienie liczba całkowita Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
stop obiekt Nieobsługiwane w przypadku najnowszych modeli o3 rozumowania i o4-mini.

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Ten
zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
przechowywać typ logiczny (boolowski) Czy zapisać dane wyjściowe tego żądania ukończenia czatu dla
używać w produktach destylacyjnych lub evals modelu.
Nie. Nieprawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta
generowane przy użyciu zdarzeń wysyłanych przez serwer.
Nie. Nieprawda
stream_options obiekt Opcje odpowiedzi przesyłania strumieniowego. Ustaw tę wartość tylko po ustawieniu .stream: true Nie.
└include_usage typ logiczny (boolowski) W przypadku ustawienia dodatkowy fragment będzie przesyłany strumieniowo przed data: [DONE]
Komunikat. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu
dla całego żądania, a choices pole zawsze będzie puste
tablica.

Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null
wartość. NUTA: Jeśli strumień zostanie przerwany, może nie zostać wyświetlony
końcowy fragment użycia, który zawiera łączne użycie tokenu dla żądania.
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.
none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.

none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.
Nie.
narzędzia macierz Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc
monitorowanie i wykrywanie nadużyć.
Nie.
user_security_context AzureUserSecurityContext Kontekst zabezpieczeń użytkownika zawiera kilka parametrów, które opisują samą aplikację, oraz użytkownika końcowego, który wchodzi w interakcję z aplikacją. Te pola ułatwiają zespołom ds. operacji zabezpieczeń badanie i eliminowanie zdarzeń zabezpieczeń, zapewniając kompleksowe podejście do ochrony aplikacji sztucznej inteligencji. Dowiedz się więcej na temat ochrony aplikacji sztucznej inteligencji przy użyciu usługi Microsoft Defender for Cloud. Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureCreateChatCompletionResponse
tekst/strumień zdarzeń AzureCreateChatCompletionStreamResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Przykład

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

POST {endpoint}/openai/v1/chat/completions

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Tworzenie osadzania

POST {endpoint}/openai/v1/embeddings

Tworzy wektor osadzania reprezentujący tekst wejściowy.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
Wymiary liczba całkowita Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. Nie.
encoding_format wyliczenie Format umożliwiający zwrócenie osadzania. Może to być wartość float lub base64.
Możliwe wartości: float, base64
Nie.
dane wejściowe ciąg lub tablica Tak
model ciąg Model do użycia dla żądania osadzania. Tak
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.CreateEmbeddingResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Przykład

Zwróć osadzanie dla danego monitu.

POST {endpoint}/openai/v1/embeddings

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Lista waleń

GET {endpoint}/openai/v1/evals

Wymień oceny dla projektu.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
after kwerenda Nie. ciąg Identyfikator ostatniej oceny z poprzedniego żądania stronicowania.
limit / ograniczenie kwerenda Nie. liczba całkowita Limit liczby ewal, które mają być zwracane w pojedynczej odpowiedzi na strony.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Kolejność sortowania ocen według znacznika czasu. Użyj asc polecenia dla kolejności rosnącej lub
desc dla kolejności malejącej.
sortuj_według kwerenda Nie. ciąg
Możliwe wartości: created_at, updated_at
Oceny mogą być uporządkowane według czasu utworzenia lub czasu ostatniej aktualizacji. Użyj
created_at czas utworzenia lub updated_at czas ostatniej aktualizacji
Godzina.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie oceny

POST {endpoint}/openai/v1/evals

Utwórz strukturę oceny, która może służyć do testowania wydajności modelu.

Ocena to zestaw kryteriów testowania i źródła danych. Po utworzeniu oceny można uruchomić go na różnych modelach i parametrach modelu. Obsługujemy kilka typów klasyrów i źródeł danych.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
konfiguracja źródła danych obiekt Tak
└typ OpenAI.EvalDataSourceConfigType Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nazwa oceny. Nie.
kod statusu wyliczenie
Możliwe wartości: 201
Tak
kryteria_testowe macierz Lista osób oceniających dla wszystkich przebiegów oceny w tej grupie. Klasyfikatory mogą odwoływać się do zmiennych w źródle danych przy użyciu notacji podwójnych nawiasów klamrowych, takich jak {{item.variable_name}}. Aby odwołać się do danych wyjściowych modelu, użyj sample przestrzeni nazw (tj. {{sample.output_text}}). Tak

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Eval

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Uzyskiwanie oceny

GET {endpoint}/openai/v1/evals/{eval_id}

Pobierz ocenę według jego identyfikatora. Pobiera ocenę według jego identyfikatora.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Eval

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Aktualizacja wal

POST {endpoint}/openai/v1/evals/{eval_id}

Zaktualizuj polecenie select, modyfikowalne właściwości określonej oceny.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
metadane OpenAI.MetadataPropertyForRequest Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Eval

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuń ewal

DELETE {endpoint}/openai/v1/evals/{eval_id}

Usuń określoną ocenę.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json obiekt

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie przebiegów oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs

Pobierz listę przebiegów dla określonej oceny.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
after kwerenda Nie. ciąg
limit / ograniczenie kwerenda Nie. liczba całkowita
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
stan kwerenda Nie. ciąg
Możliwe wartości: queued, , in_progresscompleted, , canceledfailed

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRunList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie przebiegu oceny

POST {endpoint}/openai/v1/evals/{eval_id}/runs

Utwórz nowy przebieg oceny, rozpoczynając proces klasyfikacji.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
źródło danych obiekt Tak
└typ OpenAI.EvalRunDataSourceType Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nazwa przebiegu. Nie.

Odpowiedzi

Kod stanu: 201

Opis: Żądanie zakończyło się pomyślnie i w rezultacie został utworzony nowy zasób.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRun

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie przebiegu oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Pobierz określoną ocenę uruchamianą według jego identyfikatora.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
identyfikator_uruchomienia ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRun

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Anuluj przebieg oceny

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Anuluj określony przebieg oceny według jego identyfikatora.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
identyfikator_uruchomienia ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRun

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuń przebieg oceny

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Usuń określoną ocenę uruchamianą według jego identyfikatora.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
identyfikator_uruchomienia ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json obiekt

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie elementów wyjściowych przebiegu oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items

Pobierz listę elementów wyjściowych dla określonego przebiegu oceny.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
identyfikator_uruchomienia ścieżka Tak ciąg
after kwerenda Nie. ciąg
limit / ograniczenie kwerenda Nie. liczba całkowita
stan kwerenda Nie. ciąg
Możliwe wartości: fail, pass
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRunOutputItemList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie elementu wyjściowego przebiegu oceny

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}

Pobierz określony element wyjściowy z oceny uruchomionej według jego identyfikatora.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-evals nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do AOAI Evals, funkcji w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-evals" na wartość "preview".
eval_id ścieżka Tak ciąg
identyfikator_uruchomienia ścieżka Tak ciąg
output_item_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.EvalRunOutputItem

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Utwórz plik

POST {endpoint}/openai/v1/files

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: dane wielu części/formularzu

Nazwa Typ Opis Wymagane Wartość domyślna
wygasa po obiekt Tak
└* kotwica AzureFileExpiryAnchor Nie.
└s liczba całkowita Nie.
plik ciąg Tak
purpose wyliczenie Zamierzony cel przesłanego pliku. Jeden z: — assistantsużywany w interfejsie API Asystentów — batch: używany w interfejsie API usługi Batch — fine-tune: używany do dostrajania — evals: używany do ewalowania zestawów danych
Możliwe wartości: assistants, , batch, fine-tuneevals
Tak

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIFile

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Przykład

POST {endpoint}/openai/v1/files

Lista plików

GET {endpoint}/openai/v1/files

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
purpose kwerenda Nie. ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureListFilesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie pliku

GET {endpoint}/openai/v1/files/{file_id}

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureOpenAIFile

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuń plik

DELETE {endpoint}/openai/v1/files/{file_id}

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.DeleteFileResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie pliku

GET {endpoint}/openai/v1/files/{file_id}/content

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
application/octet-stream ciąg

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Uruchamianie klasyzatora

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run

Uruchom klasykator.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.
element Element zestawu danych dostarczony do klasyra. Zostanie użyta do wypełnienia
przestrzeni item nazw. Aby uzyskać więcej informacji, zobacz przewodnik .
Nie.
model_sample ciąg Przykładowy model do oceny. Ta wartość zostanie użyta do wypełnienia
przestrzeni sample nazw. Aby uzyskać więcej informacji, zobacz przewodnik .
Zmienna output_json zostanie wypełniona, jeśli przykładowy model jest
prawidłowy ciąg JSON.
Tak

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.RunGraderResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Sprawdzanie poprawności klasyfikatora

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate

Zweryfikuj klasyfikator.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ValidateGraderResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie zadania dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs

Tworzy zadanie dostrajania, które rozpoczyna proces tworzenia nowego modelu na podstawie danego zestawu danych.

Odpowiedź zawiera szczegóły zadania w kolejce, w tym stan zadania i nazwę dostosowanych modeli po zakończeniu.

Dowiedz się więcej o dostrajaniu

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
hiperparametry obiekt Hiperparametry używane do zadania dostrajania.
Ta wartość jest teraz przestarzała na rzecz parametru methodi powinna zostać przekazana w parametrze method .
Nie.
└batch_size wyliczenie
Możliwe wartości: auto
Nie.
└learning_rate_multiplier wyliczenie
Możliwe wartości: auto
Nie.
└n_epochs wyliczenie
Możliwe wartości: auto
Nie.
Integracje macierz Lista integracji umożliwiających dostrajanie zadania. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
metoda OpenAI.FineTuneMethod Metoda używana do dostrajania. Nie.
model ciąg (zobacz prawidłowe modele poniżej) Nazwa modelu do dostosowania. Możesz wybrać jedną z opcji
obsługiwane modele.
Tak
nasienie liczba całkowita Nasiono kontroluje reproduktywność procesu. Przekazywanie tych samych parametrów nasion i zadania powinno generować te same wyniki, ale mogą się różnić w rzadkich przypadkach.
Jeśli ziarno nie zostanie określone, zostanie wygenerowane dla Ciebie.
Nie.
przyrostek ciąg Ciąg zawierający maksymalnie 64 znaki, które zostaną dodane do precyzyjnej nazwy modelu.

Na przykład wartość suffix "custom-model-name" spowoduje wygenerowanie nazwy modelu, takiej jak ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
Nie. Żaden
plik szkoleniowy ciąg Identyfikator przekazanego pliku zawierającego dane szkoleniowe.

Zobacz przekazywanie pliku , aby dowiedzieć się, jak przekazać plik.

Zestaw danych musi być sformatowany jako plik JSONL. Ponadto należy przekazać plik w celu fine-tune.

Zawartość pliku powinna się różnić w zależności od tego, czy model używa czatu, czy też metoda dostrajania dokładnego używa formatu preferencji .

Aby uzyskać więcej informacji, zobacz przewodnik dostosowywania .
Tak
plik walidacji ciąg Identyfikator przekazanego pliku zawierającego dane walidacji.

Jeśli podasz ten plik, dane są używane do generowania walidacji
metryki okresowo podczas dostrajania. Te metryki można wyświetlić w programie
plik wyników dostrajania.
Te same dane nie powinny być obecne zarówno w plikach trenowania, jak i sprawdzania poprawności.

Zestaw danych musi być sformatowany jako plik JSONL. Musisz przekazać plik z celem fine-tune.

Aby uzyskać więcej informacji, zobacz przewodnik dostosowywania .
Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy zadań dostrajania podzielonego na strony

GET {endpoint}/openai/v1/fine_tuning/jobs

Wyświetlanie listy zadań dostrajania organizacji

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
after kwerenda Nie. ciąg Identyfikator ostatniego zadania z poprzedniego żądania stronicowania.
limit / ograniczenie kwerenda Nie. liczba całkowita Liczba zadań dostrajania do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListPaginatedFineTuningJobsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie zadania dostrajania

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}

Uzyskaj informacje o zadaniu dostrajania.

Dowiedz się więcej o dostrajaniu

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Anulowanie zadania dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel

Natychmiast anuluj zadanie dostrajania.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania do anulowania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy punktów kontrolnych zadań dostrajania

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints

Wyświetl listę punktów kontrolnych dla zadania dostrajania.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania w celu pobrania punktów kontrolnych.
after kwerenda Nie. ciąg Identyfikator ostatniego identyfikatora punktu kontrolnego z poprzedniego żądania stronicowania.
limit / ograniczenie kwerenda Nie. liczba całkowita Liczba punktów kontrolnych do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListFineTuningJobCheckpointsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Dostrajanie — kopiowanie punktu kontrolnego

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy

Tworzy kopię punktu kontrolnego dostrajania w danym koncie docelowym i regionie.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-copy-ft-checkpoints nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do operacji kopiowania punktów kontrolnych dla modeli — funkcji AOAI w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-copy-ft-checkpoints" na wartość "preview".
akceptować nagłówek Tak ciąg
Możliwe wartości: application/json
identyfikator_zadania_dostrajania ścieżka Tak ciąg
nazwa_punktu_kontrolnego_dostosowywania ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
destinationResourceId ciąg Identyfikator docelowego zasobu do skopiowania. Tak
region ciąg Region do skopiowania modelu do. Tak

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json CopyModelResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Dostrajanie — uzyskiwanie punktu kontrolnego

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy

Pobiera stan kopii punktu kontrolnego dostrajania.

Uwaga / Notatka

Ta operacja usługi Azure OpenAI jest dostępna w wersji zapoznawczej i może ulec zmianie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
aoai-copy-ft-checkpoints nagłówek Tak ciąg
Możliwe wartości: preview
Umożliwia dostęp do operacji kopiowania punktów kontrolnych dla modeli — funkcji AOAI w wersji zapoznawczej.
Ta funkcja wymaga ustawienia nagłówka "aoai-copy-ft-checkpoints" na wartość "preview".
akceptować nagłówek Tak ciąg
Możliwe wartości: application/json
identyfikator_zadania_dostrajania ścieżka Tak ciąg
nazwa_punktu_kontrolnego_dostosowywania ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json CopyModelResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Lista zdarzeń dostrajania

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events

Pobieranie aktualizacji stanu zadania dostrajania.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania w celu pobrania zdarzeń.
after kwerenda Nie. ciąg Identyfikator ostatniego zdarzenia z poprzedniego żądania stronicowania.
limit / ograniczenie kwerenda Nie. liczba całkowita Liczba zdarzeń do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListFineTuningJobEventsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wstrzymaj zadanie dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause

Wstrzymaj zadanie dostrajania.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania do wstrzymania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wznawianie zadania dostrajania

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume

Wznów wstrzymane zadanie dostrajania.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
identyfikator_zadania_dostrajania ścieżka Tak ciąg Identyfikator zadania dostrajania do wznowienia.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.FineTuningJob

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy modeli

GET {endpoint}/openai/v1/models

Wyświetla listę aktualnie dostępnych modeli i zawiera podstawowe informacje o poszczególnych modelach, takich jak właściciel i dostępność.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListModelsResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie modelu

GET {endpoint}/openai/v1/models/{model}

Pobiera wystąpienie modelu, podając podstawowe informacje o modelu, takie jak właściciel i uprawnienie.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
model ścieżka Tak ciąg Identyfikator modelu do użycia dla tego żądania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.Model

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie odpowiedzi

POST {endpoint}/openai/v1/responses

Tworzy odpowiedź modelu.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
include macierz Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie
obsługiwane wartości to:
- code_interpreter_call.outputs: zawiera dane wyjściowe wykonywania kodu w języku Python
w elementy wywołania narzędzia interpretera kodu.
- computer_call_output.output.image_url: dołącz adresy URL obrazów z danych wyjściowych wywołania komputera.
- file_search_call.results: uwzględnij wyniki wyszukiwania elementu
wywołanie narzędzia wyszukiwania plików.
- message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
- message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
- reasoning.encrypted_content: zawiera zaszyfrowaną wersję rozumowania
tokeny w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w programie
konwersacje wieloeściowe w przypadku bezstanowego korzystania z interfejsu API odpowiedzi (na przykład
store gdy parametr jest ustawiony na false, lub gdy organizacja jest
zarejestrowane w programie przechowywania danych zerowych).
Nie.
dane wejściowe ciąg lub tablica Nie.
instructions ciąg Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
model ciąg Wdrożenie modelu do użycia na potrzeby tworzenia tej odpowiedzi. Tak
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w
monit. Wartości podstawienia mogą być ciągami lub innymi
Typy danych wejściowych odpowiedzi, takie jak obrazy lub pliki.
Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
Rozumowanie obiekt tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Wysiłek └* OpenAI.ReasoningEffort tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
└generate_summary wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
Podsumowanie └* wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
przechowywać typ logiczny (boolowski) Czy przechowywać wygenerowaną odpowiedź modelu na potrzeby późniejszego pobierania za pośrednictwem
API.
Nie. Prawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta
generowane przy użyciu zdarzeń wysyłanych przez serwer.
Zobacz sekcję Przesyłanie strumieniowe poniżej
aby uzyskać więcej informacji.
Nie. Nieprawda
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
SMS obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem jednego lub
więcej narzędzi.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie plików.
- Wywołania funkcji (narzędzia niestandardowe): funkcje zdefiniowane przez Użytkownika
włączenie modelu w celu wywołania własnego kodu.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
Obcinania wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureResponse
tekst/strumień zdarzeń OpenAI.ResponseStreamEvent

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Przykład

Tworzenie odpowiedzi modelu

POST {endpoint}/openai/v1/responses

Uzyskiwanie odpowiedzi

GET {endpoint}/openai/v1/responses/{response_id}

Pobiera odpowiedź modelu z danym identyfikatorem.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
response_id ścieżka Tak ciąg
include_obfuscation kwerenda Nie. typ logiczny (boolowski) W przypadku wartości true funkcja zaciemnienia strumienia zostanie włączona. Zaciemnianie strumienia dodaje losowe znaki do pola w zdarzeniach różnicowych przesyłania strumieniowego obfuscation w celu normalizacji rozmiarów ładunków jako środków zaradczych dla niektórych ataków kanału bocznego. Te pola zaciemniania są domyślnie uwzględniane, ale do strumienia danych są dodawane niewielkie obciążenie. Możesz ustawić include_obfuscation wartość false, aby zoptymalizować przepustowość, jeśli ufasz linkom sieciowym między aplikacją a interfejsem API OpenAI.
include[] kwerenda Nie. macierz

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json AzureResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuń odpowiedź

DELETE {endpoint}/openai/v1/responses/{response_id}

Usuwa odpowiedź według identyfikatora.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
response_id ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json obiekt

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy elementów wejściowych

GET {endpoint}/openai/v1/responses/{response_id}/input_items

Zwraca listę elementów wejściowych dla danej odpowiedzi.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
response_id ścieżka Tak ciąg
limit / ograniczenie kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a
wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc dla kolejności rosnącej idesc
dla kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ResponseItemList

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Magazyny wektorów listy

GET {endpoint}/openai/v1/vector_stores

Zwraca listę magazynów wektorów.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
limit / ograniczenie kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a
wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc dla kolejności rosnącej idesc
dla kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListVectorStoresResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie magazynu wektorów

POST {endpoint}/openai/v1/vector_stores

Tworzy magazyn wektorów.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
chunking_strategy obiekt Strategia domyślna. Ta strategia używa obecnie wartości max_chunk_size_tokens800 i chunk_overlap_tokens .400 Nie.
└* statyczny OpenAI.StaticChunkingStrategy Nie.
└typ wyliczenie Zawsze static.
Możliwe wartości: static
Nie.
wygasa po OpenAI.VectorStoreExpirationAfter Zasady wygasania magazynu wektorów. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search te, które mogą uzyskiwać dostęp do plików. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Przykłady

Nie można odnaleźć przykładowego pliku: ./examples/vector_stores.json

Pobieranie magazynu wektorów

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}

Pobiera magazyn wektorów.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów do pobrania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Modyfikowanie magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}

Modyfikuje magazyn wektorów.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów do zmodyfikowania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
wygasa po obiekt Zasady wygasania magazynu wektorów. Nie.
└* kotwica wyliczenie Znacznik czasu zakotwiczenia, po którym mają zastosowanie zasady wygasania. Obsługiwane kotwice: last_active_at.
Możliwe wartości: last_active_at
Nie.
└days liczba całkowita Liczba dni po upływie czasu zakotwiczenia, przez który magazyn wektorów wygaśnie. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuwanie magazynu wektorów

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}

Usuń magazyn wektorów.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów do usunięcia.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.DeleteVectorStoreResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie partii plików magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches

Utwórz wektorową partię plików magazynu.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, dla którego ma zostać utworzona partia plików.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze są ciągami
o maksymalnej długości 64 znaków. Wartości to ciągi z maksymalną wartością
długość 512 znaków, wartości logicznych lub liczb.
Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search te, które mogą uzyskiwać dostęp do plików. Tak

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileBatchObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie partii plików magazynu wektorów

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}

Pobiera wektorową partię plików magazynu.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy partia plików.
batch_id ścieżka Tak ciąg Identyfikator pobieranej partii plików.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileBatchObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Anulowanie partii plików magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel

Anuluj partię plików magazynu wektorów. Spowoduje to jak najszybsze anulowanie przetwarzania plików w tej partii.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy partia plików.
batch_id ścieżka Tak ciąg Identyfikator partii plików do anulowania.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileBatchObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Wyświetlanie listy plików w partii magazynu wektorowego

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files

Zwraca listę plików magazynu wektorów w partii.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy partia plików.
batch_id ścieżka Tak ciąg Identyfikator partii plików, do którego należą pliki.
limit / ograniczenie kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a
wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc dla kolejności rosnącej idesc
dla kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.
filtr kwerenda Nie. Filtruj według stanu pliku. Jeden z in_progress, , completedfailed, cancelled.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListVectorStoreFilesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pliki magazynu wektorów listy

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Zwraca listę plików magazynu wektorowego.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należą pliki.
limit / ograniczenie kwerenda Nie. liczba całkowita Limit liczby zwracanych obiektów. Limit może mieścić się w zakresie od 1 do 100, a
wartość domyślna to 20.
porządek kwerenda Nie. ciąg
Możliwe wartości: asc, desc
Sortuj kolejność według znacznika created_at czasu obiektów. asc dla kolejności rosnącej idesc
dla kolejności malejącej.
after kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. after jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać after=obj_foo w celu pobrania następnej strony listy.
przed kwerenda Nie. ciąg Kursor do użycia w stronicowaniu. before jest identyfikatorem obiektu definiującym miejsce na liście.
Jeśli na przykład utworzysz żądanie listy i otrzymasz 100 obiektów, kończąc na obj_foo,
kolejne wywołanie może zawierać wartość before=obj_foo w celu pobrania poprzedniej strony listy.
filtr kwerenda Nie. Filtruj według stanu pliku. Jeden z in_progress, , completedfailed, cancelled.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.ListVectorStoreFilesResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Tworzenie pliku magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Utwórz plik magazynu wektorów, dołączając plik do magazynu wektorów.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, dla którego ma zostać utworzony plik.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze są ciągami
o maksymalnej długości 64 znaków. Wartości to ciągi z maksymalną wartością
długość 512 znaków, wartości logicznych lub liczb.
Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikator_pliku ciąg Identyfikator pliku, którego powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search te, które mogą uzyskiwać dostęp do plików. Tak

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Pobieranie pliku magazynu wektorów

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Pobiera plik magazynu wektorów.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy plik.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pobieranego pliku.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Aktualizowanie atrybutów plików magazynu wektorów

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg
identyfikator_pliku ścieżka Tak ciąg

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: aplikacja/json

Nazwa Typ Opis Wymagane Wartość domyślna
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze są ciągami
o maksymalnej długości 64 znaków. Wartości to ciągi z maksymalną wartością
długość 512 znaków, wartości logicznych lub liczb.
Tak

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.VectorStoreFileObject

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Usuwanie pliku magazynu wektorów

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Usuń plik magazynu wektorów. Spowoduje to usunięcie pliku z magazynu wektorów, ale sam plik nie zostanie usunięty. Aby usunąć plik, użyj punktu końcowego usuwania pliku.

Parametry

Nazwa In Wymagane Typ Opis
punkt końcowy ścieżka Tak ciąg
URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, np. "https://aoairesource.openai.azure.com". Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI). https://{nazwa_zasobu}.openai.azure.com
wersja API kwerenda Nie. Jawna wersja interfejsu API modeli Foundry do użycia dla tego żądania.
v1 jeśli nie określono inaczej.
vector_store_id ścieżka Tak ciąg Identyfikator magazynu wektorów, do którego należy plik.
identyfikator_pliku ścieżka Tak ciąg Identyfikator pliku do usunięcia.

Nagłówek żądania

Użyj uwierzytelniania opartego na tokenach lub klucza interfejsu API. Uwierzytelnianie przy użyciu uwierzytelniania opartego na tokenach jest zalecane i bezpieczniejsze.

Nazwa Wymagane Typ Opis
Autoryzacja Prawda ciąg Przykład:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Aby wygenerować token uwierzytelniania przy użyciu interfejsu wiersza polecenia platformy Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
zakres: https://cognitiveservices.azure.com/.default
klucz API Prawda ciąg Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Odpowiedzi

Kod stanu: 200

Opis: Żądanie zakończyło się pomyślnie.

Typ zawartości Typ Opis
aplikacja/json OpenAI.DeleteVectorStoreFileResponse

Kod stanu: wartość domyślna

Opis: Nieoczekiwana odpowiedź na błąd.

Typ zawartości Typ Opis
aplikacja/json AzureErrorResponse

Komponenty

AzureAIFoundryModelsApiVersion

Majątek Wartość
Typ ciąg
Wartości v1
preview

AzureChatCompletionResponseMessage

Składnik rozszerzonego modelu odpowiedzi na potrzeby komunikatów odpowiedzi na czat w usłudze Azure OpenAI. Ten model dodaje obsługę kontekstu wiadomości czatu używanego przez funkcję On Your Data dla intencji, cytatów i innych informacji związanych z wykonywaniem generowania rozszerzonego pobierania.

Nazwa Typ Opis Wymagane Wartość domyślna
Adnotacje macierz Adnotacje dla komunikatu, jeśli ma to zastosowanie, tak jak w przypadku korzystania z narzędzia wyszukiwania w sieci Web. Nie.
dźwięk obiekt Jeśli zażądano modalności danych wyjściowych dźwięku, ten obiekt zawiera dane
informacje o odpowiedzi audio z modelu. .
Nie.
└* dane ciąg Zakodowane bajty audio zakodowane w formacie Base64 wygenerowane przez model
określone w żądaniu.
Nie.
└expires_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu, gdy ta odpowiedź dźwiękowa
nie są już dostępne na serwerze do użycia w wielu trybach
Rozmowy.
Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi audio. Nie.
└* transkrypcja ciąg Transkrypcja dźwięku wygenerowanego przez model. Nie.
zawartość ciąg Zawartość wiadomości. Tak
kontekst obiekt Dodatkowa właściwość dodana do komunikatów odpowiedzi na zakończenie czatu utworzona przez usługę Azure OpenAI podczas korzystania z usługi
zachowanie rozszerzenia. Obejmuje to informacje o intencji i cytatach z funkcji On Your Data (Dane lokalne).
Nie.
└all_retrieved_documents obiekt Podsumowanie informacji o dokumentach pobranych przez operację pobierania danych. Nie.
└chunk_id ciąg Identyfikator fragmentu dla cytatu. Nie.
└─ zawartość ciąg Zawartość cytatu. Nie.
└data_source_index liczba całkowita Indeks źródła danych używany do pobierania. Nie.
└* ścieżka pliku ciąg Ścieżka pliku do cytatu. Nie.
└filter_reason wyliczenie Jeśli ma to zastosowanie, wskazanie, dlaczego dokument został przefiltrowany.
Możliwe wartości: score, rerank
Nie.
└original_search_score Liczba Oryginalny wynik wyszukiwania dla pobierania. Nie.
└rerank_score Liczba Wynik ponownego pobierania. Nie.
└search_queries macierz Zapytania wyszukiwania wykonywane w celu pobrania dokumentów. Nie.
Tytuł └} ciąg Tytuł cytatu. Nie.
└} adres URL ciąg Adres URL cytatu. Nie.
└* cytaty macierz Cytaty generowane przez pobieranie danych. Nie.
Intencja └* ciąg Wykryta intencja z historii czatu, która służy do przenoszenia kontekstu konwersacji między interakcjami Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
Argumenty └* ciąg Nie.
└─ nazwa ciąg Nie.
reasoning_content ciąg Właściwość rozszerzenia specyficzna dla platformy Azure zawierająca wygenerowaną zawartość rozumowania z obsługiwanych modeli. Nie.
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Tak
rola wyliczenie Rola autora tej wiadomości.
Możliwe wartości: assistant
Tak
tool_calls ChatCompletionMessageToolCallsItem Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. Nie.

AzureChatCompletionStreamResponseDelta

Rozszerzony model odpowiedzi dla komunikatu odpowiedzi na czat przesyłania strumieniowego w usłudze Azure OpenAI. Ten model dodaje obsługę kontekstu wiadomości czatu używanego przez funkcję On Your Data dla intencji, cytatów i innych informacji związanych z wykonywaniem generowania rozszerzonego pobierania.

Nazwa Typ Opis Wymagane Wartość domyślna
dźwięk obiekt Nie.
└* dane ciąg Nie.
└expires_at liczba całkowita Nie.
└─ ID ciąg Nie.
└* transkrypcja ciąg Nie.
zawartość ciąg Zawartość komunikatu fragmentu. Nie.
kontekst obiekt Dodatkowa właściwość dodana do komunikatów odpowiedzi na zakończenie czatu utworzona przez usługę Azure OpenAI podczas korzystania z usługi
zachowanie rozszerzenia. Obejmuje to informacje o intencji i cytatach z funkcji On Your Data (Dane lokalne).
Nie.
└all_retrieved_documents obiekt Podsumowanie informacji o dokumentach pobranych przez operację pobierania danych. Nie.
└chunk_id ciąg Identyfikator fragmentu dla cytatu. Nie.
└─ zawartość ciąg Zawartość cytatu. Nie.
└data_source_index liczba całkowita Indeks źródła danych używany do pobierania. Nie.
└* ścieżka pliku ciąg Ścieżka pliku do cytatu. Nie.
└filter_reason wyliczenie Jeśli ma to zastosowanie, wskazanie, dlaczego dokument został przefiltrowany.
Możliwe wartości: score, rerank
Nie.
└original_search_score Liczba Oryginalny wynik wyszukiwania dla pobierania. Nie.
└rerank_score Liczba Wynik ponownego pobierania. Nie.
└search_queries macierz Zapytania wyszukiwania wykonywane w celu pobrania dokumentów. Nie.
Tytuł └} ciąg Tytuł cytatu. Nie.
└} adres URL ciąg Adres URL cytatu. Nie.
└* cytaty macierz Cytaty generowane przez pobieranie danych. Nie.
Intencja └* ciąg Wykryta intencja z historii czatu, która służy do przenoszenia kontekstu konwersacji między interakcjami Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
Argumenty └* ciąg Nie.
└─ nazwa ciąg Nie.
reasoning_content ciąg Właściwość rozszerzenia specyficzna dla platformy Azure zawierająca wygenerowaną zawartość rozumowania z obsługiwanych modeli. Nie.
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Nie.
rola obiekt Rola autora wiadomości Nie.
tool_calls macierz Nie.

AzureChatDataSource

Reprezentacja danych konfiguracji dla pojedynczego źródła danych czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Dyskryminujące dla usługi AzureChatDataSource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Nazwa Typ Opis Wymagane Wartość domyślna
typ obiekt Tak

AzureChatDataSourceAccessTokenAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
access_token ciąg Tak
typ wyliczenie
Możliwe wartości: access_token
Tak

AzureChatDataSourceApiKeyAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
klucz ciąg Tak
typ wyliczenie
Możliwe wartości: api_key
Tak

AzureChatDataSourceAuthenticationOptions

Dyskryminujące dla elementu AzureChatDataSourceAuthenticationOptions

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Nazwa Typ Opis Wymagane Wartość domyślna
typ AzureChatDataSourceAuthenticationOptionsType Tak

AzureChatDataSourceAuthenticationOptionsType

Majątek Wartość
Typ ciąg
Wartości api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
connection_string ciąg Tak
typ wyliczenie
Możliwe wartości: connection_string
Tak

AzureChatDataSourceDeploymentNameVectorizationSource

Reprezentuje źródło wektoryzacji, które wykonuje wewnętrzne wywołania usług względem wdrożenia modelu osadzania usługi Azure OpenAI. W przeciwieństwie do źródła wektoryzacji opartego na punkcie końcowym źródło wektoryzacji oparte na nazwie wdrożenia musi być częścią tego samego zasobu usługi Azure OpenAI, ale może być używane nawet w sieciach prywatnych.

Nazwa Typ Opis Wymagane Wartość domyślna
nazwa wdrożenia ciąg Wdrożenie modelu osadzania do użycia na potrzeby wektoryzacji. To wdrożenie musi istnieć w ramach tego samego interfejsu Azure OpenAI
zasób jako wdrożenie modelu używane do ukończenia czatu.
Tak
Wymiary liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
typ wyliczenie Identyfikator typu zawsze "deployment_name" dla tego typu źródła wektoryzacji.
Możliwe wartości: deployment_name
Tak

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
encoded_api_key ciąg Tak
typ wyliczenie
Możliwe wartości: encoded_api_key
Tak

AzureChatDataSourceEndpointVectorizationSource

Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług publicznych względem wdrożenia modelu osadzania usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
uwierzytelnianie obiekt Tak
└access_token ciąg Nie.
└* klucz ciąg Nie.
└typ wyliczenie
Możliwe wartości: access_token
Nie.
Wymiary liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
punkt końcowy ciąg Określa adres URL punktu końcowego zasobu, z którego mają zostać pobrane osadzanie.
Powinien być w formacie:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Parametr zapytania w wersji interfejsu API jest niedozwolony.
Tak
typ wyliczenie Identyfikator typu, zawsze "punkt końcowy" dla tego typu źródła wektoryzacji.
Możliwe wartości: endpoint
Tak

AzureChatDataSourceIntegratedVectorizationSource

Reprezentuje zintegrowane źródło wektoryzacji zdefiniowane w ramach pomocniczego zasobu wyszukiwania.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Identyfikator typu zawsze "zintegrowany" dla tego typu źródła wektoryzacji.
Możliwe wartości: integrated
Tak

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
klucz ciąg Tak
key_id ciąg Tak
typ wyliczenie
Możliwe wartości: key_and_key_id
Tak

AzureChatDataSourceModelIdVectorizationSource

Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług na podstawie identyfikatora modelu usługi wyszukiwania. Ten typ źródła jest obecnie obsługiwany tylko przez usługę Elasticsearch.

Nazwa Typ Opis Wymagane Wartość domyślna
model_id ciąg Identyfikator kompilacji modelu osadzania do użycia na potrzeby wektoryzacji. Tak
typ wyliczenie Identyfikator typu zawsze "model_id" dla tego typu źródła wektoryzacji.
Możliwe wartości: model_id
Tak

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: system_assigned_managed_identity
Tak

AzureChatDataSourceType

Majątek Wartość
Typ ciąg
Wartości azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
managed_identity_resource_id ciąg Tak
typ wyliczenie
Możliwe wartości: user_assigned_managed_identity
Tak

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Nazwa Typ Opis Wymagane Wartość domyślna
hasło ciąg Tak
typ wyliczenie
Możliwe wartości: username_and_password
Tak
nazwa użytkownika ciąg Tak

AzureChatDataSourceVectorizationSourceSource

Reprezentacja źródła wektoryzacji danych do użycia jako zasób osadzania ze źródłem danych.

Dyskryminujące dla elementu AzureChatDataSourceVectorizationSourceSource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Nazwa Typ Opis Wymagane Wartość domyślna
typ obiekt Tak

AzureChatDataSourceVectorizationSourceType

Majątek Wartość
Typ ciąg
Wartości endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Dodatkowa właściwość dodana do komunikatów odpowiedzi na zakończenie czatu utworzona przez usługę Azure OpenAI podczas korzystania z zachowania rozszerzenia. Obejmuje to informacje o intencji i cytatach z funkcji On Your Data (Dane lokalne).

Nazwa Typ Opis Wymagane Wartość domyślna
all_retrieved_documents obiekt Podsumowanie informacji o dokumentach pobranych przez operację pobierania danych. Nie.
└chunk_id ciąg Identyfikator fragmentu dla cytatu. Nie.
└─ zawartość ciąg Zawartość cytatu. Nie.
└data_source_index liczba całkowita Indeks źródła danych używany do pobierania. Nie.
└* ścieżka pliku ciąg Ścieżka pliku do cytatu. Nie.
└filter_reason wyliczenie Jeśli ma to zastosowanie, wskazanie, dlaczego dokument został przefiltrowany.
Możliwe wartości: score, rerank
Nie.
└original_search_score Liczba Oryginalny wynik wyszukiwania dla pobierania. Nie.
└rerank_score Liczba Wynik ponownego pobierania. Nie.
└search_queries macierz Zapytania wyszukiwania wykonywane w celu pobrania dokumentów. Nie.
Tytuł └} ciąg Tytuł cytatu. Nie.
└} adres URL ciąg Adres URL cytatu. Nie.
Cytatów macierz Cytaty generowane przez pobieranie danych. Nie.
intencja ciąg Wykryta intencja z historii czatu, która służy do przenoszenia kontekstu konwersacji między interakcjami Nie.

AzureContentFilterBlocklistResult

Kolekcja wyników filtrowania true/false dla skonfigurowanych niestandardowych list zablokowanych.

Nazwa Typ Opis Wymagane Wartość domyślna
details macierz Pary poszczególnych identyfikatorów listy bloków i tego, czy spowodowały one akcję filtrowania. Nie.
Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którakolwiek ze szczegółowych list zablokowanych spowodowała akcję filtrowania. Tak

AzureContentFilterCompletionTextSpan

Reprezentacja zakresu tekstu uzupełniania używanego przez wyniki filtru zawartości usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
completion_end_offset liczba całkowita Przesunięcie pierwszego punktu kodu UTF32, który jest wykluczony z zakresu. To pole jest zawsze równe completion_start_offset dla pustych zakresów. To pole jest zawsze większe niż completion_start_offset dla niepustych zakresów. Tak
completion_start_offset liczba całkowita Przesunięcie punktu kodu UTF32, który rozpoczyna zakres. Tak

AzureContentFilterCompletionTextSpanDetectionResult

Nazwa Typ Opis Wymagane Wartość domyślna
details macierz Szczegółowe informacje o wykrytych zakresach tekstu uzupełniania. Tak
Wykryte typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Tak
Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Tak

AzureContentFilterCustomTopicResult

Kolekcja wyników filtrowania wartości true/false dla skonfigurowanych tematów niestandardowych.

Nazwa Typ Opis Wymagane Wartość domyślna
details macierz Pary poszczególnych identyfikatorów tematów i informacje o ich wykryciu. Nie.
Filtrowane typ logiczny (boolowski) Wartość wskazująca, czy którykolwiek ze szczegółowych tematów spowodował akcję filtrowania. Tak

AzureContentFilterDetectionResult

Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została odfiltrowana.

Nazwa Typ Opis Wymagane Wartość domyślna
Wykryte typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Tak
Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Tak

AzureContentFilterPersonallyIdentifiableInformationResult

Wynik wykrywania filtru zawartości dla danych osobowych, które zawierają rozszerzenia szkody.

Nazwa Typ Opis Wymagane Wartość domyślna
redacted_text ciąg Zredagowany tekst z usuniętymi lub zamaskowanych informacjami o danych osobowych. Nie.
sub_categories macierz Szczegółowe wyniki poszczególnych kategorii PIIHarmSubCategory. Nie.

AzureContentFilterResultForChoice

Wynik filtru zawartości dla pojedynczego elementu odpowiedzi wygenerowanego przez system generowania sztucznej inteligencji.

Nazwa Typ Opis Wymagane Wartość domyślna
custom_blocklists obiekt Kolekcja wyników filtrowania true/false dla skonfigurowanych niestandardowych list zablokowanych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów listy bloków i tego, czy spowodowały one akcję filtrowania. Nie.
Filtrowane └* typ logiczny (boolowski) Wartość wskazująca, czy którakolwiek ze szczegółowych list zablokowanych spowodowała akcję filtrowania. Nie.
custom_topics obiekt Kolekcja wyników filtrowania wartości true/false dla skonfigurowanych tematów niestandardowych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów tematów i informacje o ich wykryciu. Nie.
Filtrowane └* typ logiczny (boolowski) Wartość wskazująca, czy którykolwiek ze szczegółowych tematów spowodował akcję filtrowania. Nie.
błąd obiekt Jeśli jest obecny, szczegółowe informacje o błędzie uniemożliwiającym filtrowanie zawartości przed ukończeniem oceny. Nie.
└─ kod liczba całkowita Unikatowy kod czytelny dla maszyny skojarzony z błędem. Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat skojarzony z błędem. Nie.
nienawiść obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
personally_identifiable_information obiekt Wynik wykrywania filtru zawartości dla danych osobowych, które zawierają rozszerzenia szkody. Nie.
└redacted_text ciąg Zredagowany tekst z usuniętymi lub zamaskowanych informacjami o danych osobowych. Nie.
└sub_categories macierz Szczegółowe wyniki poszczególnych kategorii PIIHarmSubCategory. Nie.
przekleństwo obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została wykryta
Filtrowane.
Nie.
Wykryto odpowiedź └* typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
Filtrowane └* typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
protected_material_code obiekt Wynik wykrywania opisujący dopasowanie do licencjonowanego kodu lub innego chronionego materiału źródłowego. Nie.
└* cytat obiekt Jeśli jest dostępna, szczegóły cytatu opisujące skojarzoną licencję i jego lokalizację. Nie.
└* adres URL ciąg Adres URL skojarzony z licencją. Nie.
Licencja └* ciąg Nazwa lub identyfikator licencji skojarzonej z wykrywaniem. Nie.
Wykryto odpowiedź └* typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
Filtrowane └* typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
protected_material_text obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została wykryta
Filtrowane.
Nie.
Wykryto odpowiedź └* typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
Filtrowane └* typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
self_harm obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
seksualny obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Nie.
przemoc obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.

AzureContentFilterResultForPrompt

Wynik filtru zawartości skojarzony z pojedynczym elementem monitu wejściowego do systemu generowania sztucznej inteligencji.

Nazwa Typ Opis Wymagane Wartość domyślna
content_filter_results obiekt Szczegóły kategorii filtru zawartości dla wyniku. Nie.
└custom_blocklists obiekt Kolekcja wyników filtrowania true/false dla skonfigurowanych niestandardowych list zablokowanych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów listy bloków i tego, czy spowodowały one akcję filtrowania. Nie.
Filtrowane └* typ logiczny (boolowski) Wartość wskazująca, czy którakolwiek ze szczegółowych list zablokowanych spowodowała akcję filtrowania. Nie.
└custom_topics obiekt Kolekcja wyników filtrowania wartości true/false dla skonfigurowanych tematów niestandardowych. Nie.
└szczegóły macierz Pary poszczególnych identyfikatorów tematów i informacje o ich wykryciu. Nie.
Filtrowane └* typ logiczny (boolowski) Wartość wskazująca, czy którykolwiek ze szczegółowych tematów spowodował akcję filtrowania. Nie.
└─ błąd obiekt Jeśli jest obecny, szczegółowe informacje o błędzie uniemożliwiającym filtrowanie zawartości przed ukończeniem oceny. Nie.
└─ kod liczba całkowita Unikatowy kod czytelny dla maszyny skojarzony z błędem. Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat skojarzony z błędem. Nie.
└* nienawiść obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
└indirect_attack obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została wykryta
Filtrowane.
Nie.
Wykryto odpowiedź └* typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
Filtrowane └* typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
└* jailbreak obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została wykryta
Filtrowane.
Nie.
Wykryto odpowiedź └* typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
Filtrowane └* typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
└* wulgaryzm obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została wykryta i czy zawartość została wykryta
Filtrowane.
Nie.
Wykryto odpowiedź └* typ logiczny (boolowski) Czy kategoria zawartości oznaczonej etykietą została wykryta w zawartości. Nie.
Filtrowane └* typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości. Nie.
└self_harm obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
└* seksualny obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
└* przemoc obiekt Element wyniku filtru zawartości z etykietą wskazujący, czy zawartość została odfiltrowana i jaka jest jakość
poziom ważności zawartości był oceniany względem konfiguracji filtru zawartości dla kategorii.
Nie.
Filtrowane └* typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Nie.
Ważność └* wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Nie.
prompt_index liczba całkowita Indeks monitu wejściowego skojarzonego z towarzyszącymi kategoriami wyników filtru zawartości. Nie.

AzureContentFilterSeverityResult

Element wyniku filtru zawartości z etykietą, który wskazuje, czy zawartość została przefiltrowana i jaki był poziom ważności jakościowej zawartości, obliczony względem konfiguracji filtru zawartości dla kategorii.

Nazwa Typ Opis Wymagane Wartość domyślna
Filtrowane typ logiczny (boolowski) Określa, czy ważność zawartości spowodowała akcję filtrowania zawartości. Tak
severity wyliczenie Ważność oznaczona etykietą zawartości.
Możliwe wartości: safe, , low, mediumhigh
Tak

AzureCosmosDBChatDataSource

Reprezentuje konfigurację źródła danych, która będzie używać zasobu usługi Azure CosmosDB.

Nazwa Typ Opis Wymagane Wartość domyślna
Parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych usługi Azure CosmosDB. Tak
└allow_partial_result typ logiczny (boolowski) Jeśli ustawiono wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie
zapytania częściowe kończą się niepowodzeniem. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem.
Nie. Nieprawda
Uwierzytelnianie └* AzureChatDataSourceConnectionStringAuthenticationOptions Nie.
└container_name ciąg Nie.
└database_name ciąg Nie.
└embedding_dependency AzureChatDataSourceVectorizationSourceSource Reprezentacja źródła wektoryzacji danych do użycia jako zasób osadzania ze źródłem danych. Nie.
└fields_mapping obiekt Nie.
└content_fields macierz Nie.
└content_fields_separator ciąg Nie.
└filepath_field ciąg Nie.
└title_field ciąg Nie.
└url_field ciąg Nie.
└vector_fields macierz Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└include_contexts macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie określać.
Nie.
└* ścisłość liczba całkowita Skonfigurowana ścisłość filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do funkcji w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze "azure_cosmos_db".
Możliwe wartości: azure_cosmos_db
Tak

AzureCreateChatCompletionRequest

Rozszerzony model żądań na potrzeby uzupełniania czatów w usłudze Azure OpenAI. Spowoduje to dodanie możliwości udostępniania źródeł danych dla funkcji Na danych.

Nazwa Typ Opis Wymagane Wartość domyślna
dźwięk obiekt Parametry dla danych wyjściowych dźwięku. Wymagane w przypadku żądania danych wyjściowych dźwięku za pomocą polecenia
modalities: ["audio"].
Nie.
Format └* wyliczenie Określa format dźwięku wyjściowego. Musi być jednym z wavelementów , , mp3, flac
opuslub pcm16.
Możliwe wartości: wav, , aacmp3, flac, , opuspcm16
Nie.
└* głos obiekt Nie.
data_sources macierz Źródła danych, które mają być używane w funkcji On Your Data , wyłącznie w usłudze Azure OpenAI. Nie.
kara za częstotliwość Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie
ich istniejąca częstotliwość w tekście do tej pory, zmniejszając model
prawdopodobieństwo powtórzenie tego samego wiersza dosłowne.
Nie. 0
function_call wyliczenie Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.
Możliwe wartości: none, auto
Nie.
functions macierz Przestarzałe na rzecz .tools

Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.
odchylenie logistyczne obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON mapujący tokeny (określony przez ich identyfikator tokenu w elem.
tokenizer) do skojarzonej wartości stronniczej z -100 do 100. Matematycznie
stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem.
Dokładny efekt będzie się różnić w zależności od modelu, ale wartości między -1 a 1 powinny
zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości, takie jak -100 lub 100
w wyniku zakazu lub wyłącznego wyboru odpowiedniego tokenu.
Nie. Żaden
logprobs typ logiczny (boolowski) Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true,
Zwraca prawdopodobieństwo dziennika dla każdego tokenu wyjściowego zwróconego w elem.
content z message.
Nie. Nieprawda
max_completion_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla elementu
uzupełnianie, w tym widoczne tokeny wyjściowe i tokeny rozumowania.
Nie.
maks_tokenów liczba całkowita Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.
Ta wartość może służyć do kontrolowania kosztów tekstu generowanego za pośrednictwem interfejsu API.

Ta wartość jest teraz przestarzała na rzecz max_completion_tokenselementu i jest
niezgodne z modelami serii o1.
Nie.
messages macierz Lista wiadomości składających się na dotychczasową rozmowę. W zależności od
model używany, obsługiwane są różne typy komunikatów (modalności),
na przykład tekst, obrazy i dźwięk.
Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
Sposoby obiekt Typy danych wyjściowych, które mają być generowane przez model.
Większość modeli jest w stanie wygenerować tekst, co jest wartością domyślną:

["text"]

Model gpt-4o-audio-preview może również służyć do generowania dźwięku. Aby zażądać wygenerowania tego modelu
odpowiedzi tekstowe i dźwiękowe, których można użyć:

["text", "audio"]
Nie.
model ciąg Identyfikator wdrożenia modelu do użycia dla żądania ukończenia czatu. Tak
n liczba całkowita Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n , 1 aby zminimalizować koszty. Nie. 1
wywołania_narzędzia_równoległe obiekt Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie.
przewidywanie obiekt Podstawowa reprezentacja przewidywanych danych wyjściowych z modelu. Nie.
└typ OpenAI.ChatOutputPredictionType Nie.
kara_obecności Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie
czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo modelu
mówić o nowych tematach.
Nie. 0
wysiłek rozumowania obiekt tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
format_odpowiedzi obiekt Nie.
└typ wyliczenie
Możliwe wartości: text, , json_objectjson_schema
Nie.
nasienie liczba całkowita Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
stop obiekt Nieobsługiwane w przypadku najnowszych modeli o3 rozumowania i o4-mini.

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Ten
zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
przechowywać typ logiczny (boolowski) Czy zapisać dane wyjściowe tego żądania ukończenia czatu dla
używać w produktach destylacyjnych lub evals modelu.
Nie. Nieprawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta
generowane przy użyciu zdarzeń wysyłanych przez serwer.
Nie. Nieprawda
stream_options obiekt Opcje odpowiedzi przesyłania strumieniowego. Ustaw tę wartość tylko po ustawieniu .stream: true Nie.
└include_usage typ logiczny (boolowski) W przypadku ustawienia dodatkowy fragment będzie przesyłany strumieniowo przed data: [DONE]
Komunikat. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu
dla całego żądania, a choices pole zawsze będzie puste
tablica.

Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null
wartość. NUTA: Jeśli strumień zostanie przerwany, może nie zostać wyświetlony
końcowy fragment użycia, który zawiera łączne użycie tokenu dla żądania.
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.
none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.

none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.
Nie.
narzędzia macierz Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc
monitorowanie i wykrywanie nadużyć.
Nie.
user_security_context AzureUserSecurityContext Kontekst zabezpieczeń użytkownika zawiera kilka parametrów, które opisują samą aplikację, oraz użytkownika końcowego, który wchodzi w interakcję z aplikacją. Te pola ułatwiają zespołom ds. operacji zabezpieczeń badanie i eliminowanie zdarzeń zabezpieczeń, zapewniając kompleksowe podejście do ochrony aplikacji sztucznej inteligencji. Dowiedz się więcej na temat ochrony aplikacji sztucznej inteligencji przy użyciu usługi Microsoft Defender for Cloud. Nie.

AzureCreateChatCompletionResponse

Rozszerzony model odpowiedzi na czat najwyższego poziomu dla usługi Azure OpenAI. Ten model dodaje adnotacje filtru odpowiedzialnej zawartości sztucznej inteligencji dla monitów wejściowych.

Nazwa Typ Opis Wymagane Wartość domyślna
Wyborów macierz Tak
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. Tak
id ciąg Unikatowy identyfikator ukończenia czatu. Tak
model ciąg Model używany do ukończenia czatu. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.
Możliwe wartości: chat.completion
Tak
prompt_filter_results macierz Adnotacje filtru odpowiedzialnej zawartości sztucznej inteligencji skojarzone z monitami wejściowymi do ukończenia czatu. Nie.
system_fingerprint ciąg Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model.

Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm.
Nie.
użycie OpenAI.CompletionUsage Statystyki użycia dla żądania ukończenia. Nie.

AzureCreateChatCompletionStreamResponse

Nazwa Typ Opis Wymagane Wartość domyślna
Wyborów macierz Lista opcji ukończenia czatu. Może zawierać więcej niż jeden element, jeśli n jest większy niż 1. Może być również pusty dla elementu
ostatni fragment, jeśli ustawisz wartość stream_options: {"include_usage": true}.
Tak
content_filter_results AzureContentFilterResultForChoice Wynik filtru zawartości dla pojedynczego elementu odpowiedzi wygenerowanego przez system generowania sztucznej inteligencji. Nie.
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. Każdy fragment ma ten sam znacznik czasu. Tak
delta AzureChatCompletionStreamResponseDelta Rozszerzony model odpowiedzi dla komunikatu odpowiedzi na czat przesyłania strumieniowego w usłudze Azure OpenAI.
Ten model dodaje obsługę kontekstu wiadomości czatu, używanej przez funkcję On Your Data dla intencji, cytatów i innych
informacje dotyczące wykonywanego generowania rozszerzonego pobierania.
Nie.
id ciąg Unikatowy identyfikator ukończenia czatu. Każdy fragment ma ten sam identyfikator. Tak
model ciąg Model do wygenerowania ukończenia. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.chunk.
Możliwe wartości: chat.completion.chunk
Tak
system_fingerprint ciąg Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model.
Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm.
Nie.
użycie obiekt Statystyki użycia dla żądania ukończenia. Nie.
└─ tokeny_zakończenia liczba całkowita Liczba tokenów w wygenerowanych ukończeniu. Nie. 0
└completion_tokens_details obiekt Podział tokenów używanych w zakończeniu. Nie.
└accepted_prediction_tokens liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w elemecie
przewidywanie, które pojawiło się w zakończeniu.
Nie. 0
└audio_tokens liczba całkowita Tokeny wejściowe audio generowane przez model. Nie. 0
└reasoning_tokens liczba całkowita Tokeny generowane przez model z powodów. Nie. 0
└rejected_prediction_tokens liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w elemecie
przewidywanie, które nie zostało wyświetlone w zakończeniu. Jednak podobnie jak
tokeny rozumowania, te tokeny są nadal liczone w sumie
tokeny uzupełniania na potrzeby rozliczeń, danych wyjściowych i okna kontekstu
Limity.
Nie. 0
└prompt_tokens liczba całkowita Liczba tokenów w wierszu polecenia. Nie. 0
└prompt_tokens_details obiekt Podział tokenów używanych w wierszu polecenia. Nie.
└audio_tokens liczba całkowita Tokeny wejściowe audio obecne w wierszu polecenia. Nie. 0
└cached_tokens liczba całkowita Tokeny buforowane obecne w wierszu polecenia. Nie. 0
└total_tokens liczba całkowita Łączna liczba tokenów używanych w żądaniu (monit + ukończenie). Nie. 0

AzureCreateEmbeddingRequest

Nazwa Typ Opis Wymagane Wartość domyślna
Wymiary liczba całkowita Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. Nie.
encoding_format wyliczenie Format umożliwiający zwrócenie osadzania. Może to być wartość float lub base64.
Możliwe wartości: float, base64
Nie.
dane wejściowe ciąg lub tablica Tak
model ciąg Model do użycia dla żądania osadzania. Tak
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

AzureCreateFileRequestMultiPart

Nazwa Typ Opis Wymagane Wartość domyślna
wygasa po obiekt Tak
└* kotwica AzureFileExpiryAnchor Nie.
└s liczba całkowita Nie.
plik ciąg Tak
purpose wyliczenie Zamierzony cel przesłanego pliku. Jeden z: — assistantsużywany w interfejsie API Asystentów — batch: używany w interfejsie API usługi Batch — fine-tune: używany do dostrajania — evals: używany do ewalowania zestawów danych
Możliwe wartości: assistants, , batch, fine-tuneevals
Tak

AzureCreateResponse

Nazwa Typ Opis Wymagane Wartość domyślna
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
include macierz Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie
obsługiwane wartości to:
- code_interpreter_call.outputs: zawiera dane wyjściowe wykonywania kodu w języku Python
w elementy wywołania narzędzia interpretera kodu.
- computer_call_output.output.image_url: dołącz adresy URL obrazów z danych wyjściowych wywołania komputera.
- file_search_call.results: uwzględnij wyniki wyszukiwania elementu
wywołanie narzędzia wyszukiwania plików.
- message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
- message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
- reasoning.encrypted_content: zawiera zaszyfrowaną wersję rozumowania
tokeny w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w programie
konwersacje wieloeściowe w przypadku bezstanowego korzystania z interfejsu API odpowiedzi (na przykład
store gdy parametr jest ustawiony na false, lub gdy organizacja jest
zarejestrowane w programie przechowywania danych zerowych).
Nie.
dane wejściowe ciąg lub tablica Nie.
instructions ciąg Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
model ciąg Wdrożenie modelu do użycia na potrzeby tworzenia tej odpowiedzi. Tak
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w
monit. Wartości podstawienia mogą być ciągami lub innymi
Typy danych wejściowych odpowiedzi, takie jak obrazy lub pliki.
Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
Rozumowanie obiekt tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Wysiłek └* OpenAI.ReasoningEffort tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
└generate_summary wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
Podsumowanie └* wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
przechowywać typ logiczny (boolowski) Czy przechowywać wygenerowaną odpowiedź modelu na potrzeby późniejszego pobierania za pośrednictwem
API.
Nie. Prawda
odtwarzać strumieniowo typ logiczny (boolowski) W przypadku ustawienia wartości true dane odpowiedzi modelu będą przesyłane strumieniowo do klienta
generowane przy użyciu zdarzeń wysyłanych przez serwer.
Zobacz sekcję Przesyłanie strumieniowe poniżej
aby uzyskać więcej informacji.
Nie. Nieprawda
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
SMS obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem jednego lub
więcej narzędzi.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie plików.
- Wywołania funkcji (narzędzia niestandardowe): funkcje zdefiniowane przez Użytkownika
włączenie modelu w celu wywołania własnego kodu.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
Obcinania wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

AzureErrorResponse

Nazwa Typ Opis Wymagane Wartość domyślna
błąd obiekt Szczegóły błędu. Nie.
└─ kod ciąg Unikatowy identyfikator wygenerowany przez maszynę dla błędu. Nie.
└inner_error Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat skojarzony z błędem. Nie.
└* param ciąg Jeśli ma to zastosowanie, parametr wejściowy żądania skojarzony z błędem Nie.
└typ wyliczenie Typ obiektu, zawsze "błąd".
Możliwe wartości: error
Nie.

AzureEvalAPICompletionsSamplingParams

Nazwa Typ Opis Wymagane Wartość domyślna
wywołania_narzędzia_równoległe typ logiczny (boolowski) Nie.
format_odpowiedzi OpenAI.ResponseTextFormatConfiguration Nie.
narzędzia macierz Nie.

AzureEvalAPIModelSamplingParams

Nazwa Typ Opis Wymagane Wartość domyślna
maks_tokenów liczba całkowita Maksymalna liczba tokenów w wygenerowanych danych wyjściowych. Nie.
wysiłek rozumowania wyliczenie Określa poziom nakładu pracy rozumowania stosowanego podczas generowania.
Możliwe wartości: low, , mediumhigh
Nie.
nasienie liczba całkowita Wartość inicjowania losowości podczas próbkowania. Nie.
temperatura Liczba Wyższa temperatura zwiększa losowość w danych wyjściowych. Nie.
top_p Liczba Alternatywą dla temperatury próbkowania jądra; 1.0 zawiera wszystkie tokeny. Nie.

AzureEvalAPIResponseSamplingParams

Nazwa Typ Opis Wymagane Wartość domyślna
wywołania_narzędzia_równoległe typ logiczny (boolowski) Nie.
format_odpowiedzi OpenAI.ResponseTextFormatConfiguration Nie.
narzędzia macierz Nie.

AzureFileExpiryAnchor

Majątek Wartość
Typ ciąg
Wartości created_at

AzureFineTuneReinforcementMethod

Nazwa Typ Opis Wymagane Wartość domyślna
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.
hiperparametry OpenAI.FineTuneReinforcementHyperparameters Hiperparametry używane do zadania dostrajania wzmocnienia. Nie.
format_odpowiedzi obiekt Nie.
└json_schema obiekt Schemat JSON dla formatu odpowiedzi Nie.
└typ wyliczenie Typ formatu odpowiedzi
Możliwe wartości: json_schema
Nie.

AzureListFilesResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tak
first_id ciąg Tak
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

AzureOpenAIFile

Nazwa Typ Opis Wymagane Wartość domyślna
B liczba całkowita Rozmiar pliku w bajtach. Tak
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia pliku. Tak
wygasa_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla czasu wygaśnięcia pliku. Nie.
nazwa pliku ciąg Nazwa pliku. Tak
id ciąg Identyfikator pliku, do którego można się odwoływać w punktach końcowych interfejsu API. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze file.
Możliwe wartości: file
Tak
purpose wyliczenie Zamierzony cel pliku. Obsługiwane wartości to assistants, , assistants_output, batchbatch_output, fine-tune i fine-tune-results.
Możliwe wartości: assistants, , assistants_outputbatch, batch_output, fine-tune, , fine-tune-resultsevals
Tak
stan wyliczenie
Możliwe wartości: uploaded, , pendingrunning, processed, error, , deletingdeleted
Tak
szczegóły statusu ciąg Przestarzałe. Aby uzyskać szczegółowe informacje na temat przyczyn niepowodzenia walidacji pliku szkoleniowego dostrajania, zobacz pole w witrynie errorfine_tuning.job. Nie.

AzurePiiSubCategoryResult

Szczegóły wyników dla poszczególnych jednostek PIIHarmSubCategory.

Nazwa Typ Opis Wymagane Wartość domyślna
Wykryte typ logiczny (boolowski) Czy w zawartości wykryto podkategorię zawartości oznaczonej etykietą. Tak
Filtrowane typ logiczny (boolowski) Czy wykrywanie zawartości spowodowało akcję filtrowania zawartości dla tej podkategorii. Tak
Redacted typ logiczny (boolowski) Czy zawartość została zredagowana dla tej podkategorii. Tak
sub_category ciąg Obliczona kategoria PIIHarmSubCategory. Tak

AzureResponse

Nazwa Typ Opis Wymagane Wartość domyślna
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Tak
błąd obiekt Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Tak
└─ kod OpenAI.ResponseErrorCode Kod błędu odpowiedzi. Nie.
└─ Komunikat ciąg Czytelny dla człowieka opis błędu. Nie.
id ciąg Unikatowy identyfikator tej odpowiedzi. Tak
incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Tak
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
instructions ciąg lub tablica Tak
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
model ciąg Model użyty do wygenerowania tej odpowiedzi. Tak
obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Tak
We/Wy macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Tak
output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Tak Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w
monit. Wartości podstawienia mogą być ciągami lub innymi
Typy danych wejściowych odpowiedzi, takie jak obrazy lub pliki.
Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
Rozumowanie obiekt tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Wysiłek └* OpenAI.ReasoningEffort tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
└generate_summary wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
Podsumowanie └* wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
stan wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Tak
SMS obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem jednego lub
więcej narzędzi.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Tak
Obcinania wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Tak

AzureSearchChatDataSource

Reprezentuje konfigurację źródła danych, która będzie używać zasobu usługi Azure Search.

Nazwa Typ Opis Wymagane Wartość domyślna
Parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych usługi Azure Search. Tak
└allow_partial_result typ logiczny (boolowski) Jeśli ustawiono wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie
zapytania częściowe kończą się niepowodzeniem. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem.
Nie. Nieprawda
Uwierzytelnianie └* obiekt Nie.
└access_token ciąg Nie.
└* klucz ciąg Nie.
└managed_identity_resource_id ciąg Nie.
└typ wyliczenie
Możliwe wartości: access_token
Nie.
└embedding_dependency obiekt Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług publicznych względem wdrożenia modelu osadzania usługi Azure OpenAI. Nie.
Uwierzytelnianie └* AzureChatDataSourceApiKeyAuthenticationOptions lub AzureChatDataSourceAccessTokenAuthenticationOptions Mechanizm uwierzytelniania do użycia ze źródłem wektoryzacji opartym na punkcie końcowym.
Uwierzytelnianie punktu końcowego obsługuje mechanizmy klucza interfejsu API i tokenu dostępu.
Nie.
└deployment_name ciąg Wdrożenie modelu osadzania do użycia na potrzeby wektoryzacji. To wdrożenie musi istnieć w ramach tego samego interfejsu Azure OpenAI
zasób jako wdrożenie modelu używane do ukończenia czatu.
Nie.
Wymiary └} liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
└— punkt końcowy ciąg Określa adres URL punktu końcowego zasobu, z którego mają zostać pobrane osadzanie.
Powinien być w formacie:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Parametr zapytania w wersji interfejsu API jest niedozwolony.
Nie.
└typ wyliczenie Identyfikator typu zawsze "zintegrowany" dla tego typu źródła wektoryzacji.
Możliwe wartości: integrated
Nie.
└— punkt końcowy ciąg Bezwzględna ścieżka punktu końcowego zasobu usługi Azure Search do użycia. Nie.
└fields_mapping obiekt Mapowania pól do użycia z zasobem usługi Azure Search. Nie.
└content_fields macierz Nazwy pól indeksu, które powinny być traktowane jako zawartość. Nie.
└content_fields_separator ciąg Wzorzec separatora, którego powinny używać pola zawartości. Nie.
└filepath_field ciąg Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
└image_vector_fields macierz Nazwy pól reprezentujących dane wektorów obrazów. Nie.
└title_field ciąg Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
└url_field ciąg Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
└vector_fields macierz Nazwy pól reprezentujących dane wektorowe. Nie.
Filtr └* ciąg Filtr do zastosowania do wyszukiwania. Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└include_contexts macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nazwa indeksu do użycia, jak określono w zasobie usługi Azure Search. Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie określać.
Nie.
└query_type wyliczenie Typ zapytania zasobu usługi Azure Search do użycia.
Możliwe wartości: simple, , semanticvector, , vector_simple_hybridvector_semantic_hybrid
Nie.
└semantic_configuration ciąg Dodatkowa konfiguracja semantyczna dla zapytania. Nie.
└* ścisłość liczba całkowita Skonfigurowana ścisłość filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do funkcji w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze "azure_search".
Możliwe wartości: azure_search
Tak

AzureUserSecurityContext

Kontekst zabezpieczeń użytkownika zawiera kilka parametrów, które opisują samą aplikację, oraz użytkownika końcowego, który wchodzi w interakcję z aplikacją. Te pola ułatwiają zespołom ds. operacji zabezpieczeń badanie i eliminowanie zdarzeń zabezpieczeń, zapewniając kompleksowe podejście do ochrony aplikacji sztucznej inteligencji. Dowiedz się więcej na temat ochrony aplikacji sztucznej inteligencji przy użyciu usługi Microsoft Defender for Cloud.

Nazwa Typ Opis Wymagane Wartość domyślna
application_name ciąg Nazwa aplikacji. Poufne dane osobowe nie powinny być uwzględniane w tym polu. Nie.
end_user_id ciąg Ten identyfikator jest identyfikatorem obiektu użytkownika Entra ID firmy Microsoft (dawniej Azure Active Directory) używanym do uwierzytelniania użytkowników końcowych w aplikacji generującej sztuczną inteligencję. Poufne dane osobowe nie powinny być uwzględniane w tym polu. Nie.
end_user_tenant_id ciąg Identyfikator dzierżawy platformy Microsoft 365, do którego należy użytkownik końcowy. Jest to wymagane, gdy aplikacja generowania sztucznej inteligencji jest wielodostępna. Nie.
source_ip ciąg Przechwytuje oryginalny adres IP klienta. Nie.

ChatCompletionMessageToolCallsItem

Wywołania narzędzia generowane przez model, takie jak wywołania funkcji.

Tablica: OpenAI.ChatCompletionMessageToolCall

CopiedAccountDetails

Nazwa Typ Opis Wymagane Wartość domyślna
destinationResourceId ciąg Identyfikator zasobu docelowego, do którego został skopiowany model. Tak
region ciąg Region, do którego został skopiowany model. Tak
stan wyliczenie Stan operacji kopiowania.
Możliwe wartości: Completed, , FailedInProgress
Tak

CopyModelRequest

Nazwa Typ Opis Wymagane Wartość domyślna
destinationResourceId ciąg Identyfikator docelowego zasobu do skopiowania. Tak
region ciąg Region do skopiowania modelu do. Tak

CopyModelResponse

Nazwa Typ Opis Wymagane Wartość domyślna
checkpointedModelName ciąg Identyfikator skopiowanego modelu. Tak
copiedAccountDetails macierz Identyfikator docelowego identyfikatora zasobu, w którym został skopiowany Tak
fineTuningJobId ciąg Identyfikator zadania dostrajania, z którego został skopiowany punkt kontrolny. Tak

ElasticsearchChatDataSource

Nazwa Typ Opis Wymagane Wartość domyślna
Parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych Elasticsearch. Tak
└allow_partial_result typ logiczny (boolowski) Jeśli ustawiono wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie
zapytania częściowe kończą się niepowodzeniem. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem.
Nie. Nieprawda
Uwierzytelnianie └* obiekt Nie.
└encoded_api_key ciąg Nie.
└* klucz ciąg Nie.
└key_id ciąg Nie.
└typ wyliczenie
Możliwe wartości: encoded_api_key
Nie.
└embedding_dependency AzureChatDataSourceVectorizationSourceSource Reprezentacja źródła wektoryzacji danych do użycia jako zasób osadzania ze źródłem danych. Nie.
└— punkt końcowy ciąg Nie.
└fields_mapping obiekt Nie.
└content_fields macierz Nie.
└content_fields_separator ciąg Nie.
└filepath_field ciąg Nie.
└title_field ciąg Nie.
└url_field ciąg Nie.
└vector_fields macierz Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└include_contexts macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie określać.
Nie.
└query_type wyliczenie
Możliwe wartości: simple, vector
Nie.
└* ścisłość liczba całkowita Skonfigurowana ścisłość filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do funkcji w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze "elasticsearch".
Możliwe wartości: elasticsearch
Tak

MongoDBChatDataSource

Nazwa Typ Opis Wymagane Wartość domyślna
Parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych MongoDB. Tak
└allow_partial_result typ logiczny (boolowski) Jeśli ustawiono wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie
zapytania częściowe kończą się niepowodzeniem. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem.
Nie. Nieprawda
└app_name ciąg Nazwa aplikacji MongoDB. Nie.
Uwierzytelnianie └* obiekt Nie.
└* hasło ciąg Nie.
└typ wyliczenie
Możliwe wartości: username_and_password
Nie.
└} nazwa użytkownika ciąg Nie.
└collection_name ciąg Nazwa kolekcji MongoDB. Nie.
└database_name ciąg Nazwa bazy danych MongoDB. Nie.
└embedding_dependency obiekt Reprezentuje źródło wektoryzacji, które wykonuje wywołania usług publicznych względem wdrożenia modelu osadzania usługi Azure OpenAI. Nie.
Uwierzytelnianie └* AzureChatDataSourceApiKeyAuthenticationOptions lub AzureChatDataSourceAccessTokenAuthenticationOptions Mechanizm uwierzytelniania do użycia ze źródłem wektoryzacji opartym na punkcie końcowym.
Uwierzytelnianie punktu końcowego obsługuje mechanizmy klucza interfejsu API i tokenu dostępu.
Nie.
└deployment_name ciąg Wdrożenie modelu osadzania do użycia na potrzeby wektoryzacji. To wdrożenie musi istnieć w ramach tego samego interfejsu Azure OpenAI
zasób jako wdrożenie modelu używane do ukończenia czatu.
Nie.
Wymiary └} liczba całkowita Liczba wymiarów do żądania osadzania.
Obsługiwane tylko w modelach "text-embedding-3" i nowszych.
Nie.
└— punkt końcowy ciąg Określa adres URL punktu końcowego zasobu, z którego mają zostać pobrane osadzanie.
Powinien być w formacie:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Parametr zapytania w wersji interfejsu API jest niedozwolony.
Nie.
└typ wyliczenie Identyfikator typu zawsze "deployment_name" dla tego typu źródła wektoryzacji.
Możliwe wartości: deployment_name
Nie.
└— punkt końcowy ciąg Nazwa punktu końcowego klastra MongoDB. Nie.
└fields_mapping obiekt Mapowania pól do zastosowania do danych używanych przez źródło danych MongoDB.
Należy pamiętać, że mapowania pól zawartości i wektorów są wymagane dla bazy danych MongoDB.
Nie.
└content_fields macierz Nie.
└content_fields_separator ciąg Nie.
└filepath_field ciąg Nie.
└title_field ciąg Nie.
└url_field ciąg Nie.
└vector_fields macierz Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└include_contexts macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nazwa indeksu bazy danych MongoDB. Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie określać.
Nie.
└* ścisłość liczba całkowita Skonfigurowana ścisłość filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do funkcji w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze "mongo_db".
Możliwe wartości: mongo_db
Tak

OpenAI.Annotation

Dyskryminująca adnotacja OpenAI.Annotation

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.AnnotationType Tak

OpenAI.AnnotationFileCitation

Cytat do pliku.

Nazwa Typ Opis Wymagane Wartość domyślna
identyfikator_pliku ciąg Identyfikator pliku. Tak
nazwa pliku ciąg Nazwa pliku cytowanego. Tak
indeks liczba całkowita Indeks pliku na liście plików. Tak
typ wyliczenie Typ cytatu pliku. Zawsze file_citation.
Możliwe wartości: file_citation
Tak

OpenAI.AnnotationFilePath

Ścieżka do pliku.

Nazwa Typ Opis Wymagane Wartość domyślna
identyfikator_pliku ciąg Identyfikator pliku. Tak
indeks liczba całkowita Indeks pliku na liście plików. Tak
typ wyliczenie Typ ścieżki pliku. Zawsze file_path.
Możliwe wartości: file_path
Tak

OpenAI.AnnotationType

Majątek Wartość
Typ ciąg
Wartości file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Cytat dotyczący zasobu internetowego używanego do generowania odpowiedzi modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
end_index liczba całkowita Indeks ostatniego znaku cytatu adresu URL w komunikacie. Tak
start_index liczba całkowita Indeks pierwszego znaku cytatu adresu URL w komunikacie. Tak
title ciąg Tytuł zasobu internetowego. Tak
typ wyliczenie Typ cytatu adresu URL. Zawsze url_citation.
Możliwe wartości: url_citation
Tak
URL ciąg Adres URL zasobu internetowego. Tak

OpenAI.PrzybliżonaLokalizacja

Nazwa Typ Opis Wymagane Wartość domyślna
miejscowość ciąg Nie.
kraj ciąg Nie.
region ciąg Nie.
strefa czasowa ciąg Nie.
typ wyliczenie
Możliwe wartości: approximate
Tak

OpenAI.AutoChunkingStrategyRequestParam

Strategia domyślna. Ta strategia używa obecnie wartości max_chunk_size_tokens800 i chunk_overlap_tokens .400

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Zawsze auto.
Możliwe wartości: auto
Tak

OpenAI.ChatCompletionFunctionCallOption

Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania. Tak

OpenAI.ChatCompletionFunctions

Nazwa Typ Opis Wymagane Wartość domyślna
opis ciąg Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Tak
Parametry Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON.
Zobacz dokumentację schematu JSON
w celu uzyskania dokumentacji dotyczącej formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.
Nie.

OpenAI.ChatCompletionMessageAudioChunk

Nazwa Typ Opis Wymagane Wartość domyślna
dane ciąg Nie.
wygasa_o liczba całkowita Nie.
id ciąg Nie.
transkrypcja ciąg Nie.

OpenAI.ChatCompletionMessageToolCall

Nazwa Typ Opis Wymagane Wartość domyślna
funkcja obiekt Funkcja wywoływana przez model. Tak
Argumenty └* ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może mieć niezdefiniowane parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. Nie.
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
id ciąg Identyfikator wywołania narzędzia. Tak
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionMessageToolCallChunk

Nazwa Typ Opis Wymagane Wartość domyślna
funkcja obiekt Nie.
Argumenty └* ciąg Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może mieć niezdefiniowane parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. Nie.
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
id ciąg Identyfikator wywołania narzędzia. Nie.
indeks liczba całkowita Tak
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Nie.

OpenAI.ChatCompletionNamedToolChoice

Określa narzędzie, które ma być używane przez model. Użyj polecenia , aby wymusić wywołanie określonej funkcji przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
funkcja obiekt Tak
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionRequestAssistantMessage

Komunikaty wysyłane przez model w odpowiedzi na komunikaty użytkownika.

Nazwa Typ Opis Wymagane Wartość domyślna
dźwięk obiekt Dane dotyczące poprzedniej odpowiedzi audio z modelu. Nie.
└─ ID ciąg Unikatowy identyfikator poprzedniej odpowiedzi audio z modelu. Nie.
zawartość ciąg lub tablica Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
Argumenty └* ciąg Nie.
└─ nazwa ciąg Nie.
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
odmowa ciąg Wiadomość o odmowie asystenta. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku assistant.
Możliwe wartości: assistant
Tak
tool_calls ChatCompletionMessageToolCallsItem Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. Nie.

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Nazwa Typ Opis Wymagane Wartość domyślna
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Tak
SMS ciąg Zawartość tekstowa. Tak
typ wyliczenie Typ części zawartości.
Możliwe wartości: refusal
Tak

OpenAI.ChatCompletionRequestDeveloperMessage

Instrukcje podane przez dewelopera, które powinny być zgodne z modelem, niezależnie od komunikatów wysyłanych przez użytkownika. W przypadku modeli o1 i nowszych developer komunikaty zastępują poprzednie system komunikaty.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku developer.
Możliwe wartości: developer
Tak

OpenAI.ChatCompletionRequestFunctionMessage

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg Zawartość komunikatu funkcji. Tak
nazwa ciąg Nazwa funkcji do wywołania. Tak
rola wyliczenie Rola autora komunikatów, w tym przypadku function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionRequestMessage

Dyskryminujące dla biblioteki OpenAI.ChatCompletionRequestMessage

Ten składnik używa właściwości role do rozróżniania różnych typów:

Wartość typu Schemat
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Nie.
rola obiekt Rola autora wiadomości Tak

OpenAI.ChatCompletionRequestMessageContentPart

Dyskryminujące dla biblioteki OpenAI.ChatCompletionRequestMessageContentPart

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ChatCompletionRequestMessageContentPartType Tak

OpenAI.ChatCompletionRequestMessageContentPartAudio

Nazwa Typ Opis Wymagane Wartość domyślna
input_audio obiekt Tak
└* dane ciąg Dane audio zakodowane w formacie Base64. Nie.
Format └* wyliczenie Format zakodowanych danych dźwiękowych. Obecnie obsługuje "wav" i "mp3".
Możliwe wartości: wav, mp3
Nie.
typ wyliczenie Typ części zawartości. Zawsze input_audio.
Możliwe wartości: input_audio
Tak

OpenAI.ChatCompletionRequestMessageContentPartFile

Nazwa Typ Opis Wymagane Wartość domyślna
plik obiekt Tak
└file_data ciąg Dane pliku zakodowane w formacie base64 używane podczas przekazywania pliku do modelu
jako ciąg.
Nie.
└ file_id ciąg Identyfikator przekazanego pliku do użycia jako dane wejściowe. Nie.
└} nazwa pliku ciąg Nazwa pliku używana podczas przekazywania pliku do modelu jako
struna.
Nie.
typ wyliczenie Typ części zawartości. Zawsze file.
Możliwe wartości: file
Tak

OpenAI.ChatCompletionRequestMessageContentPartImage

Nazwa Typ Opis Wymagane Wartość domyślna
image_url obiekt Tak
└* szczegóły wyliczenie Określa poziom szczegółowości obrazu.
Możliwe wartości: auto, , lowhigh
Nie.
└} adres URL ciąg Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. Nie.
typ wyliczenie Typ części zawartości.
Możliwe wartości: image_url
Tak

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Nazwa Typ Opis Wymagane Wartość domyślna
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Tak
typ wyliczenie Typ części zawartości.
Możliwe wartości: refusal
Tak

OpenAI.ChatCompletionRequestMessageContentPartText

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Zawartość tekstowa. Tak
typ wyliczenie Typ części zawartości.
Możliwe wartości: text
Tak

OpenAI.ChatCompletionRequestMessageContentPartType

Majątek Wartość
Typ ciąg
Wartości text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Instrukcje podane przez dewelopera, które powinny być zgodne z modelem, niezależnie od komunikatów wysyłanych przez użytkownika. W przypadku modeli o1 i nowszych użyj developer komunikatów do tego celu.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku system.
Możliwe wartości: system
Tak

OpenAI.ChatCompletionRequestSystemMessageContentPart

Odwołania: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Tak
rola wyliczenie Rola autora komunikatów, w tym przypadku tool.
Możliwe wartości: tool
Tak
tool_call_id ciąg Wywołanie narzędzia, na które odpowiada ten komunikat. Tak

OpenAI.ChatCompletionRequestToolMessageContentPart

Odwołania: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Komunikaty wysyłane przez użytkownika końcowego zawierające monity lub dodatkowe informacje kontekstowe.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Tak
nazwa ciąg Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
rola wyliczenie Rola autora komunikatów, w tym przypadku user.
Możliwe wartości: user
Tak

OpenAI.ChatCompletionRequestUserMessageContentPart

Nazwa Typ Opis Wymagane Wartość domyślna
plik obiekt Tak
└file_data ciąg Dane pliku zakodowane w formacie base64 używane podczas przekazywania pliku do modelu
jako ciąg.
Nie.
└ file_id ciąg Identyfikator przekazanego pliku do użycia jako dane wejściowe. Nie.
└} nazwa pliku ciąg Nazwa pliku używana podczas przekazywania pliku do modelu jako
struna.
Nie.
image_url obiekt Tak
└* szczegóły wyliczenie Określa poziom szczegółowości obrazu.
Możliwe wartości: auto, , lowhigh
Nie.
└} adres URL ciąg Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. Nie.
input_audio obiekt Tak
└* dane ciąg Dane audio zakodowane w formacie Base64. Nie.
Format └* wyliczenie Format zakodowanych danych dźwiękowych. Obecnie obsługuje "wav" i "mp3".
Możliwe wartości: wav, mp3
Nie.
SMS ciąg Zawartość tekstowa. Tak
typ wyliczenie Typ części zawartości. Zawsze file.
Możliwe wartości: file
Tak

OpenAI.ChatCompletionRole

Rola autora wiadomości

Majątek Wartość
Opis Rola autora wiadomości
Typ ciąg
Wartości system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Opcje odpowiedzi przesyłania strumieniowego. Ustaw tę wartość tylko po ustawieniu .stream: true

Nazwa Typ Opis Wymagane Wartość domyślna
include_usage typ logiczny (boolowski) W przypadku ustawienia dodatkowy fragment będzie przesyłany strumieniowo przed data: [DONE]
Komunikat. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu
dla całego żądania, a choices pole zawsze będzie puste
tablica.

Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null
wartość. NUTA: Jeśli strumień zostanie przerwany, może nie zostać wyświetlony
końcowy fragment użycia, który zawiera łączne użycie tokenu dla żądania.
Nie.

OpenAI.ChatCompletionStreamResponseDelta

Delta ukończenia czatu wygenerowana przez przesyłane strumieniowo odpowiedzi modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
dźwięk obiekt Nie.
└* dane ciąg Nie.
└expires_at liczba całkowita Nie.
└─ ID ciąg Nie.
└* transkrypcja ciąg Nie.
zawartość ciąg Zawartość komunikatu fragmentu. Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
Argumenty └* ciąg Nie.
└─ nazwa ciąg Nie.
odmowa ciąg Komunikat o odmowie wygenerowany przez model. Nie.
rola obiekt Rola autora wiadomości Nie.
tool_calls macierz Nie.

OpenAI.ChatCompletionTokenLogprob

Nazwa Typ Opis Wymagane Wartość domyślna
B macierz Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może to być null , jeśli nie ma reprezentacji bajtów dla tokenu. Tak
logprob Liczba Prawdopodobieństwo dziennika tego tokenu, jeśli znajduje się on w pierwszych 20 najbardziej prawdopodobnych tokenach. W przeciwnym razie wartość -9999.0 jest używana do oznaczania, że token jest bardzo mało prawdopodobny. Tak
kod przedpłaty ciąg Token. Tak
top_logprobs macierz Lista najbardziej prawdopodobnych tokenów i ich prawdopodobieństwa dziennika na tej pozycji tokenu. W rzadkich przypadkach może być mniej niż liczba zwróconych żądań top_logprobs . Tak

OpenAI.ChatCompletionTool

Nazwa Typ Opis Wymagane Wartość domyślna
funkcja OpenAI.FunctionObject Tak
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatCompletionToolChoiceOption

Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.

none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.

Nazwa Typ Opis Wymagane Wartość domyślna
funkcja obiekt Tak
└─ nazwa ciąg Nazwa funkcji do wywołania. Nie.
typ wyliczenie Typ narzędzia. Obecnie obsługiwany jest tylko function.
Możliwe wartości: function
Tak

OpenAI.ChatOutputPrediction

Podstawowa reprezentacja przewidywanych danych wyjściowych z modelu.

Dyskryminowanie dla biblioteki OpenAI.ChatOutputPrediction

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
content OpenAI.ChatOutputPredictionContent
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ChatOutputPredictionType Tak

OpenAI.ChatOutputPredictionContent

Statyczna przewidywana zawartość wyjściowa, taka jak zawartość pliku tekstowego, który jest ponownie wygenerowany.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Tak
typ wyliczenie Typ przewidywanej zawartości, którą chcesz podać. Ten typ to
obecnie zawsze content.
Możliwe wartości: content
Tak

OpenAI.ChatOutputPredictionType

Majątek Wartość
Typ ciąg
Wartości content

OpenAI.ChunkingStrategyRequestParam

Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii.

Dyskryminator openAI.ChunkingStrategyRequestParam

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
static OpenAI.StaticChunkingStrategyRequestParam
Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ strategii fragmentowania.
Możliwe wartości: auto, static
Tak

OpenAI.ChunkingStrategyResponseParam

Dyskryminujące dla openAI.ChunkingStrategyResponseParam

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: static, other
Tak

OpenAI.CodeInterpreterOutput

Dyskryminujące metody OpenAI.CodeInterpreterOutput

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.CodeInterpreterOutputType Tak

OpenAI.CodeInterpreterOutputImage

Dane wyjściowe obrazu z interpretera kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ danych wyjściowych. Zawsze "obraz".
Możliwe wartości: image
Tak
URL ciąg Adres URL danych wyjściowych obrazu z interpretera kodu. Tak

OpenAI.CodeInterpreterOutputLogs

Dane wyjściowe dzienników z interpretera kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
dzienniki ciąg Dane wyjściowe dzienników z interpretera kodu. Tak
typ wyliczenie Typ danych wyjściowych. Zawsze "dzienniki".
Możliwe wartości: logs
Tak

OpenAI.CodeInterpreterOutputType

Majątek Wartość
Typ ciąg
Wartości logs
image

OpenAI.CodeInterpreterTool

Narzędzie, które uruchamia kod języka Python, aby pomóc wygenerować odpowiedź na monit.

Nazwa Typ Opis Wymagane Wartość domyślna
kontener obiekt Konfiguracja kontenera interpretera kodu. Opcjonalnie określ identyfikatory
plików potrzebnych do uruchomienia kodu.
Tak
└ file_ids macierz Opcjonalna lista przesłanych plików, które mają być dostępne w Twoim kodzie. Nie.
└typ wyliczenie Zawsze auto.
Możliwe wartości: auto
Nie.
typ wyliczenie Typ narzędzia interpretera kodu. Zawsze code_interpreter.
Możliwe wartości: code_interpreter
Tak

OpenAI.CodeInterpreterToolAuto

Konfiguracja kontenera interpretera kodu. Opcjonalnie określ identyfikatory plików do uruchomienia kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
identyfikatory_plików macierz Opcjonalna lista przesłanych plików, które mają być dostępne w Twoim kodzie. Nie.
typ wyliczenie Zawsze auto.
Możliwe wartości: auto
Tak

OpenAI.CodeInterpreterToolCallItemParam

Wywołanie narzędzia w celu uruchomienia kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
kod ciąg Kod do uruchomienia lub wartość null, jeśli nie jest dostępny. Tak
container_id ciąg Identyfikator kontenera używanego do uruchamiania kodu. Tak
Wyniki macierz Dane wyjściowe generowane przez interpreter kodu, takie jak dzienniki lub obrazy.
Może mieć wartość null, jeśli żadne dane wyjściowe nie są dostępne.
Tak
typ wyliczenie
Możliwe wartości: code_interpreter_call
Tak

OpenAI.CodeInterpreterToolCallItemResource

Wywołanie narzędzia w celu uruchomienia kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
kod ciąg Kod do uruchomienia lub wartość null, jeśli nie jest dostępny. Tak
container_id ciąg Identyfikator kontenera używanego do uruchamiania kodu. Tak
Wyniki macierz Dane wyjściowe generowane przez interpreter kodu, takie jak dzienniki lub obrazy.
Może mieć wartość null, jeśli żadne dane wyjściowe nie są dostępne.
Tak
stan wyliczenie
Możliwe wartości: in_progress, , completedincomplete, , interpretingfailed
Tak
typ wyliczenie
Możliwe wartości: code_interpreter_call
Tak

OpenAI.ComparisonFilter

Filtr używany do porównywania określonego klucza atrybutu z daną wartością przy użyciu zdefiniowanej operacji porównania.

Nazwa Typ Opis Wymagane Wartość domyślna
klucz ciąg Klucz do porównania z wartością. Tak
typ wyliczenie Określa operator porównania: eq, , ne, gtgte, lt, . lte
- eq:Equals
- ne: nie równa się
- gt: większe niż
- gte: większe niż lub równe
- lt: mniejsze niż
- lte: mniejsze niż lub równe
Możliwe wartości: eq, , negt, gte, , ltlte
Tak
wartość ciąg lub liczba lub wartość logiczna Tak

OpenAI.CompletionUsage

Statystyki użycia dla żądania ukończenia.

Nazwa Typ Opis Wymagane Wartość domyślna
completion_tokens liczba całkowita Liczba tokenów w wygenerowanych ukończeniu. Tak 0
completion_tokens_details obiekt Podział tokenów używanych w zakończeniu. Nie.
└accepted_prediction_tokens liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w elemecie
przewidywanie, które pojawiło się w zakończeniu.
Nie. 0
└audio_tokens liczba całkowita Tokeny wejściowe audio generowane przez model. Nie. 0
└reasoning_tokens liczba całkowita Tokeny generowane przez model z powodów. Nie. 0
└rejected_prediction_tokens liczba całkowita W przypadku korzystania z przewidywanych danych wyjściowych liczba tokenów w elemecie
przewidywanie, które nie zostało wyświetlone w zakończeniu. Jednak podobnie jak
tokeny rozumowania, te tokeny są nadal liczone w sumie
tokeny uzupełniania na potrzeby rozliczeń, danych wyjściowych i okna kontekstu
Limity.
Nie. 0
prompt_tokens liczba całkowita Liczba tokenów w wierszu polecenia. Tak 0
prompt_tokens_details obiekt Podział tokenów używanych w wierszu polecenia. Nie.
└audio_tokens liczba całkowita Tokeny wejściowe audio obecne w wierszu polecenia. Nie. 0
└cached_tokens liczba całkowita Tokeny buforowane obecne w wierszu polecenia. Nie. 0
total_tokens liczba całkowita Łączna liczba tokenów używanych w żądaniu (monit + ukończenie). Tak 0

OpenAI.CompoundFilter

Połącz wiele filtrów przy użyciu polecenia and lub or.

Nazwa Typ Opis Wymagane Wartość domyślna
filtry macierz Tablica filtrów do połączenia. Elementy mogą mieć wartość ComparisonFilter lub CompoundFilter. Tak
typ wyliczenie Typ operacji: and lub or.
Możliwe wartości: and, or
Tak

OpenAI.ComputerAction

Dyskryminujące dla openAI.ComputerAction

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ComputerActionType Tak

OpenAI.ComputerActionClick

Akcja kliknięcia.

Nazwa Typ Opis Wymagane Wartość domyślna
guzik wyliczenie Wskazuje, który przycisk myszy został naciśnięty podczas kliknięcia. leftJeden z , right, wheel, back, lub forward.
Możliwe wartości: left, , rightwheel, , backforward
Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji kliknięcia ta właściwość to
zawsze ustaw wartość click.
Możliwe wartości: click
Tak
x liczba całkowita Współrzędna x, w której wystąpiło kliknięcie. Tak
y liczba całkowita Współrzędna y, w której wystąpiło kliknięcie. Tak

OpenAI.ComputerActionDoubleClick

Dwukrotne kliknięcie akcji.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Określa typ zdarzenia. W przypadku akcji dwukrotnego kliknięcia ta właściwość jest
zawsze ustaw wartość double_click.
Możliwe wartości: double_click
Tak
x liczba całkowita Współrzędna x, w której wystąpiło dwukrotne kliknięcie. Tak
y liczba całkowita Współrzędna y, w której wystąpiło dwukrotne kliknięcie. Tak

OpenAI.ComputerActionDrag

Akcja przeciągania.

Nazwa Typ Opis Wymagane Wartość domyślna
ścieżka macierz Tablica współrzędnych reprezentujących ścieżkę akcji przeciągania. Współrzędne będą wyświetlane jako tablica
obiektów, np.
<br>[<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br>]<br>
Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji przeciągania ta właściwość to
zawsze ustaw wartość drag.
Możliwe wartości: drag
Tak

OpenAI.ComputerActionKeyPress

Kolekcja kluczy, które model chce wykonać.

Nazwa Typ Opis Wymagane Wartość domyślna
keys macierz Kombinacja, które model żąda naciśnięcia. Jest to element
tablica ciągów, z których każdy reprezentuje klucz.
Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji keypress ta właściwość jest
zawsze ustaw wartość keypress.
Możliwe wartości: keypress
Tak

OpenAI.ComputerActionMove

Akcja przenoszenia myszy.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Określa typ zdarzenia. W przypadku akcji przenoszenia ta właściwość to
zawsze ustaw wartość move.
Możliwe wartości: move
Tak
x liczba całkowita Współrzędna x do przejścia. Tak
y liczba całkowita Współrzędna y do przejścia. Tak

OpenAI.ComputerActionScreenshot

Akcja zrzutu ekranu.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Określa typ zdarzenia. W przypadku akcji zrzutu ekranu ta właściwość to
zawsze ustaw wartość screenshot.
Możliwe wartości: screenshot
Tak

OpenAI.ComputerActionScroll

Akcja przewijania.

Nazwa Typ Opis Wymagane Wartość domyślna
scroll_x liczba całkowita Odległość przewijania poziomego. Tak
scroll_y liczba całkowita Odległość przewijania w pionie. Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji przewijania ta właściwość to
zawsze ustaw wartość scroll.
Możliwe wartości: scroll
Tak
x liczba całkowita Współrzędna x, w której wystąpiło przewijanie. Tak
y liczba całkowita Współrzędna y, w której wystąpiło przewijanie. Tak

OpenAI.ComputerActionType

Majątek Wartość
Typ ciąg
Wartości screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Akcja wpisywania tekstu.

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Tekst do wpisania. Tak
typ wyliczenie Określa typ zdarzenia. W przypadku akcji typu ta właściwość to
zawsze ustaw wartość type.
Możliwe wartości: type
Tak

OpenAI.ComputerActionWait

Akcja oczekiwania.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Określa typ zdarzenia. W przypadku akcji oczekiwania ta właściwość to
zawsze ustaw wartość wait.
Możliwe wartości: wait
Tak

OpenAI.ComputerToolCallItemParam

Narzędzie wywołujące narzędzie do korzystania z komputera.

Nazwa Typ Opis Wymagane Wartość domyślna
akcja OpenAI.ComputerAction Tak
call_id ciąg Identyfikator używany podczas odpowiadania na wywołanie narzędzia przy użyciu danych wyjściowych. Tak
pending_safety_checks macierz Oczekujące kontrole bezpieczeństwa dla wywołania komputera. Tak
typ wyliczenie
Możliwe wartości: computer_call
Tak

OpenAI.ComputerToolCallItemResource

Narzędzie wywołujące narzędzie do korzystania z komputera.

Nazwa Typ Opis Wymagane Wartość domyślna
akcja OpenAI.ComputerAction Tak
call_id ciąg Identyfikator używany podczas odpowiadania na wywołanie narzędzia przy użyciu danych wyjściowych. Tak
pending_safety_checks macierz Oczekujące kontrole bezpieczeństwa dla wywołania komputera. Tak
stan wyliczenie Stan elementu. in_progressJeden zcompleted, lub
incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: computer_call
Tak

OpenAI.ComputerToolCallOutputItemOutputOutput

Dyskryminujące dla openAI.ComputerToolCallOutputItemOutput

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ComputerToolCallOutputItemOutputOutputType Obraz zrzutu ekranu komputera używany z narzędziem do korzystania z komputera. Tak

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Nazwa Typ Opis Wymagane Wartość domyślna
identyfikator_pliku ciąg Nie.
image_url ciąg Nie.
typ wyliczenie
Możliwe wartości: computer_screenshot
Tak

OpenAI.ComputerToolCallOutputItemOutputOutputType

Obraz zrzutu ekranu komputera używany z narzędziem do korzystania z komputera.

Majątek Wartość
Opis Obraz zrzutu ekranu komputera używany z narzędziem do korzystania z komputera.
Typ ciąg
Wartości computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Dane wyjściowe wywołania narzędzia komputerowego.

Nazwa Typ Opis Wymagane Wartość domyślna
acknowledged_safety_checks macierz Kontrole bezpieczeństwa zgłoszone przez interfejs API, które zostały potwierdzone przez
wywoływacz.
Nie.
call_id ciąg Identyfikator wywołania narzędzia komputerowego, które wygenerowało dane wyjściowe. Tak
We/Wy OpenAI.ComputerToolCallOutputItemOutputOutput Tak
typ wyliczenie
Możliwe wartości: computer_call_output
Tak

OpenAI.ComputerToolCallOutputItemResource

Dane wyjściowe wywołania narzędzia komputerowego.

Nazwa Typ Opis Wymagane Wartość domyślna
acknowledged_safety_checks macierz Kontrole bezpieczeństwa zgłoszone przez interfejs API, które zostały potwierdzone przez
wywoływacz.
Nie.
call_id ciąg Identyfikator wywołania narzędzia komputerowego, które wygenerowało dane wyjściowe. Tak
We/Wy OpenAI.ComputerToolCallOutputItemOutputOutput Tak
stan wyliczenie Stan elementu. in_progressJeden zcompleted, lub
incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: computer_call_output
Tak

OpenAI.ComputerToolCallSafetyCheck

Oczekująca kontrola bezpieczeństwa dla wywołania komputera.

Nazwa Typ Opis Wymagane Wartość domyślna
kod ciąg Typ oczekującego sprawdzenia bezpieczeństwa. Tak
id ciąg Identyfikator oczekującego sprawdzenia bezpieczeństwa. Tak
komunikat ciąg Szczegółowe informacje na temat oczekujących kontroli bezpieczeństwa. Tak

OpenAI.NarzędziePodgląduUżytkowaniaKomputera

Narzędzie kontrolujące komputer wirtualny.

Nazwa Typ Opis Wymagane Wartość domyślna
wysokość ekranu liczba całkowita Wysokość wyświetlacza komputera. Tak
szerokość_wyświetlacza liczba całkowita Szerokość ekranu komputera. Tak
środowisko wyliczenie Typ środowiska komputera do sterowania.
Możliwe wartości: windows, , maclinux, , ubuntubrowser
Tak
typ wyliczenie Typ narzędzia do użycia komputera. Zawsze computer_use_preview.
Możliwe wartości: computer_use_preview
Tak

OpenAI.Coordinate

Para współrzędnych x/y, np. { x: 100, y: 200 }.

Nazwa Typ Opis Wymagane Wartość domyślna
x liczba całkowita Współrzędna x. Tak
y liczba całkowita Współrzędna y. Tak

OpenAI.CreateEmbeddingResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Lista osadzonych elementów wygenerowanych przez model. Tak
model ciąg Nazwa modelu używanego do generowania osadzania. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "list".
Możliwe wartości: list
Tak
użycie obiekt Informacje o użyciu żądania. Tak
└prompt_tokens liczba całkowita Liczba tokenów używanych przez monit. Nie.
└total_tokens liczba całkowita Całkowita liczba tokenów używanych przez żądanie. Nie.

OpenAI.CreateEvalItem

Wiadomość czatu, która tworzy monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość string lub OpenAI.EvalItemContent Wprowadzanie tekstu do modelu — może zawierać ciągi szablonu. Tak
rola wyliczenie Rola wejścia komunikatu. userJeden z, assistant, system lub
developer.
Możliwe wartości: user, , assistant, systemdeveloper
Tak
typ wyliczenie Typ danych wejściowych komunikatu. Zawsze message.
Możliwe wartości: message
Nie.

OpenAI.CreateEvalRunRequest

Nazwa Typ Opis Wymagane Wartość domyślna
źródło danych obiekt Tak
└typ OpenAI.EvalRunDataSourceType Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nazwa przebiegu. Nie.

OpenAI.CreateFineTuningJobRequest

Prawidłowe modele:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Nazwa Typ Opis Wymagane Wartość domyślna
hiperparametry obiekt Hiperparametry używane do zadania dostrajania.
Ta wartość jest teraz przestarzała na rzecz parametru methodi powinna zostać przekazana w parametrze method .
Nie.
└batch_size wyliczenie
Możliwe wartości: auto
Nie.
└learning_rate_multiplier wyliczenie
Możliwe wartości: auto
Nie.
└n_epochs wyliczenie
Możliwe wartości: auto
Nie.
Integracje macierz Lista integracji umożliwiających dostrajanie zadania. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
metoda OpenAI.FineTuneMethod Metoda używana do dostrajania. Nie.
model ciąg (zobacz prawidłowe modele poniżej) Nazwa modelu do dostosowania. Możesz wybrać jedną z opcji
obsługiwane modele.
Tak
nasienie liczba całkowita Nasiono kontroluje reproduktywność procesu. Przekazywanie tych samych parametrów nasion i zadania powinno generować te same wyniki, ale mogą się różnić w rzadkich przypadkach.
Jeśli ziarno nie zostanie określone, zostanie wygenerowane dla Ciebie.
Nie.
przyrostek ciąg Ciąg zawierający maksymalnie 64 znaki, które zostaną dodane do precyzyjnej nazwy modelu.

Na przykład wartość suffix "custom-model-name" spowoduje wygenerowanie nazwy modelu, takiej jak ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
Nie. Żaden
plik szkoleniowy ciąg Identyfikator przekazanego pliku zawierającego dane szkoleniowe.

Zobacz przekazywanie pliku , aby dowiedzieć się, jak przekazać plik.

Zestaw danych musi być sformatowany jako plik JSONL. Ponadto należy przekazać plik w celu fine-tune.

Zawartość pliku powinna się różnić w zależności od tego, czy model używa czatu, czy też metoda dostrajania dokładnego używa formatu preferencji .

Aby uzyskać więcej informacji, zobacz przewodnik dostosowywania .
Tak
plik walidacji ciąg Identyfikator przekazanego pliku zawierającego dane walidacji.

Jeśli podasz ten plik, dane są używane do generowania walidacji
metryki okresowo podczas dostrajania. Te metryki można wyświetlić w programie
plik wyników dostrajania.
Te same dane nie powinny być obecne zarówno w plikach trenowania, jak i sprawdzania poprawności.

Zestaw danych musi być sformatowany jako plik JSONL. Musisz przekazać plik z celem fine-tune.

Aby uzyskać więcej informacji, zobacz przewodnik dostosowywania .
Nie.

OpenAI.CreateFineTuningJobRequestIntegration

Dyskryminowanie dla elementu OpenAI.CreateFineTuningJobRequestIntegration

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Nazwa Typ Opis Wymagane Wartość domyślna
typ ciąg (zobacz prawidłowe modele poniżej) Tak

OpenAI.CreateFineTuningJobRequestWandbIntegration

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: wandb
Tak
wandb obiekt Tak
Jednostka └* ciąg Nie.
└─ nazwa ciąg Nie.
└* projekt ciąg Nie.
Tagi └* macierz Nie.

OpenAI.CreateVectorStoreFileBatchRequest

Nazwa Typ Opis Wymagane Wartość domyślna
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze są ciągami
o maksymalnej długości 64 znaków. Wartości to ciągi z maksymalną wartością
długość 512 znaków, wartości logicznych lub liczb.
Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search te, które mogą uzyskiwać dostęp do plików. Tak

OpenAI.CreateVectorStoreFileRequest

Nazwa Typ Opis Wymagane Wartość domyślna
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze są ciągami
o maksymalnej długości 64 znaków. Wartości to ciągi z maksymalną wartością
długość 512 znaków, wartości logicznych lub liczb.
Nie.
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia fragmentowania używana do fragmentowania plików. Jeśli nie zostanie ustawiona, użyje auto strategii. Nie.
identyfikator_pliku ciąg Identyfikator pliku, którego powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search te, które mogą uzyskiwać dostęp do plików. Tak

OpenAI.CreateVectorStoreRequest

Nazwa Typ Opis Wymagane Wartość domyślna
chunking_strategy obiekt Strategia domyślna. Ta strategia używa obecnie wartości max_chunk_size_tokens800 i chunk_overlap_tokens .400 Nie.
└* statyczny OpenAI.StaticChunkingStrategy Nie.
└typ wyliczenie Zawsze static.
Możliwe wartości: static
Nie.
wygasa po OpenAI.VectorStoreExpirationAfter Zasady wygasania magazynu wektorów. Nie.
identyfikatory_plików macierz Lista identyfikatorów plików, których powinien używać magazyn wektorów. Przydatne w przypadku narzędzi, takich jak file_search te, które mogą uzyskiwać dostęp do plików. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

OpenAI.DeleteFileResponse

Nazwa Typ Opis Wymagane Wartość domyślna
usunięta typ logiczny (boolowski) Tak
id ciąg Tak
obiekt wyliczenie
Możliwe wartości: file
Tak

OpenAI.DeleteVectorStoreFileResponse

Nazwa Typ Opis Wymagane Wartość domyślna
usunięta typ logiczny (boolowski) Tak
id ciąg Tak
obiekt wyliczenie
Możliwe wartości: vector_store.file.deleted
Tak

OpenAI.DeleteVectorStoreResponse

Nazwa Typ Opis Wymagane Wartość domyślna
usunięta typ logiczny (boolowski) Tak
id ciąg Tak
obiekt wyliczenie
Możliwe wartości: vector_store.deleted
Tak

OpenAI.Embedding

Reprezentuje wektor osadzania zwrócony przez osadzanie punktu końcowego.

Nazwa Typ Opis Wymagane Wartość domyślna
Osadzanie tablica lub ciąg Tak
indeks liczba całkowita Indeks osadzania na liście osadzonych. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "osadzaniem".
Możliwe wartości: embedding
Tak

OpenAI.Eval

Obiekt Eval z konfiguracją źródła danych i kryteriami testowania. Eval reprezentuje zadanie, które należy wykonać na potrzeby Twojej integracji z LLM. Lubić:

  • Poprawianie jakości mojego czatbota
  • Zobacz, jak dobrze mój czatbot obsługuje obsługę klienta
  • Sprawdź, czy o4-mini jest lepiej w moim przypadku użycia niż gpt-4o
Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) wskazująca moment utworzenia oceny. Tak
konfiguracja źródła danych obiekt Tak
└typ OpenAI.EvalDataSourceConfigType Nie.
id ciąg Unikatowy identyfikator oceny. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
nazwa ciąg Nazwa oceny. Tak
obiekt wyliczenie Typ obiektu.
Możliwe wartości: eval
Tak
kryteria_testowe macierz Lista kryteriów testowania. Tak Żaden

OpenAI.EvalApiError

Obiekt reprezentujący odpowiedź o błędzie z interfejsu API Eval.

Nazwa Typ Opis Wymagane Wartość domyślna
kod ciąg Kod błędu. Tak
komunikat ciąg Komunikat o błędzie. Tak

OpenAI.EvalCompletionsRunDataSourceParams

Obiekt CompletionsRunDataSource opisujący konfigurację próbkowania modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
wiadomości wejściowe obiekt Nie.
└item_reference ciąg Odwołanie do zmiennej item w przestrzeni nazw. Tzn., "element.ścieżka_wejściowa" Nie.
└─ szablon macierz Lista wiadomości czatu tworzących monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}. Nie.
└typ wyliczenie Typ komunikatów wejściowych. Zawsze item_reference.
Możliwe wartości: item_reference
Nie.
model ciąg Nazwa modelu do użycia do generowania uzupełniania (np. "o3-mini"). Nie.
parametry_próbowania AzureEvalAPICompletionsSamplingParams Nie.
przesłać źródło obiekt Tak
└─ zawartość macierz Zawartość pliku jsonl. Nie.
└created_after liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych po tym czasie. Nie.
└created_before liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych przed tym czasem. Nie.
└─ ID ciąg Identyfikator pliku. Nie.
└* limit liczba całkowita Opcjonalna maksymalna liczba elementów do zwrócenia. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
Model └* ciąg Opcjonalny model filtrowania (np. „gpt-4o”). Nie.
└typ wyliczenie Typ źródła. Zawsze stored_completions.
Możliwe wartości: stored_completions
Nie.
typ wyliczenie Typ uruchomionego źródła danych. Zawsze completions.
Możliwe wartości: completions
Tak

OpenAI.EvalCustomDataSourceConfigParams

Obiekt CustomDataSourceConfig, który definiuje schemat źródła danych używanego do przeprowadzania serii ocen. Ten schemat służy do definiowania kształtu danych, które będą następujące:

  • Służy do definiowania kryteriów testowania i
  • Jakie dane są wymagane podczas tworzenia przebiegu
Nazwa Typ Opis Wymagane Wartość domyślna
uwzględnij_przykładowy_schemat typ logiczny (boolowski) Czy podczas oceny należy oczekiwać wypełnienia przykładowej przestrzeni nazw (tj. przez generowanie odpowiedzi ze źródła danych) Nie. Nieprawda
item_schema obiekt Schemat JSON dla każdego wiersza w źródle danych. Tak
typ wyliczenie Typ źródła danych. Zawsze custom.
Możliwe wartości: custom
Tak

OpenAI.EvalCustomDataSourceConfigResource

CustomDataSourceConfig, który określa schemat twojej przestrzeni nazw item oraz opcjonalnie przestrzeni nazw sample. Schemat odpowiedzi definiuje kształt danych, które będą następujące:

  • Służy do definiowania kryteriów testowania i
  • Jakie dane są wymagane podczas tworzenia przebiegu
Nazwa Typ Opis Wymagane Wartość domyślna
schemat obiekt Schemat json dla elementów uruchomiania źródła danych.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
typ wyliczenie Typ źródła danych. Zawsze custom.
Możliwe wartości: custom
Tak

OpenAI.EvalDataSourceConfigParams

Dyskryminujące dla openAI.EvalDataSourceConfigParams

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.EvalDataSourceConfigType Tak

OpenAI.EvalDataSourceConfigResource

Dyskryminujące dla openAI.EvalDataSourceConfigResource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.EvalDataSourceConfigType Tak

OpenAI.EvalDataSourceConfigType

Majątek Wartość
Typ ciąg
Wartości custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Obiekt LabelModelGrader, który używa modelu do przypisywania etykiet do każdego elementu w ocenie.

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe macierz Lista wiadomości czatu tworzących monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}. Tak
etykiety macierz Etykiety do klasyfikacji każdego elementu w ocenie. Tak
model ciąg Model do użycia do oceny. Musi obsługiwać dane wyjściowe ze strukturą. Tak
nazwa ciąg Nazwa oceniającego. Tak
przechodzące_etykiety macierz Etykiety wskazujące wynik pozytywny. Musi być podzbiorem etykiet. Tak
typ wyliczenie Typ obiektu, który jest zawsze label_model.
Możliwe wartości: label_model
Tak

OpenAI.EvalGraderLabelModelResource

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe macierz Tak
etykiety macierz Etykiety do przypisania do każdego elementu w ocenie. Tak
model ciąg Model do użycia do oceny. Musi obsługiwać dane wyjściowe ze strukturą. Tak
nazwa ciąg Nazwa oceniającego. Tak
przechodzące_etykiety macierz Etykiety wskazujące wynik pozytywny. Musi być podzbiorem etykiet. Tak
typ wyliczenie Typ obiektu, który jest zawsze label_model.
Możliwe wartości: label_model
Tak

OpenAI.EvalGraderParams

Dyskryminujące dla openAI.EvalGraderParams

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.GraderType Tak

OpenAI.EvalGraderPythonParams

Nazwa Typ Opis Wymagane Wartość domyślna
image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
przesłać źródło ciąg Kod źródłowy skryptu języka Python. Tak
typ wyliczenie Typ obiektu, który jest zawsze python.
Możliwe wartości: python
Tak

OpenAI.EvalGraderPythonResource

Nazwa Typ Opis Wymagane Wartość domyślna
image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
przesłać źródło ciąg Kod źródłowy skryptu języka Python. Tak
typ wyliczenie Typ obiektu, który jest zawsze python.
Możliwe wartości: python
Tak

OpenAI.EvalGraderResource

Dyskryminujące dla openAI.EvalGraderResource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.GraderType Tak

OpenAI.EvalGraderScoreModelParams

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
model ciąg Model do użycia do oceny. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
zakres macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
parametry_próbowania Parametry próbkowania dla modelu. Nie.
typ wyliczenie Typ obiektu, który jest zawsze score_model.
Możliwe wartości: score_model
Tak

OpenAI.EvalGraderScoreModelResource

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
model ciąg Model do użycia do oceny. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Nie.
zakres macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
parametry_próbowania Parametry próbkowania dla modelu. Nie.
typ wyliczenie Typ obiektu, który jest zawsze score_model.
Możliwe wartości: score_model
Tak

OpenAI.EvalGraderStringCheckParams

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe ciąg Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
nazwa ciąg Nazwa oceniającego. Tak
operacja wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Tak
odwołanie ciąg Tekst odwołania. Może to obejmować ciągi szablonu. Tak
typ wyliczenie Typ obiektu, który jest zawsze string_check.
Możliwe wartości: string_check
Tak

OpenAI.EvalGraderTextSimilarityParams

Nazwa Typ Opis Wymagane Wartość domyślna
miara oceny wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Tak
dane wejściowe ciąg Tekst jest oceniany. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Tak
odwołanie ciąg Tekst oceniany względem. Tak
typ wyliczenie Typ klasyra.
Możliwe wartości: text_similarity
Tak

OpenAI.EvalGraderTextSimilarityResource

Nazwa Typ Opis Wymagane Wartość domyślna
miara oceny wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Tak
dane wejściowe ciąg Tekst jest oceniany. Tak
nazwa ciąg Nazwa oceniającego. Tak
próg zaliczenia Liczba Próg dla wyniku. Tak
odwołanie ciąg Tekst oceniany względem. Tak
typ wyliczenie Typ klasyra.
Możliwe wartości: text_similarity
Tak

OpenAI.EvalItem

Wiadomość jako wejście do modelu z rolą wskazującą przestrzeganie hierarchii instrukcji. Instrukcje przypisane do roli developer lub system mają pierwszeństwo przed instrukcjami przypisanymi do roli user. Przyjmuje się, że komunikaty z rolą assistant zostały wygenerowane przez model w poprzednich interakcjach.

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość obiekt Tak
└typ OpenAI.EvalItemContentType Nie.
rola wyliczenie Rola wejścia komunikatu. userJeden z, assistant, system lub
developer.
Możliwe wartości: user, , assistant, systemdeveloper
Tak
typ wyliczenie Typ danych wejściowych komunikatu. Zawsze message.
Możliwe wartości: message
Nie.

OpenAI.EvalItemContent

Dyskryminujący dla openAI.EvalItemContent

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.EvalItemContentType Tak

OpenAI.EvalItemContentInputText

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Tak
typ wyliczenie
Możliwe wartości: input_text
Tak

OpenAI.EvalItemContentOutputText

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Tak
typ wyliczenie
Możliwe wartości: output_text
Tak

OpenAI.EvalItemContentType

Majątek Wartość
Typ ciąg
Wartości input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Obiekt JsonlRunDataSource, który określa plik JSONL odpowiadający ewaluacji.

Nazwa Typ Opis Wymagane Wartość domyślna
przesłać źródło obiekt Tak
└─ zawartość macierz Zawartość pliku jsonl. Nie.
└─ ID ciąg Identyfikator pliku. Nie.
└typ wyliczenie Typ źródła jsonl. Zawsze file_id.
Możliwe wartości: file_id
Nie.
typ wyliczenie Typ źródła danych. Zawsze jsonl.
Możliwe wartości: jsonl
Tak

OpenAI.EvalList

Obiekt reprezentujący listę ocen.

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tablica obiektów owalnych. Tak
first_id ciąg Identyfikator pierwszej ewaluacji w tablicy danych. Tak
zawiera_więcej typ logiczny (boolowski) Wskazuje, czy jest dostępnych więcej ewaluacji. Tak
last_id ciąg Identyfikator ostatniej ewaluacji w tablicy danych. Tak
obiekt wyliczenie Typ tego obiektu. Zawsze jest ustawiona na "list".
Możliwe wartości: list
Tak

OpenAI.EvalLogsDataSourceConfigParams

Konfiguracja źródła danych określająca właściwość metadanych zapytania dotyczącego dzienników. Zazwyczaj są to metadane, takie jak usecase=chatbot lub prompt-version=v2, itp.

Nazwa Typ Opis Wymagane Wartość domyślna
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
typ wyliczenie Typ źródła danych. Zawsze logs.
Możliwe wartości: logs
Tak

OpenAI.EvalLogsDataSourceConfigResource

Element LogsDataSourceConfig określający właściwość metadanych zapytania dotyczącego dzienników. Zazwyczaj są to metadane, takie jak usecase=chatbot lub prompt-version=v2, itp. Schemat zwracany przez tę konfigurację źródła danych służy do określania, jakie zmienne są dostępne w ewalach. item i sample są definiowane podczas korzystania z tej konfiguracji źródła danych.

Nazwa Typ Opis Wymagane Wartość domyślna
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
schemat obiekt Schemat json dla elementów uruchomiania źródła danych.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
typ wyliczenie Typ źródła danych. Zawsze logs.
Możliwe wartości: logs
Tak

OpenAI.EvalResponsesRunDataSourceParams

Obiekt ResponsesRunDataSource opisujący konfigurację próbkowania modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
wiadomości wejściowe obiekt Nie.
└item_reference ciąg Odwołanie do zmiennej item w przestrzeni nazw. tzn. "item.name" Nie.
└─ szablon macierz Lista wiadomości czatu tworzących monit lub kontekst. Może zawierać odwołania do zmiennych do item przestrzeni nazw, tj. {{item.name}}. Nie.
└typ wyliczenie Typ komunikatów wejściowych. Zawsze item_reference.
Możliwe wartości: item_reference
Nie.
model ciąg Nazwa modelu do użycia do generowania uzupełniania (np. "o3-mini"). Nie.
parametry_próbowania AzureEvalAPIResponseSamplingParams Nie.
przesłać źródło obiekt Tak
└─ zawartość macierz Zawartość pliku jsonl. Nie.
└created_after liczba całkowita Uwzględnij tylko elementy utworzone po tym znaczniku czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└created_before liczba całkowita Uwzględnij tylko elementy utworzone przed tym znacznikami czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└─ ID ciąg Identyfikator pliku. Nie.
└instructions_search ciąg Opcjonalny ciąg do przeszukiwania pola "instrukcje". Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
Model └* ciąg Nazwa modelu do znalezienia odpowiedzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└reasoning_effort OpenAI.ReasoningEffort Opcjonalny parametr nakładu pracy rozumowania. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└* temperatura Liczba Temperatura próbkowania. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└─ Narzędzia macierz Lista nazw narzędzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└─top_p Liczba Parametr próbkowania jądra. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
└typ wyliczenie Typ uruchomionego źródła danych. Zawsze responses.
Możliwe wartości: responses
Nie.
Użytkownicy └* macierz Lista identyfikatorów użytkowników. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
typ wyliczenie Typ uruchomionego źródła danych. Zawsze responses.
Możliwe wartości: responses
Tak

OpenAI.EvalRun

Schemat reprezentujący przebieg oceny.

Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) podczas tworzenia przebiegu oceny. Tak
źródło danych obiekt Tak
└typ OpenAI.EvalRunDataSourceType Nie.
błąd OpenAI.EvalApiError Obiekt reprezentujący odpowiedź o błędzie z interfejsu API Eval. Tak
eval_id ciąg Identyfikator skojarzonej oceny. Tak
id ciąg Unikatowy identyfikator przebiegu oceny. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
model ciąg Model, który jest oceniany, jeśli ma zastosowanie. Tak
nazwa ciąg Nazwa przebiegu oceny. Tak
obiekt wyliczenie Typ obiektu. Zawsze "eval.run".
Możliwe wartości: eval.run
Tak
użycie na model macierz Statystyki użycia dla każdego modelu podczas przebiegu oceny. Tak
wyniki_wg_kryteriów_testowych macierz Wyniki na kryteria testowania stosowane podczas przebiegu oceny. Tak
report_url ciąg Adres URL wyświetlonego raportu przebiegu oceny na pulpicie interfejsu użytkownika. Tak
wyniki_liczby obiekt Liczniki podsumowujące wyniki przebiegu oceny. Tak
└─ Wystąpił błąd liczba całkowita Liczba elementów wyjściowych, które spowodowały błąd. Nie.
└* nie powiodło się liczba całkowita Liczba elementów wyjściowych, które nie przeszły oceny. Nie.
└* zaliczone liczba całkowita Liczba elementów wyjściowych, które przeszły ocenę. Nie.
└─ suma liczba całkowita Łączna liczba wykonanych elementów wyjściowych. Nie.
stan ciąg Stan przebiegu oceny. Tak

OpenAI.EvalRunDataContentSource

Dyskryminujące dla openAI.EvalRunDataContentSource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.EvalRunDataContentSourceType Tak

OpenAI.EvalRunDataContentSourceType

Majątek Wartość
Typ ciąg
Wartości file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: completions
Tak

OpenAI.EvalRunDataSourceJsonlResource

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: jsonl
Tak

OpenAI.EvalRunDataSourceParams

Dyskryminujące dla openAI.EvalRunDataSourceParams

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.EvalRunDataSourceType Tak

OpenAI.EvalRunDataSourceResource

Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.EvalRunDataSourceType Tak

OpenAI.EvalRunDataSourceResponsesResource

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: responses
Tak

OpenAI.EvalRunDataSourceType

Majątek Wartość
Typ ciąg
Wartości jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość pliku jsonl. Tak
typ wyliczenie Typ źródła jsonl. Zawsze file_content.
Możliwe wartości: file_content
Tak

OpenAI.EvalRunFileIdDataContentSource

Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Identyfikator pliku. Tak
typ wyliczenie Typ źródła jsonl. Zawsze file_id.
Możliwe wartości: file_id
Tak

OpenAI.EvalRunList

Obiekt reprezentujący listę przebiegów oceny.

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tablica obiektów testowych uruchomień. Tak
first_id ciąg Identyfikator pierwszego przebiegu oceny w tablicy danych. Tak
zawiera_więcej typ logiczny (boolowski) Wskazuje, czy jest dostępnych więcej ewaluacji. Tak
last_id ciąg Identyfikator ostatniego przebiegu oceny w tablicy danych. Tak
obiekt wyliczenie Typ tego obiektu. Zawsze jest ustawiona na "list".
Możliwe wartości: list
Tak

OpenAI.EvalRunOutputItem

Schemat reprezentujący element wyjściowy przebiegu oceny.

Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) podczas tworzenia przebiegu oceny. Tak
element źródła danych obiekt Szczegóły elementu wejściowego źródła danych. Tak
"identyfikator_elementu_źródła_danych (datasource_item_id)" liczba całkowita Identyfikator elementu źródła danych. Tak
eval_id ciąg Identyfikator grupy ewaluacyjnej. Tak
id ciąg Unikatowy identyfikator elementu wyjściowego procesu oceny. Tak
obiekt wyliczenie Typ obiektu. Zawsze "eval.run.output_item".
Możliwe wartości: eval.run.output_item
Tak
Wyniki macierz Lista wyników z przebiegu oceny. Tak
identyfikator_uruchomienia ciąg Identyfikator przebiegu oceny skojarzonego z tym elementem wyjściowym. Tak
próbka obiekt Przykład zawierający dane wejściowe i wyjściowe przebiegu oceny. Tak
└─ błąd OpenAI.EvalApiError Obiekt reprezentujący odpowiedź o błędzie z interfejsu API Eval. Nie.
└ finish_reason ciąg Powód zakończenia generowania próbki. Nie.
└─ Wejście macierz Tablica komunikatów wejściowych. Nie.
└max_completion_tokens liczba całkowita Maksymalna liczba tokenów dozwolonych do ukończenia. Nie.
Model └* ciąg Model używany do generowania przykładu. Nie.
└─ Dane wyjściowe macierz Tablica komunikatów wyjściowych. Nie.
└─ nasion liczba całkowita Nasiono używane do generowania próbki. Nie.
└* temperatura Liczba Użyta temperatura próbkowania. Nie.
└─top_p Liczba Wartość top_p używana do próbkowania. Nie.
└─ użycie obiekt Szczegóły użycia tokenu dla przykładu. Nie.
└cached_tokens liczba całkowita Liczba tokenów pobranych z pamięci podręcznej. Nie.
└─ tokeny_zakończenia liczba całkowita Liczba wygenerowanych tokenów ukończenia. Nie.
└prompt_tokens liczba całkowita Liczba użytych tokenów wywołania. Nie.
└total_tokens liczba całkowita Całkowita liczba użytych tokenów. Nie.
stan ciąg Stan przebiegu oceny. Tak

OpenAI.EvalRunOutputItemList

Obiekt reprezentujący listę elementów wyjściowych dla przebiegu oceny.

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tablica obiektów elementów wyjściowych z przebiegu eval. Tak
first_id ciąg Identyfikator pierwszego elementu wyjściowego przebiegu oceny w tablicy danych. Tak
zawiera_więcej typ logiczny (boolowski) Wskazuje, czy dostępnych jest więcej elementów wyjściowych przebiegu oceny. Tak
last_id ciąg Identyfikator ostatniego elementu wyjściowego przebiegu eval w tablicy danych. Tak
obiekt wyliczenie Typ tego obiektu. Zawsze jest ustawiona na "list".
Możliwe wartości: list
Tak

OpenAI.EvalRunResponsesDataContentSource

Obiekt EvalResponsesSource opisujący konfigurację uruchamiania źródła danych.

Nazwa Typ Opis Wymagane Wartość domyślna
stworzone_po liczba całkowita Uwzględnij tylko elementy utworzone po tym znaczniku czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
utworzone_przed liczba całkowita Uwzględnij tylko elementy utworzone przed tym znacznikami czasu (włącznie). Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
instructions_search ciąg Opcjonalny ciąg do przeszukiwania pola "instrukcje". Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
model ciąg Nazwa modelu do znalezienia odpowiedzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
wysiłek rozumowania obiekt tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
temperatura Liczba Temperatura próbkowania. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
narzędzia macierz Lista nazw narzędzi. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
top_p Liczba Parametr próbkowania jądra. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.
typ wyliczenie Typ uruchomionego źródła danych. Zawsze responses.
Możliwe wartości: responses
Tak
użytkownicy macierz Lista identyfikatorów użytkowników. Jest to parametr zapytania używany do wybierania odpowiedzi. Nie.

OpenAI.EvalRunStoredCompletionsDataContentSource

Konfiguracja StoredCompletionsRunDataSource opisująca zestaw filtrów

Nazwa Typ Opis Wymagane Wartość domyślna
stworzone_po liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych po tym czasie. Nie.
utworzone_przed liczba całkowita Opcjonalny znacznik czasu systemu Unix do filtrowania elementów utworzonych przed tym czasem. Nie.
limit / ograniczenie liczba całkowita Opcjonalna maksymalna liczba elementów do zwrócenia. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
model ciąg Opcjonalny model filtrowania (np. „gpt-4o”). Nie.
typ wyliczenie Typ źródła. Zawsze stored_completions.
Możliwe wartości: stored_completions
Tak

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Przestarzałe na rzecz logsDataSourceConfig.

Nazwa Typ Opis Wymagane Wartość domyślna
metadane obiekt Filtry metadanych dla przechowywanego źródła danych uzupełniania. Nie.
typ wyliczenie Typ źródła danych. Zawsze stored_completions.
Możliwe wartości: stored_completions
Tak

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Przestarzałe na rzecz logsDataSourceConfig.

Nazwa Typ Opis Wymagane Wartość domyślna
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
schemat obiekt Schemat json dla elementów uruchomiania źródła danych.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
typ wyliczenie Typ źródła danych. Zawsze stored_completions.
Możliwe wartości: stored_completions
Tak

OpenAI.FileSearchTool

Narzędzie wyszukujące odpowiednią zawartość z przekazanych plików.

Nazwa Typ Opis Wymagane Wartość domyślna
filtry obiekt Nie.
maks_liczba_wyników liczba całkowita Maksymalna liczba wyników do zwrócenia. Ta liczba powinna należeć do zakresu od 1 do 50 włącznie. Nie.
opcje rankingu obiekt Nie.
└} ranker wyliczenie Klasyfikator używany do wyszukiwania plików.
Możliwe wartości: auto, default-2024-11-15
Nie.
└─ próg_punktowy Liczba Próg oceny dla wyszukiwania plików, liczba z zakresu od 0 do 1. Liczby bliżej 1 będą próbować zwracać tylko najbardziej odpowiednie wyniki, ale mogą zwracać mniej wyników. Nie.
typ wyliczenie Typ narzędzia wyszukiwania plików. Zawsze file_search.
Możliwe wartości: file_search
Tak
identyfikatory_sklepu_wektorów macierz Identyfikatory wektorów są przechowywane do wyszukiwania. Tak

OpenAI.FileSearchToolCallItemParam

Wyniki wywołania narzędzia wyszukiwania plików.

Nazwa Typ Opis Wymagane Wartość domyślna
queries macierz Zapytania używane do wyszukiwania plików. Tak
Wyniki macierz Wyniki wywołania narzędzia wyszukiwania plików. Nie.
typ wyliczenie
Możliwe wartości: file_search_call
Tak

OpenAI.FileSearchToolCallItemResource

Wyniki wywołania narzędzia wyszukiwania plików.

Nazwa Typ Opis Wymagane Wartość domyślna
queries macierz Zapytania używane do wyszukiwania plików. Tak
Wyniki macierz Wyniki wywołania narzędzia wyszukiwania plików. Nie.
stan wyliczenie Stan wywołania narzędzia wyszukiwania plików. in_progressJeden z ,
searching, lub incomplete, failed
Możliwe wartości: in_progress, , searchingcompleted, , incompletefailed
Tak
typ wyliczenie
Możliwe wartości: file_search_call
Tak

OpenAI.Filters

Nazwa Typ Opis Wymagane Wartość domyślna
filtry macierz Tablica filtrów do połączenia. Elementy mogą mieć wartość ComparisonFilter lub CompoundFilter. Tak
klucz ciąg Klucz do porównania z wartością. Tak
typ wyliczenie Typ operacji: and lub or.
Możliwe wartości: and, or
Tak
wartość ciąg lub liczba lub wartość logiczna Wartość do porównania z kluczem atrybutu; obsługuje typy ciągów, liczb lub wartości logicznych. Tak

OpenAI.FineTuneDPOHyperparameters

Hiperparametry używane do zadania dostrajania obiektu DPO.

Nazwa Typ Opis Wymagane Wartość domyślna
rozmiar partii wyliczenie
Możliwe wartości: auto
Nie.
wersja beta wyliczenie
Możliwe wartości: auto
Nie.
mnożnik szybkości uczenia wyliczenie
Możliwe wartości: auto
Nie.
n_epochs (liczba epok) wyliczenie
Możliwe wartości: auto
Nie.

OpenAI.FineTuneDPOMethod

Konfiguracja metody dostrajania obiektu DPO.

Nazwa Typ Opis Wymagane Wartość domyślna
hiperparametry OpenAI.FineTuneDPOHyperparameters Hiperparametry używane do zadania dostrajania obiektu DPO. Nie.

OpenAI.FineTuneMethod

Metoda używana do dostrajania.

Nazwa Typ Opis Wymagane Wartość domyślna
dpo OpenAI.FineTuneDPOMethod Konfiguracja metody dostrajania obiektu DPO. Nie.
Zbrojenia AzureFineTuneReinforcementMethod Nie.
Nadzorowanych OpenAI.FineTuneSupervisedMethod Konfiguracja nadzorowanej metody dostrajania. Nie.
typ wyliczenie Typ metody. Ma wartość supervised, dpolub reinforcement.
Możliwe wartości: supervised, , dporeinforcement
Tak

OpenAI.FineTuneReinforcementHyperparameters

Hiperparametry używane do zadania dostrajania wzmocnienia.

Nazwa Typ Opis Wymagane Wartość domyślna
rozmiar partii wyliczenie
Możliwe wartości: auto
Nie.
compute_multiplier wyliczenie
Możliwe wartości: auto
Nie.
eval_interval wyliczenie
Możliwe wartości: auto
Nie.
eval_samples wyliczenie
Możliwe wartości: auto
Nie.
mnożnik szybkości uczenia wyliczenie
Możliwe wartości: auto
Nie.
n_epochs (liczba epok) wyliczenie
Możliwe wartości: auto
Nie.
wysiłek rozumowania wyliczenie Poziom wysiłku rozumowania.
Możliwe wartości: default, , low, mediumhigh
Nie.

OpenAI.FineTuneSupervisedHyperparameters

Hiperparametry używane do zadania dostrajania.

Nazwa Typ Opis Wymagane Wartość domyślna
rozmiar partii wyliczenie
Możliwe wartości: auto
Nie.
mnożnik szybkości uczenia wyliczenie
Możliwe wartości: auto
Nie.
n_epochs (liczba epok) wyliczenie
Możliwe wartości: auto
Nie.

OpenAI.FineTuneSupervisedMethod

Konfiguracja nadzorowanej metody dostrajania.

Nazwa Typ Opis Wymagane Wartość domyślna
hiperparametry OpenAI.FineTuneSupervisedHyperparameters Hiperparametry używane do zadania dostrajania. Nie.

OpenAI.FineTuningIntegration

Dyskryminowanie dla openAI.FineTuningIntegration

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
wandb OpenAI.FineTuningIntegrationWandb
Nazwa Typ Opis Wymagane Wartość domyślna
typ ciąg (zobacz prawidłowe modele poniżej) Tak

OpenAI.FineTuningIntegrationWandb

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ włączonej integracji dla zadania dostrajania
Możliwe wartości: wandb
Tak
wandb obiekt Ustawienia integracji z wagami i uprzedzeniami. Ten ładunek określa projekt, który
metryki zostaną wysłane do. Opcjonalnie możesz ustawić jawną nazwę wyświetlaną przebiegu, dodać tagi
na przebieg i ustaw domyślną jednostkę (zespół, nazwę użytkownika itp.), która ma być skojarzona z przebiegiem.
Tak
Jednostka └* ciąg Jednostka do użycia na potrzeby przebiegu. Dzięki temu możesz ustawić zespół lub nazwę użytkownika platformy WandB, którego chcesz uruchomić
podobnie jak skojarzone z przebiegiem. Jeśli nie zostanie ustawiona, zostanie użyta domyślna jednostka zarejestrowanego klucza interfejsu API WandB.
Nie.
└─ nazwa ciąg Nazwa wyświetlana ustawiona dla przebiegu. Jeśli nie zostanie ustawiona, użyjemy identyfikatora zadania jako nazwy. Nie.
└* projekt ciąg Nazwa projektu, w ramach którego zostanie utworzone nowe uruchomienie. Nie.
Tagi └* macierz Lista tagów do dołączenia do nowo utworzonego przebiegu. Te tagi są przekazywane bezpośrednio do usługi WandB. Niektóre
tagi domyślne są generowane przez interfejs OpenAI: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}".
Nie.

OpenAI.FineTuningJob

Obiekt fine_tuning.job reprezentuje zadanie dostrajania, które zostało utworzone za pośrednictwem interfejsu API.

Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia zadania dostrajania. Tak
błąd obiekt W przypadku zadań dostrajania, które mają failedparametr , będzie to zawierać więcej informacji na temat przyczyny awarii. Tak
└─ kod ciąg Kod błędu czytelny dla maszyny. Nie.
└─ Komunikat ciąg Czytelny dla człowieka komunikat o błędzie. Nie.
└* param ciąg Parametr, który był nieprawidłowy, zwykle training_file lub validation_file. To pole będzie miało wartość null, jeśli błąd nie był specyficzny dla parametru. Nie.
szacowany czas zakończenia liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu zakończenia zadania dostrajania. Wartość będzie mieć wartość null, jeśli zadanie dostrajania szczegółowego nie jest uruchomione. Nie.
model dostrojony ciąg Nazwa tworzonego modelu. Wartość będzie mieć wartość null, jeśli zadanie dostrajania jest nadal uruchomione. Tak
zakończono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu zakończenia zadania dostrajania. Wartość będzie mieć wartość null, jeśli zadanie dostrajania jest nadal uruchomione. Tak
hiperparametry obiekt Hiperparametry używane do zadania dostrajania. Ta wartość zostanie zwrócona tylko podczas uruchamiania supervised zadań. Tak
└batch_size wyliczenie
Możliwe wartości: auto
Nie.
└learning_rate_multiplier wyliczenie
Możliwe wartości: auto
Nie.
└n_epochs wyliczenie
Możliwe wartości: auto
Nie.
id ciąg Identyfikator obiektu, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
Integracje macierz Lista integracji umożliwiających wykonanie tego zadania dostrajania. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
metoda OpenAI.FineTuneMethod Metoda używana do dostrajania. Nie.
model ciąg Model podstawowy, który jest dostrojony. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "fine_tuning.job".
Możliwe wartości: fine_tuning.job
Tak
organization_id ciąg Organizacja, która jest właścicielem zadania dostrajania. Tak
pliki_wynikowe macierz Skompilowane identyfikatory plików wyników dla zadania dostrajania. Wyniki można pobrać za pomocą interfejsu API plików. Tak
nasienie liczba całkowita Nasiono używane do działania dostrajania. Tak
stan wyliczenie Bieżący stan zadania dostrajania, które może mieć validating_fileswartość , , queued, running, succeeded, failedlub cancelled.
Możliwe wartości: validating_files, , queuedrunning, succeeded, , failedcancelled
Tak
tokeny szkoleniowe liczba całkowita Łączna liczba rozliczanych tokenów przetworzonych przez to zadanie dostrajania. Wartość będzie mieć wartość null, jeśli zadanie dostrajania jest nadal uruchomione. Tak
plik szkoleniowy ciąg Identyfikator pliku używany do trenowania. Dane szkoleniowe można pobrać za pomocą interfejsu API plików. Tak
user_provided_suffix ciąg Sufiks opisowy zastosowany do zadania, jak określono w żądaniu tworzenia zadania. Nie.
plik walidacji ciąg Identyfikator pliku używany do walidacji. Wyniki weryfikacji można pobrać za pomocą interfejsu API plików. Tak

OpenAI.FineTuningJobCheckpoint

Obiekt fine_tuning.job.checkpoint reprezentuje punkt kontrolny modelu dla zadania dostrajania, które jest gotowe do użycia.

Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia punktu kontrolnego. Tak
punkt kontrolny modelu dostrojonego ciąg Nazwa utworzonego modelu punktów kontrolnych. Tak
identyfikator_zadania_dostrajania ciąg Nazwa zadania dostrajania, na podstawie którego utworzono ten punkt kontrolny. Tak
id ciąg Identyfikator punktu kontrolnego, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
metryki obiekt Metryki w numerze kroku podczas zadania dostrajania. Tak
└full_valid_loss Liczba Nie.
└full_valid_mean_token_accuracy Liczba Nie.
Krok └* Liczba Nie.
└train_loss Liczba Nie.
└train_mean_token_accuracy Liczba Nie.
└valid_loss Liczba Nie.
└valid_mean_token_accuracy Liczba Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze "fine_tuning.job.checkpoint".
Możliwe wartości: fine_tuning.job.checkpoint
Tak
numer_kroku liczba całkowita Numer kroku, na który został utworzony punkt kontrolny. Tak

OpenAI.FineTuningJobEvent

Obiekt zdarzenia zadania dostrajania

Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia zadania dostrajania. Tak
dane Dane skojarzone ze zdarzeniem. Nie.
id ciąg Identyfikator obiektu. Tak
poziom wyliczenie Poziom dziennika zdarzenia.
Możliwe wartości: info, , warnerror
Tak
komunikat ciąg Komunikat zdarzenia. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "fine_tuning.job.event".
Możliwe wartości: fine_tuning.job.event
Tak
typ wyliczenie Typ zdarzenia.
Możliwe wartości: message, metrics
Nie.

OpenAI.FunctionObject

Nazwa Typ Opis Wymagane Wartość domyślna
opis ciąg Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Musi składać się z a-z, A-Z, 0-9 lub zawierać podkreślniki i kreski, z maksymalną długością 64 znaków. Tak
Parametry Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem , aby zapoznać się z przykładami i dokumentacją dotyczącą schematu JSON , aby uzyskać dokumentację dotyczącą formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.
Nie.
surowy typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania wywołania funkcji. Jeśli ustawiono wartość true, model będzie postępować zgodnie z dokładnym schematem zdefiniowanym parameters w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true. Dowiedz się więcej o danych wyjściowych ze strukturą w przewodniku wywoływania funkcji. Nie. Nieprawda

OpenAI.FunctionTool

Definiuje funkcję w swoim kodzie, którą model może wywołać. Dowiedz się więcej o wywoływaniu funkcji.

Nazwa Typ Opis Wymagane Wartość domyślna
opis ciąg Opis funkcji. Używany przez model do określania, czy wywołać funkcję. Nie.
nazwa ciąg Nazwa funkcji do wywołania. Tak
Parametry Obiekt schematu JSON opisujący parametry funkcji. Tak
surowy typ logiczny (boolowski) Czy wymusić ścisłą walidację parametrów. Wartość domyślna true. Tak
typ wyliczenie Typ narzędzia funkcji. Zawsze function.
Możliwe wartości: function
Tak

OpenAI.FunctionToolCallItemParam

Wywołanie narzędzia w celu uruchomienia funkcji. Aby uzyskać więcej informacji, zobacz przewodnik wywoływania funkcji .

Nazwa Typ Opis Wymagane Wartość domyślna
arguments ciąg Ciąg JSON argumentów do przekazania do funkcji. Tak
call_id ciąg Unikatowy identyfikator wywołania narzędzia funkcji wygenerowanego przez model. Tak
nazwa ciąg Nazwa funkcji do uruchomienia. Tak
typ wyliczenie
Możliwe wartości: function_call
Tak

OpenAI.FunctionToolCallItemResource

Wywołanie narzędzia w celu uruchomienia funkcji. Aby uzyskać więcej informacji, zobacz przewodnik wywoływania funkcji .

Nazwa Typ Opis Wymagane Wartość domyślna
arguments ciąg Ciąg JSON argumentów do przekazania do funkcji. Tak
call_id ciąg Unikatowy identyfikator wywołania narzędzia funkcji wygenerowanego przez model. Tak
nazwa ciąg Nazwa funkcji do uruchomienia. Tak
stan wyliczenie Stan elementu. in_progressJeden zcompleted, lub
incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: function_call
Tak

OpenAI.FunctionToolCallOutputItemParam

Dane wyjściowe wywołania narzędzia funkcji.

Nazwa Typ Opis Wymagane Wartość domyślna
call_id ciąg Unikatowy identyfikator wywołania narzędzia funkcji wygenerowanego przez model. Tak
We/Wy ciąg Ciąg JSON danych wyjściowych wywołania narzędzia funkcji. Tak
typ wyliczenie
Możliwe wartości: function_call_output
Tak

OpenAI.FunctionToolCallOutputItemResource

Dane wyjściowe wywołania narzędzia funkcji.

Nazwa Typ Opis Wymagane Wartość domyślna
call_id ciąg Unikatowy identyfikator wywołania narzędzia funkcji wygenerowanego przez model. Tak
We/Wy ciąg Ciąg JSON danych wyjściowych wywołania narzędzia funkcji. Tak
stan wyliczenie Stan elementu. in_progressJeden zcompleted, lub
incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: function_call_output
Tak

OpenAI.Grader

Dyskryminujący program OpenAI.Grader

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.GraderType Tak

OpenAI.GraderLabelModel

Obiekt LabelModelGrader, który używa modelu do przypisywania etykiet do każdego elementu w ocenie.

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe macierz Tak
etykiety macierz Etykiety do przypisania do każdego elementu w ocenie. Tak
model ciąg Model do użycia do oceny. Musi obsługiwać dane wyjściowe ze strukturą. Tak
nazwa ciąg Nazwa oceniającego. Tak
przechodzące_etykiety macierz Etykiety wskazujące wynik pozytywny. Musi być podzbiorem etykiet. Tak
typ wyliczenie Typ obiektu, który jest zawsze label_model.
Możliwe wartości: label_model
Tak

OpenAI.GraderMulti

Obiekt MultiGrader łączy dane wyjściowe wielu klasykatorów w celu utworzenia pojedynczego wyniku.

Nazwa Typ Opis Wymagane Wartość domyślna
calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Tak
Równiarki obiekt Tak
nazwa ciąg Nazwa oceniającego. Tak
typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Tak

OpenAI.GraderPython

Obiekt PythonGrader, który uruchamia skrypt języka Python na danych wejściowych.

Nazwa Typ Opis Wymagane Wartość domyślna
image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
nazwa ciąg Nazwa oceniającego. Tak
przesłać źródło ciąg Kod źródłowy skryptu języka Python. Tak
typ wyliczenie Typ obiektu, który jest zawsze python.
Możliwe wartości: python
Tak

OpenAI.GraderScoreModel

Obiekt ScoreModelGrader, który używa modelu do przypisania wyniku do danych wejściowych.

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
model ciąg Model do użycia do oceny. Tak
nazwa ciąg Nazwa oceniającego. Tak
zakres macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
parametry_próbowania Parametry próbkowania dla modelu. Nie.
typ wyliczenie Typ obiektu, który jest zawsze score_model.
Możliwe wartości: score_model
Tak

OpenAI.GraderStringCheck

Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji.

Nazwa Typ Opis Wymagane Wartość domyślna
dane wejściowe ciąg Tekst wejściowy. Może to obejmować ciągi szablonu. Tak
nazwa ciąg Nazwa oceniającego. Tak
operacja wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Tak
odwołanie ciąg Tekst odwołania. Może to obejmować ciągi szablonu. Tak
typ wyliczenie Typ obiektu, który jest zawsze string_check.
Możliwe wartości: string_check
Tak

OpenAI.GraderTextSimilarity

Obiekt TextSimilarityGrader, który klasyfikuje tekst na podstawie metryk podobieństwa.

Nazwa Typ Opis Wymagane Wartość domyślna
miara oceny wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Tak
dane wejściowe ciąg Tekst jest oceniany. Tak
nazwa ciąg Nazwa oceniającego. Tak
odwołanie ciąg Tekst oceniany względem. Tak
typ wyliczenie Typ klasyra.
Możliwe wartości: text_similarity
Tak

OpenAI.GraderType

Majątek Wartość
Typ ciąg
Wartości string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Narzędzie, które generuje obrazy przy użyciu modelu, takiego jak gpt-image-1-series.

Nazwa Typ Opis Wymagane Wartość domyślna
tło wyliczenie Typ tła wygenerowanego obrazu. Jeden z transparent
opaquelub auto. Wartość domyślna: auto.
Możliwe wartości: transparent, , opaqueauto
Nie.
maska_wprowadzania_obrazu obiekt Opcjonalna maska do inpaintingu. Zawiera image_url
(ciąg, opcjonalny) i file_id (ciąg, opcjonalny).
Nie.
└ file_id ciąg Identyfikator pliku dla obrazu maski. Nie.
└image_url ciąg Obraz maski zakodowanej w formacie Base64. Nie.
model wyliczenie Model generowania obrazów do użycia. Wartość domyślna: gpt-image-1.
Możliwe wartości: gpt-image-1
Nie.
moderation wyliczenie Poziom moderowania wygenerowanego obrazu. Wartość domyślna: auto.
Możliwe wartości: auto, low
Nie.
kompresja wyjściowa liczba całkowita Poziom kompresji obrazu wyjściowego. Wartość domyślna: 100. Nie. 100
format_wyjściowy wyliczenie Format danych wyjściowych wygenerowanego obrazu. pngJeden zwebp, lub
jpeg. Wartość domyślna: png.
Możliwe wartości: png, , webpjpeg
Nie.
częściowe_obrazy liczba całkowita Liczba częściowych obrazów do wygenerowania w trybie przesyłania strumieniowego z zakresu od 0 (wartość domyślna) do 3. Nie. 0
jakość wyliczenie Jakość wygenerowanego obrazu. Jeden z low, , medium, , high
lub auto. Wartość domyślna: auto.
Możliwe wartości: low, , medium, highauto
Nie.
rozmiar wyliczenie Rozmiar wygenerowanego obrazu. 1024x1024Jeden z , , 1024x1536
1536x1024lub auto. Wartość domyślna: auto.
Możliwe wartości: 1024x1024, , 1024x1536, 1536x1024auto
Nie.
typ wyliczenie Typ narzędzia do generowania obrazów. Zawsze image_generation.
Możliwe wartości: image_generation
Tak

OpenAI.ImageGenToolCallItemParam

Żądanie generowania obrazu wykonane przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
wynik ciąg Wygenerowany obraz zakodowany w formacie base64. Tak
typ wyliczenie
Możliwe wartości: image_generation_call
Tak

OpenAI.ImageGenToolCallItemResource

Żądanie generowania obrazu wykonane przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
wynik ciąg Wygenerowany obraz zakodowany w formacie base64. Tak
stan wyliczenie
Możliwe wartości: in_progress, , completed, generatingfailed
Tak
typ wyliczenie
Możliwe wartości: image_generation_call
Tak

OpenAI.ImplicitUserMessage

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość ciąg lub tablica Tak

OpenAI.Includable

Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie obsługiwane wartości to:

  • code_interpreter_call.outputs: zawiera dane wyjściowe wykonywania kodu języka Python w elementach wywołania narzędzia interpretera kodu.
  • computer_call_output.output.image_url: dołącz adresy URL obrazów z danych wyjściowych wywołania komputera.
  • file_search_call.results: dołącz wyniki wyszukiwania wywołania narzędzia wyszukiwania plików.
  • message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
  • message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
  • reasoning.encrypted_content: zawiera zaszyfrowaną wersję tokenów rozumowania w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w rozmowach wieloeściowych podczas korzystania z interfejsu API odpowiedzi bezstanowo (na przykład gdy store parametr jest ustawiony na false, lub gdy organizacja jest zarejestrowana w programie przechowywania danych zerowych).
Majątek Wartość
Opis Określ dodatkowe dane wyjściowe do uwzględnienia w odpowiedzi modelu. Obecnie
obsługiwane wartości to:
- code_interpreter_call.outputs: zawiera dane wyjściowe wykonywania kodu w języku Python
w elementy wywołania narzędzia interpretera kodu.
- computer_call_output.output.image_url: dołącz adresy URL obrazów z danych wyjściowych wywołania komputera.
- file_search_call.results: uwzględnij wyniki wyszukiwania elementu
wywołanie narzędzia wyszukiwania plików.
- message.input_image.image_url: dołącz adresy URL obrazów z komunikatu wejściowego.
- message.output_text.logprobs: dołączanie logprobs z komunikatami asystenta.
- reasoning.encrypted_content: zawiera zaszyfrowaną wersję rozumowania
tokeny w danych wyjściowych elementu rozumowania. Dzięki temu elementy rozumowania mogą być używane w programie
konwersacje wieloeściowe w przypadku bezstanowego korzystania z interfejsu API odpowiedzi (na przykład
store gdy parametr jest ustawiony na false, lub gdy organizacja jest
zarejestrowane w programie przechowywania danych zerowych).
Typ ciąg
Wartości code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Dyskryminujący element OpenAI.ItemContent

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ItemContentType Zawartość danych wejściowych i wyjściowych wielomodalnych. Tak

OpenAI.ItemContentInputAudio

Dane wejściowe audio do modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
dane ciąg Dane audio zakodowane w formacie Base64. Tak
format wyliczenie Format danych audio. Obecnie obsługiwane formaty to mp3 i
wav.
Możliwe wartości: mp3, wav
Tak
typ wyliczenie Typ elementu wejściowego. Zawsze input_audio.
Możliwe wartości: input_audio
Tak

OpenAI.ItemContentInputFile

Dane wejściowe pliku do modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
file_data ciąg Zawartość pliku, który ma zostać wysłany do modelu. Nie.
identyfikator_pliku ciąg Identyfikator pliku, który ma zostać wysłany do modelu. Nie.
nazwa pliku ciąg Nazwa pliku, który ma zostać wysłany do modelu. Nie.
typ wyliczenie Typ elementu wejściowego. Zawsze input_file.
Możliwe wartości: input_file
Tak

OpenAI.ItemContentInputImage

Dane wejściowe obrazu do modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
detail wyliczenie Poziom szczegółowości obrazu, który ma zostać wysłany do modelu. highJeden z , lowlub auto. Wartość domyślna to auto.
Możliwe wartości: low, , highauto
Nie.
identyfikator_pliku ciąg Identyfikator pliku, który ma zostać wysłany do modelu. Nie.
image_url ciąg Adres URL obrazu, który ma zostać wysłany do modelu. W pełni kwalifikowany adres URL lub obraz zakodowany w formacie base64 w adresie URL danych. Nie.
typ wyliczenie Typ elementu wejściowego. Zawsze input_image.
Możliwe wartości: input_image
Tak

OpenAI.ItemContentInputText

Wprowadzanie tekstu do modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Wprowadzanie tekstu do modelu. Tak
typ wyliczenie Typ elementu wejściowego. Zawsze input_text.
Możliwe wartości: input_text
Tak

OpenAI.ItemContentOutputAudio

Dane wyjściowe audio z modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
dane ciąg Dane audio zakodowane w formacie Base64 z modelu. Tak
transkrypcja ciąg Transkrypcja danych audio z modelu. Tak
typ wyliczenie Typ dźwięku wyjściowego. Zawsze output_audio.
Możliwe wartości: output_audio
Tak

OpenAI.ItemContentOutputText

Dane wyjściowe tekstowe z modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
Adnotacje macierz Adnotacje danych wyjściowych tekstu. Tak
logprobs macierz Nie.
SMS ciąg Dane wyjściowe tekstu z modelu. Tak
typ wyliczenie Typ tekstu wyjściowego. Zawsze output_text.
Możliwe wartości: output_text
Tak

OpenAI.ItemContentRefusal

Odmowa od modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
odmowa ciąg Wyjaśnienie odmowy z modelu. Tak
typ wyliczenie Rodzaj odmowy. Zawsze refusal.
Możliwe wartości: refusal
Tak

OpenAI.ItemContentType

Zawartość danych wejściowych i wyjściowych wielomodalnych.

Majątek Wartość
Opis Zawartość danych wejściowych i wyjściowych wielomodalnych.
Typ ciąg
Wartości input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Element zawartości używany do generowania odpowiedzi.

Dyskryminujące openAI.ItemParam

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ItemType Tak

OpenAI.ItemReferenceItemParam

Wewnętrzny identyfikator elementu do odwołania.

Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Identyfikator pochodzących z usługi wcześniej wygenerowanego elementu odpowiedzi, do których odwołuje się odwołanie. Tak
typ wyliczenie
Możliwe wartości: item_reference
Tak

OpenAI.ItemResource

Element zawartości używany do generowania odpowiedzi.

Dyskryminujący element OpenAI.ItemResource

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Tak
typ OpenAI.ItemType Tak

OpenAI.ItemType

Majątek Wartość
Typ ciąg
Wartości message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tak
first_id ciąg Nie.
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Nie.
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListFineTuningJobEventsResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tak
zawiera_więcej typ logiczny (boolowski) Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListModelsResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListPaginatedFineTuningJobsResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tak
zawiera_więcej typ logiczny (boolowski) Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListVectorStoreFilesFilter

Majątek Wartość
Typ ciąg
Wartości in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tak
first_id ciąg Tak
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.ListVectorStoresResponse

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Tak
first_id ciąg Tak
zawiera_więcej typ logiczny (boolowski) Tak
last_id ciąg Tak
obiekt wyliczenie
Możliwe wartości: list
Tak

OpenAI.LocalShellExecAction

Wykonaj polecenie powłoki na serwerze.

Nazwa Typ Opis Wymagane Wartość domyślna
polecenie macierz Polecenie do uruchomienia. Tak
środowisko obiekt Zmienne środowiskowe do ustawienia dla polecenia . Tak
timeout_ms liczba całkowita Opcjonalny limit czasu w milisekundach dla polecenia. Nie.
typ wyliczenie Typ akcji powłoki lokalnej. Zawsze exec.
Możliwe wartości: exec
Tak
użytkownik ciąg Opcjonalny użytkownik, aby uruchomić polecenie jako. Nie.
working_directory ciąg Opcjonalny katalog roboczy do uruchomienia polecenia w programie . Nie.

OpenAI.LocalShellTool

Narzędzie, które umożliwia modelowi wykonywanie poleceń powłoki w środowisku lokalnym.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ lokalnego narzędzia powłoki. Zawsze local_shell.
Możliwe wartości: local_shell
Tak

OpenAI.LocalShellToolCallItemParam

Wywołanie narzędzia w celu uruchomienia polecenia w lokalnej powłoce.

Nazwa Typ Opis Wymagane Wartość domyślna
akcja OpenAI.LocalShellExecAction Wykonaj polecenie powłoki na serwerze. Tak
call_id ciąg Unikatowy identyfikator wywołania lokalnego narzędzia powłoki wygenerowanego przez model. Tak
typ wyliczenie
Możliwe wartości: local_shell_call
Tak

OpenAI.LocalShellToolCallItemResource

Wywołanie narzędzia w celu uruchomienia polecenia w lokalnej powłoce.

Nazwa Typ Opis Wymagane Wartość domyślna
akcja OpenAI.LocalShellExecAction Wykonaj polecenie powłoki na serwerze. Tak
call_id ciąg Unikatowy identyfikator wywołania lokalnego narzędzia powłoki wygenerowanego przez model. Tak
stan wyliczenie
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: local_shell_call
Tak

OpenAI.LocalShellToolCallOutputItemParam

Dane wyjściowe lokalnego wywołania narzędzia powłoki.

Nazwa Typ Opis Wymagane Wartość domyślna
We/Wy ciąg Ciąg JSON danych wyjściowych wywołania lokalnego narzędzia powłoki. Tak
typ wyliczenie
Możliwe wartości: local_shell_call_output
Tak

OpenAI.LocalShellToolCallOutputItemResource

Dane wyjściowe lokalnego wywołania narzędzia powłoki.

Nazwa Typ Opis Wymagane Wartość domyślna
We/Wy ciąg Ciąg JSON danych wyjściowych wywołania lokalnego narzędzia powłoki. Tak
stan wyliczenie
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie
Możliwe wartości: local_shell_call_output
Tak

OpenAI.Location

Dyskryminator dla OpenAI.Location

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
approximate OpenAI.ApproximateLocation
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.LocationType Tak

OpenAI.TypLokalizacji

Majątek Wartość
Typ ciąg
Wartości approximate

OpenAI.LogProb

Prawdopodobieństwo dziennika tokenu.

Nazwa Typ Opis Wymagane Wartość domyślna
B macierz Tak
logprob Liczba Tak
kod przedpłaty ciąg Tak
top_logprobs macierz Tak

OpenAI.MCPApprovalRequestItemParam

Wniosek o zatwierdzenie przez człowieka wywołania narzędzia.

Nazwa Typ Opis Wymagane Wartość domyślna
arguments ciąg Ciąg JSON argumentów dla narzędzia. Tak
nazwa ciąg Nazwa narzędzia do uruchomienia. Tak
etykieta_serwera ciąg Etykieta serwera MCP wysyłającego żądanie. Tak
typ wyliczenie
Możliwe wartości: mcp_approval_request
Tak

OpenAI.MCPApprovalRequestItemResource

Wniosek o zatwierdzenie przez człowieka wywołania narzędzia.

Nazwa Typ Opis Wymagane Wartość domyślna
arguments ciąg Ciąg JSON argumentów dla narzędzia. Tak
nazwa ciąg Nazwa narzędzia do uruchomienia. Tak
etykieta_serwera ciąg Etykieta serwera MCP wysyłającego żądanie. Tak
typ wyliczenie
Możliwe wartości: mcp_approval_request
Tak

OpenAI.MCPApprovalResponseItemParam

Odpowiedź na żądanie zatwierdzenia MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
approval_request_id ciąg Identyfikator odpowiedzi na żądanie zatwierdzenia. Tak
zatwierdzić typ logiczny (boolowski) Czy żądanie zostało zatwierdzone. Tak
powód ciąg Opcjonalna przyczyna decyzji. Nie.
typ wyliczenie
Możliwe wartości: mcp_approval_response
Tak

OpenAI.MCPApprovalResponseItemResource

Odpowiedź na żądanie zatwierdzenia MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
approval_request_id ciąg Identyfikator odpowiedzi na żądanie zatwierdzenia. Tak
zatwierdzić typ logiczny (boolowski) Czy żądanie zostało zatwierdzone. Tak
powód ciąg Opcjonalna przyczyna decyzji. Nie.
typ wyliczenie
Możliwe wartości: mcp_approval_response
Tak

OpenAI.MCPCallItemParam

Wywołanie narzędzia na serwerze MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
arguments ciąg Ciąg JSON argumentów przekazanych do narzędzia. Tak
błąd ciąg Błąd wywołania narzędzia, jeśli istnieje. Nie.
nazwa ciąg Nazwa uruchomionego narzędzia. Tak
We/Wy ciąg Dane wyjściowe z wywołania narzędzia. Nie.
etykieta_serwera ciąg Etykieta serwera MCP z uruchomionym narzędziem. Tak
typ wyliczenie
Możliwe wartości: mcp_call
Tak

OpenAI.MCPCallItemResource

Wywołanie narzędzia na serwerze MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
arguments ciąg Ciąg JSON argumentów przekazanych do narzędzia. Tak
błąd ciąg Błąd wywołania narzędzia, jeśli istnieje. Nie.
nazwa ciąg Nazwa uruchomionego narzędzia. Tak
We/Wy ciąg Dane wyjściowe z wywołania narzędzia. Nie.
etykieta_serwera ciąg Etykieta serwera MCP z uruchomionym narzędziem. Tak
typ wyliczenie
Możliwe wartości: mcp_call
Tak

OpenAI.MCPListToolsItemParam

Lista narzędzi dostępnych na serwerze MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
błąd ciąg Komunikat o błędzie, jeśli serwer nie może wyświetlić listy narzędzi. Nie.
etykieta_serwera ciąg Etykieta serwera MCP. Tak
narzędzia macierz Narzędzia dostępne na serwerze. Tak
typ wyliczenie
Możliwe wartości: mcp_list_tools
Tak

OpenAI.MCPListToolsItemResource

Lista narzędzi dostępnych na serwerze MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
błąd ciąg Komunikat o błędzie, jeśli serwer nie może wyświetlić listy narzędzi. Nie.
etykieta_serwera ciąg Etykieta serwera MCP. Tak
narzędzia macierz Narzędzia dostępne na serwerze. Tak
typ wyliczenie
Możliwe wartości: mcp_list_tools
Tak

OpenAI.MCPListToolsTools

Narzędzie dostępne na serwerze MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
Adnotacje Dodatkowe adnotacje dotyczące narzędzia. Nie.
opis ciąg Opis narzędzia. Nie.
input_schema Schemat JSON opisujący dane wejściowe narzędzia. Tak
nazwa ciąg Nazwa narzędzia. Tak

OpenAI.MCPTool

Nadaj modelowi dostęp do dodatkowych narzędzi za pośrednictwem zdalnych serwerów protokołu MCP (Model Context Protocol).

Nazwa Typ Opis Wymagane Wartość domyślna
dozwolone_narzędzia obiekt Nie.
└─ nazwy_narzędzi macierz Lista dozwolonych nazw narzędzi. Nie.
nagłówki obiekt Opcjonalne nagłówki HTTP do wysyłania do serwera MCP. Używanie do uwierzytelniania
lub innych celów.
Nie.
wymaga_akceptacji object (zobacz prawidłowe modele poniżej) Określ, które narzędzia serwera MCP wymagają zatwierdzenia. Nie.
etykieta_serwera ciąg Etykieta dla tego serwera MCP używana do identyfikowania go w wywołaniach narzędzi. Tak
adres_serwera ciąg Adres URL serwera MCP. Tak
typ wyliczenie Typ narzędzia MCP. Zawsze mcp.
Możliwe wartości: mcp
Tak

OpenAI.MetadataPropertyForRequest

Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków.

Nazwa Typ Opis Wymagane Wartość domyślna
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.

OpenAI.Model

Opisuje ofertę modelu OpenAI, która może być używana z interfejsem API.

Nazwa Typ Opis Wymagane Wartość domyślna
utworzone liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) podczas tworzenia modelu. Tak
id ciąg Identyfikator modelu, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze "modelem".
Możliwe wartości: model
Tak
owned_by ciąg Organizacja, która jest właścicielem modelu. Tak

OpenAI.OtherChunkingStrategyResponseParam

Jest to zwracane, gdy strategia fragmentowania jest nieznana. Zazwyczaj jest to spowodowane tym, że plik został zaindeksowany przed wprowadzeniem chunking_strategy koncepcji w interfejsie API.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Zawsze other.
Możliwe wartości: other
Tak

OpenAI.ParallelToolCalls

Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia.

Typ: wartość logiczna

OpenAI.Prompt

Odwołanie do szablonu monitu i jego zmiennych.

Nazwa Typ Opis Wymagane Wartość domyślna
id ciąg Unikatowy identyfikator szablonu monitu do użycia. Tak
variables obiekt Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w
monit. Wartości podstawienia mogą być ciągami lub innymi
Typy danych wejściowych odpowiedzi, takie jak obrazy lub pliki.
Nie.
wersja ciąg Opcjonalna wersja szablonu monitu. Nie.

OpenAI.RankingOptions

Nazwa Typ Opis Wymagane Wartość domyślna
klasyfikator wyliczenie Klasyfikator używany do wyszukiwania plików.
Możliwe wartości: auto, default-2024-11-15
Nie.
próg punktowy Liczba Próg oceny dla wyszukiwania plików, liczba z zakresu od 0 do 1. Liczby bliżej 1 będą próbować zwracać tylko najbardziej odpowiednie wyniki, ale mogą zwracać mniej wyników. Nie.

OpenAI.Reasoning

tylko modele rozumowania

Opcje konfiguracji dla modeli rozumowania.

Nazwa Typ Opis Wymagane Wartość domyślna
nakład pracy obiekt tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
generate_summary wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
podsumowanie wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.

OpenAI.ReasoningEffort

tylko modele rozumowania

Ogranicza nakład pracy na rozumowanie modeli rozumowania. Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie nakładu pracy w zakresie rozumowania może spowodować szybsze reagowanie i mniej tokenów używanych podczas rozumowania w odpowiedzi.

Majątek Wartość
Opis tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Typ ciąg
Wartości low
medium
high

OpenAI.ReasoningItemParam

Opis łańcucha myśli używanego przez model rozumowania podczas generowania odpowiedzi. Pamiętaj, aby uwzględnić te elementy w input interfejsie API odpowiedzi na kolejne etapy konwersacji, jeśli ręcznie zarządzasz kontekstem.

Nazwa Typ Opis Wymagane Wartość domyślna
encrypted_content ciąg Zaszyfrowana zawartość elementu rozumowania — wypełniana, gdy odpowiedź jest
wygenerowany za pomocą reasoning.encrypted_content polecenia w parametrze include .
Nie.
podsumowanie macierz Rozumowanie zawartości tekstowej. Tak
typ wyliczenie
Możliwe wartości: reasoning
Tak

OpenAI.ReasoningItemResource

Opis łańcucha myśli używanego przez model rozumowania podczas generowania odpowiedzi. Pamiętaj, aby uwzględnić te elementy w input interfejsie API odpowiedzi na kolejne etapy konwersacji, jeśli ręcznie zarządzasz kontekstem.

Nazwa Typ Opis Wymagane Wartość domyślna
encrypted_content ciąg Zaszyfrowana zawartość elementu rozumowania — wypełniana, gdy odpowiedź jest
wygenerowany za pomocą reasoning.encrypted_content polecenia w parametrze include .
Nie.
podsumowanie macierz Rozumowanie zawartości tekstowej. Tak
typ wyliczenie
Możliwe wartości: reasoning
Tak

OpenAI.ReasoningItemSummaryPart

Dyskryminujący element OpenAI.ReasoningItemSummaryPart

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
summary_text OpenAI.ReasoningItemSummaryTextPart
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ReasoningItemSummaryPartType Tak

OpenAI.ReasoningItemSummaryPartType

Majątek Wartość
Typ ciąg
Wartości summary_text

OpenAI.ReasoningItemSummaryTextPart

Nazwa Typ Opis Wymagane Wartość domyślna
SMS ciąg Tak
typ wyliczenie
Możliwe wartości: summary_text
Tak

OpenAI.Response

Nazwa Typ Opis Wymagane Wartość domyślna
tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Tak
błąd obiekt Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Tak
└─ kod OpenAI.ResponseErrorCode Kod błędu odpowiedzi. Nie.
└─ Komunikat ciąg Czytelny dla człowieka opis błędu. Nie.
id ciąg Unikatowy identyfikator tej odpowiedzi. Tak
incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Tak
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
instructions ciąg lub tablica Tak
max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Tak
We/Wy macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Tak
output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
wywołania_narzędzia_równoległe typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Tak Prawda
previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
monit obiekt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└─ ID ciąg Unikatowy identyfikator szablonu monitu do użycia. Nie.
Zmienne └* OpenAI.ResponsePromptVariables Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w
monit. Wartości podstawienia mogą być ciągami lub innymi
Typy danych wejściowych odpowiedzi, takie jak obrazy lub pliki.
Nie.
└* wersja ciąg Opcjonalna wersja szablonu monitu. Nie.
Rozumowanie obiekt tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Wysiłek └* OpenAI.ReasoningEffort tylko modele rozumowania

Ograniczanie wysiłku w zakresie rozumowania
modele rozumowania.
Obecnie obsługiwane wartości to low, mediumi high. Zmniejszenie
wysiłek na rzecz przetwarzania może prowadzić do szybszych odpowiedzi i mniejszej liczby używanych tokenów
rozumowanie w odpowiedzi.
Nie.
└generate_summary wyliczenie Przestarzałe: użyj summary zamiast tego.

Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
Podsumowanie └* wyliczenie Podsumowanie rozumowania wykonywanego przez model. Może to być
przydatne do debugowania i zrozumienia procesu rozumowania modelu.
autoJeden z , conciselub detailed.
Możliwe wartości: auto, , concisedetailed
Nie.
stan wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Tak
SMS obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
tool_choice obiekt Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem jednego lub
więcej narzędzi.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Nie.
└typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Nie.
narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Tak
Obcinania wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
użytkownik ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Tak

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Emitowane, gdy fragment kodu jest przesyłany strumieniowo przez interpreter kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
delta ciąg Fragment kodu przesyłany strumieniowo przez interpreter kodu. Tak
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której jest przesyłany strumieniowo kod. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call_code.delta.
Możliwe wartości: response.code_interpreter_call_code.delta
Tak

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Emitowane, gdy fragment kodu jest finalizowany przez interpreter kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
kod ciąg Końcowe dane wyjściowe fragmentu kodu przez interpreter kodu. Tak
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której kod jest sfinalizowany. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call_code.done.
Możliwe wartości: response.code_interpreter_call_code.done
Tak

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Emitowane po zakończeniu wywołania interpretera kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której wykonano wywołanie interpretera kodu. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call.completed.
Możliwe wartości: response.code_interpreter_call.completed
Tak

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Emitowane, gdy trwa wywołanie interpretera kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której trwa wywołanie interpretera kodu. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call.in_progress.
Możliwe wartości: response.code_interpreter_call.in_progress
Tak

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Emitowane, gdy interpreter kodu aktywnie interpretuje fragment kodu.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator elementu wywołania narzędzia interpretera kodu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w odpowiedzi, dla której interpreter kodu interpretuje kod. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.code_interpreter_call.interpreting.
Możliwe wartości: response.code_interpreter_call.interpreting
Tak

OpenAI.ResponseCompletedEvent

Emitowane po zakończeniu odpowiedzi modelu.

Nazwa Typ Opis Wymagane Wartość domyślna
response obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
└created_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
Instrukcje └* ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
└} obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Nie.
└output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
Monit └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└* rozumowanie OpenAI.Reasoning tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie.
└* tekst obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
└tool_choice OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject Jak model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania
odpowiedź. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia
model może wywoływać.
Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
└top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
└─top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie.
└* obcięcie wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
Użytkownik └* ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.completed.
Możliwe wartości: response.completed
Tak

OpenAI.ResponseContentPartAddedEvent

Emitowane po dodaniu nowej części zawartości.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks dodanej części zawartości. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego została dodana część zawartości. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego została dodana część zawartości. Tak
część obiekt Tak
└typ OpenAI.ItemContentType Zawartość danych wejściowych i wyjściowych wielomodalnych. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.content_part.added.
Możliwe wartości: response.content_part.added
Tak

OpenAI.ResponseContentPartDoneEvent

Emitowane po zakończeniu części zawartości.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks części zawartości, która jest wykonywana. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego została dodana część zawartości. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego została dodana część zawartości. Tak
część obiekt Tak
└typ OpenAI.ItemContentType Zawartość danych wejściowych i wyjściowych wielomodalnych. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.content_part.done.
Możliwe wartości: response.content_part.done
Tak

OpenAI.ResponseCreatedEvent

Zdarzenie emitowane podczas tworzenia odpowiedzi.

Nazwa Typ Opis Wymagane Wartość domyślna
response obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
└created_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
Instrukcje └* ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
└} obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Nie.
└output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
Monit └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└* rozumowanie OpenAI.Reasoning tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie.
└* tekst obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
└tool_choice OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject Jak model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania
odpowiedź. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia
model może wywoływać.
Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
└top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
└─top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie.
└* obcięcie wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
Użytkownik └* ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.created.
Możliwe wartości: response.created
Tak

OpenAI.ResponseError

Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi.

Nazwa Typ Opis Wymagane Wartość domyślna
kod OpenAI.ResponseErrorCode Kod błędu odpowiedzi. Tak
komunikat ciąg Czytelny dla człowieka opis błędu. Tak

OpenAI.ResponseErrorCode

Kod błędu odpowiedzi.

Majątek Wartość
Opis Kod błędu odpowiedzi.
Typ ciąg
Wartości server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Emitowane w przypadku wystąpienia błędu.

Nazwa Typ Opis Wymagane Wartość domyślna
kod ciąg Kod błędu. Tak
komunikat ciąg Komunikat o błędzie. Tak
Param ciąg Parametr błędu. Tak
typ wyliczenie Typ zdarzenia. Zawsze error.
Możliwe wartości: error
Tak

OpenAI.ResponseFailedEvent

Zdarzenie emitowane w przypadku niepowodzenia odpowiedzi.

Nazwa Typ Opis Wymagane Wartość domyślna
response obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
└created_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
Instrukcje └* ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
└} obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Nie.
└output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
Monit └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└* rozumowanie OpenAI.Reasoning tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie.
└* tekst obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
└tool_choice OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject Jak model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania
odpowiedź. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia
model może wywoływać.
Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
└top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
└─top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie.
└* obcięcie wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
Użytkownik └* ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.failed.
Możliwe wartości: response.failed
Tak

OpenAI.ResponseFileSearchCallCompletedEvent

Emitowane po zakończeniu wywołania wyszukiwania plików (znaleziono wyniki).

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Identyfikator elementu wyjściowego zainicjowanego przez wywołanie wyszukiwania plików. Tak
output_index liczba całkowita Indeks elementu wyjściowego zainicjowanego przez wywołanie wyszukiwania plików. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.file_search_call.completed.
Możliwe wartości: response.file_search_call.completed
Tak

OpenAI.ResponseFileSearchCallInProgressEvent

Emitowane po zainicjowaniu wywołania wyszukiwania plików.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Identyfikator elementu wyjściowego zainicjowanego przez wywołanie wyszukiwania plików. Tak
output_index liczba całkowita Indeks elementu wyjściowego zainicjowanego przez wywołanie wyszukiwania plików. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.file_search_call.in_progress.
Możliwe wartości: response.file_search_call.in_progress
Tak

OpenAI.ResponseFileSearchCallSearchingEvent

Emitowane, gdy wyszukiwanie plików jest obecnie przeszukiwane.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Identyfikator elementu wyjściowego zainicjowanego przez wywołanie wyszukiwania plików. Tak
output_index liczba całkowita Indeks elementu wyjściowego przeszukiwanego przez wywołanie wyszukiwania plików. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.file_search_call.searching.
Możliwe wartości: response.file_search_call.searching
Tak

OpenAI.ResponseFormat

Dyskryminujący format OpenAI.ResponseFormat

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: text, , json_objectjson_schema
Tak

OpenAI.ResponseFormatJsonObject

Format odpowiedzi obiektu JSON. Starsza metoda generowania odpowiedzi JSON. Użycie json_schema jest zalecane w przypadku modeli, które go obsługują. Należy pamiętać, że model nie wygeneruje kodu JSON bez komunikatu systemu lub użytkownika z instrukcjami, aby to zrobił.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze json_object.
Możliwe wartości: json_object
Tak

OpenAI.ResponseFormatJsonSchema

Format odpowiedzi schematu JSON. Służy do generowania ustrukturyzowanych odpowiedzi JSON. Dowiedz się więcej o danych wyjściowych ze strukturą.

Nazwa Typ Opis Wymagane Wartość domyślna
json_schema obiekt Opcje konfiguracji danych wyjściowych ze strukturą, w tym schemat JSON. Tak
Opis └* ciąg Opis tego, do czego służy format odpowiedzi, używany przez model do
określ, jak reagować w ustalonym formacie.
Nie.
└─ nazwa ciąg Nazwa formatu odpowiedzi. Musi być a-z, A-Z, 0-9 lub zawierać
podkreślenia i kreski o maksymalnej długości 64.
Nie.
Schemat └* OpenAI.ResponseFormatJsonSchemaSchema Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Nie.
└* ścisłe typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych.
W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego zdefiniowanego schematu
W polu schema. Tylko podzbiór schematu JSON jest obsługiwany, gdy
Parametr strict ma wartość true. Aby dowiedzieć się więcej, przeczytaj ustrukturyzowane dane wyjściowe
przewodnik
.
Nie. Nieprawda
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze json_schema.
Możliwe wartości: json_schema
Tak

OpenAI.ResponseFormatJsonSchemaSchema

Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON. Dowiedz się, jak tworzyć schematy JSON tutaj.

Typ: obiekt

OpenAI.ResponseFormatText

Domyślny format odpowiedzi. Służy do generowania odpowiedzi tekstowych.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze text.
Możliwe wartości: text
Tak

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Emitowane w przypadku różnicowego wywołania funkcji częściowego.

Nazwa Typ Opis Wymagane Wartość domyślna
delta ciąg Dodano różnicę argumentów wywołania funkcji. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego dodano różnicę argumentów wywołania funkcji. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego dodano różnicę argumentów wywołania funkcji. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.function_call_arguments.delta.
Możliwe wartości: response.function_call_arguments.delta
Tak

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Emitowane, gdy argumenty wywołania funkcji są finalizowane.

Nazwa Typ Opis Wymagane Wartość domyślna
arguments ciąg Argumenty wywołania funkcji. Tak
item_id ciąg Identyfikator elementu. Tak
output_index liczba całkowita Indeks elementu wyjściowego. Tak
typ wyliczenie
Możliwe wartości: response.function_call_arguments.done
Tak

OpenAI.ResponseImageGenCallCompletedEvent

Emitowane po zakończeniu wywołania narzędzia do generowania obrazów i dostępny jest końcowy obraz.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.image_generation_call.completed".
Możliwe wartości: response.image_generation_call.completed
Tak

OpenAI.ResponseImageGenCallGeneratingEvent

Emitowane, gdy wywołanie narzędzia do generowania obrazów aktywnie generuje obraz (stan pośredni).

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.image_generation_call.generating".
Możliwe wartości: response.image_generation_call.generating
Tak

OpenAI.ResponseImageGenCallInProgressEvent

Emitowane, gdy trwa wywołanie narzędzia do generowania obrazów.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.image_generation_call.in_progress".
Możliwe wartości: response.image_generation_call.in_progress
Tak

OpenAI.ResponseImageGenCallPartialImageEvent

Emitowane, gdy obraz częściowy jest dostępny podczas przesyłania strumieniowego obrazów.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator przetwarzanego elementu generowania obrazu. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
partial_image_b64 ciąg Dane częściowe obrazu zakodowane w formacie Base64, odpowiednie do renderowania jako obrazu. Tak
partial_image_index liczba całkowita Indeks oparty na 0 dla obrazu częściowego (zaplecze jest oparte na 1, ale jest to 0 oparte na użytkowniku). Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.image_generation_call.partial_image".
Możliwe wartości: response.image_generation_call.partial_image
Tak

OpenAI.ResponseInProgressEvent

Emitowane, gdy odpowiedź jest w toku.

Nazwa Typ Opis Wymagane Wartość domyślna
response obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
└created_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
Instrukcje └* ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
└} obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Nie.
└output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
Monit └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└* rozumowanie OpenAI.Reasoning tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie.
└* tekst obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
└tool_choice OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject Jak model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania
odpowiedź. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia
model może wywoływać.
Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
└top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
└─top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie.
└* obcięcie wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
Użytkownik └* ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.in_progress.
Możliwe wartości: response.in_progress
Tak

OpenAI.ResponseIncompleteEvent

Zdarzenie emitowane po zakończeniu odpowiedzi jako niekompletne.

Nazwa Typ Opis Wymagane Wartość domyślna
response obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
└created_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
Instrukcje └* ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
└} obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Nie.
└output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
Monit └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└* rozumowanie OpenAI.Reasoning tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie.
└* tekst obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
└tool_choice OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject Jak model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania
odpowiedź. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia
model może wywoływać.
Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
└top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
└─top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie.
└* obcięcie wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
Użytkownik └* ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze response.incomplete.
Możliwe wartości: response.incomplete
Tak

OpenAI.ResponseItemList

Lista elementów odpowiedzi.

Nazwa Typ Opis Wymagane Wartość domyślna
dane macierz Lista elementów używanych do wygenerowania tej odpowiedzi. Tak
first_id ciąg Identyfikator pierwszego elementu na liście. Tak
zawiera_więcej typ logiczny (boolowski) Niezależnie od tego, czy jest dostępnych więcej elementów. Tak
last_id ciąg Identyfikator ostatniego elementu na liście. Tak
obiekt wyliczenie Zwracany typ obiektu musi mieć wartość list.
Możliwe wartości: list
Tak

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Emitowane w przypadku różnicy (częściowej aktualizacji) do argumentów wywołania narzędzia MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
delta Częściowa aktualizacja argumentów wywołania narzędzia MCP. Tak
item_id ciąg Unikatowy identyfikator przetwarzanego elementu wywołania narzędzia MCP. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.arguments_delta".
Możliwe wartości: response.mcp_call.arguments_delta
Tak

OpenAI.ResponseMCPCallArgumentsDoneEvent

Emitowane, gdy argumenty wywołania narzędzia MCP są finalizowane.

Nazwa Typ Opis Wymagane Wartość domyślna
arguments Sfinalizowane argumenty wywołania narzędzia MCP. Tak
item_id ciąg Unikatowy identyfikator przetwarzanego elementu wywołania narzędzia MCP. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.arguments_done".
Możliwe wartości: response.mcp_call.arguments_done
Tak

OpenAI.ResponseMCPCallCompletedEvent

Emitowane po pomyślnym zakończeniu wywołania narzędzia MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.completed".
Możliwe wartości: response.mcp_call.completed
Tak

OpenAI.ResponseMCPCallFailedEvent

Emitowane, gdy wywołanie narzędzia MCP nie powiodło się.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.failed".
Możliwe wartości: response.mcp_call.failed
Tak

OpenAI.ResponseMCPCallInProgressEvent

Emitowane, gdy trwa wywołanie narzędzia MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator przetwarzanego elementu wywołania narzędzia MCP. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_call.in_progress".
Możliwe wartości: response.mcp_call.in_progress
Tak

OpenAI.ResponseMCPListToolsCompletedEvent

Emitowane po pomyślnym pobraniu listy dostępnych narzędzi MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_list_tools.completed".
Możliwe wartości: response.mcp_list_tools.completed
Tak

OpenAI.ResponseMCPListToolsFailedEvent

Emitowane, gdy próba wyświetlenia listy dostępnych narzędzi MCP nie powiodła się.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_list_tools.failed".
Możliwe wartości: response.mcp_list_tools.failed
Tak

OpenAI.ResponseMCPListToolsInProgressEvent

Emitowane, gdy system jest w trakcie pobierania listy dostępnych narzędzi MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ zdarzenia. Zawsze "response.mcp_list_tools.in_progress".
Możliwe wartości: response.mcp_list_tools.in_progress
Tak

OpenAI.ResponseOutputItemAddedEvent

Emitowane po dodaniu nowego elementu wyjściowego.

Nazwa Typ Opis Wymagane Wartość domyślna
element obiekt Element zawartości używany do generowania odpowiedzi. Tak
└─ ID ciąg Nie.
└typ OpenAI.ItemType Nie.
output_index liczba całkowita Indeks dodanego elementu wyjściowego. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_item.added.
Możliwe wartości: response.output_item.added
Tak

OpenAI.ResponseOutputItemDoneEvent

Emitowane po oznaczeniu elementu wyjściowego.

Nazwa Typ Opis Wymagane Wartość domyślna
element obiekt Element zawartości używany do generowania odpowiedzi. Tak
└─ ID ciąg Nie.
└typ OpenAI.ItemType Nie.
output_index liczba całkowita Indeks elementu wyjściowego, który został oznaczony jako wykonany. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_item.done.
Możliwe wartości: response.output_item.done
Tak

OpenAI.ResponsePromptVariables

Opcjonalna mapa wartości, które mają być zastępowane zmiennymi w wierszu polecenia. Wartości podstawienia mogą być ciągami lub innymi typami wejściowymi odpowiedzi, takimi jak obrazy lub pliki.

Typ: obiekt

OpenAI.ResponseQueuedEvent

Emitowane, gdy odpowiedź jest w kolejce i oczekuje na przetworzenie.

Nazwa Typ Opis Wymagane Wartość domyślna
response obiekt Tak
└* tło typ logiczny (boolowski) Czy uruchomić odpowiedź modelu w tle.
Dowiedz się więcej.
Nie. Nieprawda
└created_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia tej odpowiedzi. Nie.
└─ błąd OpenAI.ResponseError Obiekt błędu zwracany, gdy model nie może wygenerować odpowiedzi. Nie.
└─ ID ciąg Unikatowy identyfikator tej odpowiedzi. Nie.
└incomplete_details obiekt Szczegółowe informacje o tym, dlaczego odpowiedź jest niekompletna. Nie.
└* przyczyna wyliczenie Powód, dla którego odpowiedź jest niekompletna.
Możliwe wartości: max_output_tokens, content_filter
Nie.
Instrukcje └* ciąg lub tablica Komunikat systemu (lub dewelopera) wstawiony do kontekstu modelu.

W przypadku używania polecenia wraz z instrukcjami previous_response_idz poprzedniego
odpowiedź nie zostanie przeniesiona do następnej odpowiedzi. To sprawia, że jest to proste
w celu zamiany komunikatów systemowych (lub deweloperów) w nowych odpowiedziach.
Nie.
└max_output_tokens liczba całkowita Górna granica liczby tokenów, które można wygenerować dla odpowiedzi, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
└max_tool_calls liczba całkowita Maksymalna liczba wywołań do wbudowanych narzędzi, które można przetworzyć w odpowiedzi. Ta maksymalna liczba dotyczy wszystkich wbudowanych wywołań narzędzi, a nie poszczególnych narzędzi. Wszelkie dalsze próby wywołania narzędzia przez model zostaną zignorowane. Nie.
Metadane └* obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
└} obiekt wyliczenie Typ obiektu tego zasobu — zawsze ustawiony na responsewartość .
Możliwe wartości: response
Nie.
└─ Dane wyjściowe macierz Tablica elementów zawartości wygenerowanych przez model.

- Długość i kolejność elementów w tablicy output jest zależna
w odpowiedzi modelu.
— Zamiast uzyskiwać dostęp do pierwszego elementu w tablicy output i
zakładając, że jest to komunikat z zawartością assistant wygenerowaną przez
model, można rozważyć użycie właściwości, w output_text której
obsługiwane w zestawach SDK.
Nie.
└output_text ciąg Właściwość wygody tylko dla zestawu SDK, która zawiera zagregowane dane wyjściowe tekstu
ze wszystkich output_text elementów w tablicy output , jeśli istnieją.
Obsługiwane w zestawach SDK python i JavaScript.
Nie.
└parallel_tool_calls typ logiczny (boolowski) Czy zezwolić modelowi na równoległe uruchamianie wywołań narzędzi. Nie. Prawda
└previous_response_id ciąg Unikatowy identyfikator poprzedniej odpowiedzi na model. Użyj tego polecenia do
tworzenie konwersacji wieloe obrotu.
Nie.
Monit └* OpenAI.Prompt Odwołanie do szablonu monitu i jego zmiennych.
Nie.
└* rozumowanie OpenAI.Reasoning tylko modele rozumowania

Opcje konfiguracji dla
modele rozumowania.
Nie.
Stan └* wyliczenie Stan generowania odpowiedzi. completedJeden z , , failed
in_progress, cancelled, queued lub incomplete.
Możliwe wartości: completed, , failedin_progress, cancelled, , queuedincomplete
Nie.
└* temperatura Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będą bardziej skoncentrowane i deterministyczne.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie.
└* tekst obiekt Opcje konfiguracji odpowiedzi tekstowej z modelu. Może być zwykły
tekstowe lub ustrukturyzowane dane JSON. Dowiedz się więcej: Dane wyjściowe ze strukturą
Nie.
Format └* OpenAI.ResponseTextFormatConfiguration Nie.
└tool_choice OpenAI.ToolChoiceOptions lub OpenAI.ToolChoiceObject Jak model powinien wybrać narzędzie (lub narzędzia), które ma być używane podczas generowania
odpowiedź. Zobacz parametr , tools aby zobaczyć, jak określić narzędzia
model może wywoływać.
Nie.
└─ Narzędzia macierz Tablica narzędzi, które model może wywołać podczas generowania odpowiedzi. Ty
może określić, które narzędzie ma być używane przez ustawienie parametru tool_choice .

Dwie kategorie narzędzi, które można podać, to:

- Wbudowane narzędzia: narzędzia dostarczane przez usługę OpenAI, które rozszerzają
możliwości modelu, takie jak wyszukiwanie w Internecie lub wyszukiwanie plików.
Nie.
└top_logprobs liczba całkowita Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. Nie.
└─top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra,
gdzie model uwzględnia wyniki tokenów z prawdopodobieństwem top_p
masa. Tak więc 0,1 oznacza tylko tokeny składające się z 10 pierwszych% masy prawdopodobieństwa
są brane pod uwagę.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie.
└* obcięcie wyliczenie Strategia obcinania do użycia dla odpowiedzi modelu.
- auto: Jeśli kontekst tej odpowiedzi i poprzednich przekroczy
rozmiar okna kontekstu modelu, model zostanie obcięty
odpowiedź, aby dopasować okno kontekstu, upuszczając elementy wejściowe w elem.
w środku rozmowy.
- disabled (ustawienie domyślne): jeśli odpowiedź modelu przekroczy okno kontekstu
rozmiar modelu, żądanie zakończy się niepowodzeniem z błędem 400.
Możliwe wartości: auto, disabled
Nie.
└─ użycie OpenAI.ResponseUsage Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe,
podział tokenów wyjściowych i łączna liczba użytych tokenów.
Nie.
Użytkownik └* ciąg Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.
typ wyliczenie Typ zdarzenia. Zawsze "response.queued".
Możliwe wartości: response.queued
Tak

OpenAI.ResponseReasoningDeltaEvent

Emitowane w przypadku różnicy (częściowej aktualizacji) do zawartości rozumowania.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks części zawartości rozumowania w elemencie wyjściowym. Tak
delta Częściowa aktualizacja zawartości rozumowania. Tak
item_id ciąg Unikatowy identyfikator elementu, dla którego jest aktualizowana przyczyna. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning.delta".
Możliwe wartości: response.reasoning.delta
Tak

OpenAI.ResponseReasoningDoneEvent

Emitowane, gdy zawartość rozumowania jest finalizowana dla elementu.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks części zawartości rozumowania w elemencie wyjściowym. Tak
item_id ciąg Unikatowy identyfikator elementu, dla którego rozumowanie jest finalizowane. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
SMS ciąg Sfinalizowany tekst rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning.done".
Możliwe wartości: response.reasoning.done
Tak

OpenAI.ResponseReasoningSummaryDeltaEvent

Emitowane w przypadku różnicy (częściowej aktualizacji) do zawartości podsumowania przyczyn.

Nazwa Typ Opis Wymagane Wartość domyślna
delta Częściowa aktualizacja zawartości podsumowania przyczyn. Tak
item_id ciąg Unikatowy identyfikator elementu, dla którego jest aktualizowane podsumowanie rozumowania. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
summary_index liczba całkowita Indeks części podsumowania w elemencie wyjściowym. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning_summary.delta".
Możliwe wartości: response.reasoning_summary.delta
Tak

OpenAI.ResponseReasoningSummaryDoneEvent

Emitowane, gdy zawartość podsumowania rozumowania jest finalizowana dla elementu.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator elementu, dla którego podsumowanie rozumowania jest finalizowane. Tak
output_index liczba całkowita Indeks elementu wyjściowego w tablicy wyjściowej odpowiedzi. Tak
summary_index liczba całkowita Indeks części podsumowania w elemencie wyjściowym. Tak
SMS ciąg Sfinalizowany tekst podsumowania rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze "response.reasoning_summary.done".
Możliwe wartości: response.reasoning_summary.done
Tak

OpenAI.ResponseReasoningSummaryPartAddedEvent

Emitowane po dodaniu nowej części podsumowania rozumowania.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Identyfikator elementu, z tym elementem podsumowania jest skojarzony. Tak
output_index liczba całkowita Indeks elementu wyjściowego jest skojarzony z tą częścią podsumowania. Tak
część obiekt Tak
└typ OpenAI.ReasoningItemSummaryPartType Nie.
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_part.added.
Możliwe wartości: response.reasoning_summary_part.added
Tak

OpenAI.ResponseReasoningSummaryPartDoneEvent

Emitowane po zakończeniu części podsumowania rozumowania.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Identyfikator elementu, z tym elementem podsumowania jest skojarzony. Tak
output_index liczba całkowita Indeks elementu wyjściowego jest skojarzony z tą częścią podsumowania. Tak
część obiekt Tak
└typ OpenAI.ReasoningItemSummaryPartType Nie.
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_part.done.
Możliwe wartości: response.reasoning_summary_part.done
Tak

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Emitowane po dodaniu różnicy do tekstu podsumowania rozumowania.

Nazwa Typ Opis Wymagane Wartość domyślna
delta ciąg Delta tekstu dodana do podsumowania. Tak
item_id ciąg Identyfikator elementu, z który jest skojarzona ta delta tekstu podsumowania. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego, z tym różnicą tekstu podsumowania jest skojarzony. Tak
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_text.delta.
Możliwe wartości: response.reasoning_summary_text.delta
Tak

OpenAI.ResponseReasoningSummaryTextDoneEvent

Emitowany po zakończeniu tekstu podsumowania rozumowania.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Identyfikator elementu, z tym tekstem podsumowania jest skojarzony. Tak
output_index liczba całkowita Indeks elementu wyjściowego, z tym tekstem podsumowania jest skojarzony. Tak
summary_index liczba całkowita Indeks części podsumowania w podsumowaniu rozumowania. Tak
SMS ciąg Pełny tekst ukończonego podsumowania rozumowania. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.reasoning_summary_text.done.
Możliwe wartości: response.reasoning_summary_text.done
Tak

OpenAI.ResponseRefusalDeltaEvent

Emitowane w przypadku częściowego tekstu odmowy.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks części zawartości, do którego jest dodawany tekst odmowy. Tak
delta ciąg Dodany tekst odmowy. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego jest dodawany tekst odmowy. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego jest dodawany tekst odmowy. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.refusal.delta.
Możliwe wartości: response.refusal.delta
Tak

OpenAI.ResponseRefusalDoneEvent

Emitowane, gdy tekst odmowy jest sfinalizowany.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks części zawartości, że tekst odmowy jest sfinalizowany. Tak
item_id ciąg Identyfikator elementu wyjściowego, który tekst odmowy jest sfinalizowany. Tak
output_index liczba całkowita Indeks elementu wyjściowego, który tekst odmowy jest sfinalizowany. Tak
odmowa ciąg Tekst odmowy, który jest sfinalizowany. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.refusal.done.
Możliwe wartości: response.refusal.done
Tak

OpenAI.ResponseStreamEvent

Dyskryminujące dla openAI.ResponseStreamEvent

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Nazwa Typ Opis Wymagane Wartość domyślna
sequence_number liczba całkowita Numer sekwencji dla tego zdarzenia. Tak
typ OpenAI.ResponseStreamEventType Tak

OpenAI.ResponseStreamEventType

Majątek Wartość
Typ ciąg
Wartości response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Emitowane w przypadku dodatkowej różnicy tekstu.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks części zawartości, do którego dodano różnicę tekstu. Tak
delta ciąg Dodano różnicę tekstu. Tak
item_id ciąg Identyfikator elementu wyjściowego, do którego dodano różnicę tekstu. Tak
zaciemnianie kodu ciąg Pole losowych znaków wprowadzonych przez zaciemnianie strumienia. Zaciemnianie strumienia to mechanizm, który ogranicza niektóre ataki kanału bocznego. Tak
output_index liczba całkowita Indeks elementu wyjściowego, do którego dodano różnicę tekstu. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_text.delta.
Możliwe wartości: response.output_text.delta
Tak

OpenAI.ResponseTextDoneEvent

Emitowane po sfinalizowaniu zawartości tekstowej.

Nazwa Typ Opis Wymagane Wartość domyślna
content_index liczba całkowita Indeks części zawartości, którą sfinalizowana jest zawartość tekstowa. Tak
item_id ciąg Identyfikator elementu wyjściowego, który jest sfinalizowany. Tak
output_index liczba całkowita Indeks elementu wyjściowego, który jest sfinalizowany. Tak
SMS ciąg Zawartość tekstowa, która jest sfinalizowana. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.output_text.done.
Możliwe wartości: response.output_text.done
Tak

KonfiguracjaFormatuTekstuOdpowiedzi.OpenAI

Dyskryminowanie pliku OpenAI.ResponseTextFormatConfiguration

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ResponseTextFormatConfigurationType Obiekt określający format, który musi zostać wygenerowany przez model.

Konfigurowanie { "type": "json_schema" } włącza dane wyjściowe ze strukturą,
zapewnia, że model będzie zgodny z podanym schematem JSON. Dowiedz się więcej w witrynie
Przewodnik dotyczący danych wyjściowych ze strukturą.

Domyślny format to { "type": "text" } bez żadnych dodatkowych opcji.

Niezalecane w przypadku modeli gpt-4o i nowszych:

Ustawienie { "type": "json_object" } włącza starszy tryb JSON, który
gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. Korzystanie z json_schema
jest preferowany w przypadku modeli, które go obsługują.
Tak

OpenAI.ResponseTextFormatConfigurationJsonObject

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: json_object
Tak

OpenAI.ResponseTextFormatConfigurationJsonSchema (konfiguracja formatu tekstu odpowiedzi OpenAI według schematu JSON)

Format odpowiedzi schematu JSON. Służy do generowania ustrukturyzowanych odpowiedzi JSON. Dowiedz się więcej o danych wyjściowych ze strukturą.

Nazwa Typ Opis Wymagane Wartość domyślna
opis ciąg Opis tego, do czego służy format odpowiedzi, używany przez model do
określ, jak reagować w ustalonym formacie.
Nie.
nazwa ciąg Nazwa formatu odpowiedzi. Musi być a-z, A-Z, 0-9 lub zawierać
podkreślenia i kreski o maksymalnej długości 64.
Tak
schemat OpenAI.ResponseFormatJsonSchemaSchema Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.
Dowiedz się, jak tworzyć schematy JSON tutaj.
Tak
surowy typ logiczny (boolowski) Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych.
W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego zdefiniowanego schematu
W polu schema. Tylko podzbiór schematu JSON jest obsługiwany, gdy
Parametr strict ma wartość true. Aby dowiedzieć się więcej, przeczytaj ustrukturyzowane dane wyjściowe
przewodnik
.
Nie. Nieprawda
typ wyliczenie Typ zdefiniowanego formatu odpowiedzi. Zawsze json_schema.
Możliwe wartości: json_schema
Tak

Konfiguracja formatu tekstu odpowiedzi OpenAI

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: text
Tak

OpenAI.TypKonfiguracjiFormatowaniaTekstu odpowiedzi

Obiekt określający format, który musi zostać wygenerowany przez model.

Konfigurowanie { "type": "json_schema" } umożliwia korzystanie ze strukturowych danych wyjściowych, co zapewnia, że model będzie zgodny z podanym schematem JSON. Dowiedz się więcej w przewodniku Dotyczącym danych wyjściowych ze strukturą.

Domyślny format to { "type": "text" } bez żadnych dodatkowych opcji.

Niezalecane w przypadku modeli gpt-4o i nowszych:

Włączenie trybu { "type": "json_object" } aktywuje starszy tryb JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. Użycie json_schema jest preferowane w przypadku modeli, które go obsługują.

Majątek Wartość
Opis Obiekt określający format, który musi zostać wygenerowany przez model.

Konfigurowanie { "type": "json_schema" } umożliwia korzystanie ze strukturowych danych wyjściowych, co zapewnia, że model będzie zgodny z podanym schematem JSON. Dowiedz się więcej w przewodniku Dotyczącym danych wyjściowych ze strukturą.

Domyślny format to { "type": "text" } bez żadnych dodatkowych opcji.

Niezalecane w przypadku modeli gpt-4o i nowszych:

Włączenie trybu { "type": "json_object" } aktywuje starszy tryb JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. Użycie json_schema jest preferowane w przypadku modeli, które go obsługują. | | Typ | ciąg | | Wartości | text
json_schema
json_object |

OpenAI.ResponseUsage

Reprezentuje szczegóły użycia tokenu, w tym tokeny wejściowe, tokeny wyjściowe, podział tokenów wyjściowych i łączną liczbę użytych tokenów.

Nazwa Typ Opis Wymagane Wartość domyślna
input_tokens liczba całkowita Liczba tokenów wejściowych. Tak
input_tokens_details obiekt Szczegółowy podział tokenów wejściowych. Tak
└cached_tokens liczba całkowita Liczba tokenów pobranych z pamięci podręcznej.
Więcej informacji na temat buforowania monitów.
Nie.
output_tokens liczba całkowita Liczba tokenów wyjściowych. Tak
output_tokens_details obiekt Szczegółowy podział tokenów wyjściowych. Tak
└reasoning_tokens liczba całkowita Liczba tokenów rozumowania. Nie.
total_tokens liczba całkowita Całkowita liczba użytych tokenów. Tak

OpenAI.ResponseWebSearchCallCompletedEvent

Uwaga / Notatka

web_search nie jest jeszcze dostępna za pośrednictwem usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator elementu wyjściowego skojarzonego z wywołaniem wyszukiwania w Internecie. Tak
output_index liczba całkowita Indeks elementu wyjściowego, z którego jest skojarzone wywołanie wyszukiwania w Internecie. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.web_search_call.completed.
Możliwe wartości: response.web_search_call.completed
Tak

OpenAI.ResponseWebSearchCallInProgressEvent

Uwaga / Notatka

web_search nie jest jeszcze dostępna za pośrednictwem usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator elementu wyjściowego skojarzonego z wywołaniem wyszukiwania w Internecie. Tak
output_index liczba całkowita Indeks elementu wyjściowego, z którego jest skojarzone wywołanie wyszukiwania w Internecie. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.web_search_call.in_progress.
Możliwe wartości: response.web_search_call.in_progress
Tak

OpenAI.ResponseWebSearchCallSearchingEvent

Uwaga / Notatka

web_search nie jest jeszcze dostępna za pośrednictwem usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
item_id ciąg Unikatowy identyfikator elementu wyjściowego skojarzonego z wywołaniem wyszukiwania w Internecie. Tak
output_index liczba całkowita Indeks elementu wyjściowego, z którego jest skojarzone wywołanie wyszukiwania w Internecie. Tak
typ wyliczenie Typ zdarzenia. Zawsze response.web_search_call.searching.
Możliwe wartości: response.web_search_call.searching
Tak

OpenAI.ResponsesAssistantMessageItemParam

Element parametru komunikatu z rolą assistant .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze assistant.
Możliwe wartości: assistant
Tak

OpenAI.ResponsesAssistantMessageItemResource

Element zasobu komunikatu z rolą assistant .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze assistant.
Możliwe wartości: assistant
Tak

OpenAI.ResponsesDeveloperMessageItemParam

Element parametru komunikatu z rolą developer .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze developer.
Możliwe wartości: developer
Tak

OpenAI.ResponsesDeveloperMessageItemResource

Element zasobu komunikatu z rolą developer .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze developer.
Możliwe wartości: developer
Tak

OpenAI.ResponsesMessageItemParam

Element komunikatu odpowiedzi reprezentujący rolę i zawartość, jak podano jako parametry żądania klienta.

Dyskryminujący dla openAI.ResponsesMessageItemParam

Ten składnik używa właściwości role do rozróżniania różnych typów:

Wartość typu Schemat
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Nazwa Typ Opis Wymagane Wartość domyślna
rola obiekt Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi. Tak
typ wyliczenie Typ elementu odpowiedzi, który jest zawsze "komunikatem".
Możliwe wartości: message
Tak

OpenAI.ResponsesMessageItemResource

Element zasobu komunikatu odpowiedzi reprezentujący rolę i zawartość podaną w odpowiedziach usługi.

Dyskryminujące dla openAI.ResponsesMessageItemResource

Ten składnik używa właściwości role do rozróżniania różnych typów:

Wartość typu Schemat
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Nazwa Typ Opis Wymagane Wartość domyślna
rola obiekt Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi. Tak
stan wyliczenie Stan elementu. in_progressJeden zcompleted, lub
incomplete. Wypełniane, gdy elementy są zwracane za pośrednictwem interfejsu API.
Możliwe wartości: in_progress, , completedincomplete
Tak
typ wyliczenie Typ elementu odpowiedzi, który jest zawsze "komunikatem".
Możliwe wartości: message
Tak

OpenAI.ResponsesMessageRole

Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi.

Majątek Wartość
Opis Kolekcja prawidłowych ról dla elementów komunikatów odpowiedzi.
Typ ciąg
Wartości system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Element parametru komunikatu z rolą system .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze system.
Możliwe wartości: system
Tak

OpenAI.ResponsesSystemMessageItemResource

Element zasobu komunikatu z rolą system .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze system.
Możliwe wartości: system
Tak

OpenAI.ResponsesUserMessageItemParam

Element parametru komunikatu z rolą user .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze user.
Możliwe wartości: user
Tak

OpenAI.ResponsesUserMessageItemResource

Element zasobu komunikatu z rolą user .

Nazwa Typ Opis Wymagane Wartość domyślna
zawartość macierz Zawartość skojarzona z wiadomością. Tak
rola wyliczenie Rola komunikatu, czyli zawsze user.
Możliwe wartości: user
Tak

OpenAI.RunGraderRequest

Nazwa Typ Opis Wymagane Wartość domyślna
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.
element Element zestawu danych dostarczony do klasyra. Zostanie użyta do wypełnienia
przestrzeni item nazw. Aby uzyskać więcej informacji, zobacz przewodnik .
Nie.
model_sample ciąg Przykładowy model do oceny. Ta wartość zostanie użyta do wypełnienia
przestrzeni sample nazw. Aby uzyskać więcej informacji, zobacz przewodnik .
Zmienna output_json zostanie wypełniona, jeśli przykładowy model jest
prawidłowy ciąg JSON.
Tak

OpenAI.RunGraderResponse

Nazwa Typ Opis Wymagane Wartość domyślna
metadane obiekt Tak
Błędy └* obiekt Nie.
└formula_parse_error typ logiczny (boolowski) Nie.
└invalid_variable_error typ logiczny (boolowski) Nie.
└model_grader_parse_error typ logiczny (boolowski) Nie.
└model_grader_refusal_error typ logiczny (boolowski) Nie.
└model_grader_server_error typ logiczny (boolowski) Nie.
└model_grader_server_error_details ciąg Nie.
└other_error typ logiczny (boolowski) Nie.
└python_grader_runtime_error typ logiczny (boolowski) Nie.
└python_grader_runtime_error_details ciąg Nie.
└python_grader_server_error typ logiczny (boolowski) Nie.
└python_grader_server_error_type ciąg Nie.
└sample_parse_error typ logiczny (boolowski) Nie.
└truncated_observation_error typ logiczny (boolowski) Nie.
└unresponsive_reward_error typ logiczny (boolowski) Nie.
└execution_time Liczba Nie.
└─ nazwa ciąg Nie.
└sampled_model_name ciąg Nie.
Wyniki └* Nie.
└token_usage liczba całkowita Nie.
└typ ciąg Nie.
model_grader_token_usage_per_model Tak
nagroda Liczba Tak
sub_rewards Tak

OpenAI.StaticChunkingStrategy

Nazwa Typ Opis Wymagane Wartość domyślna
chunk_overlap_tokens liczba całkowita Liczba tokenów nakładających się między fragmentami. Domyślna wartość to 400.

Należy pamiętać, że nakładanie się nie może przekraczać połowy wartości max_chunk_size_tokens.
Tak
max_chunk_size_tokens liczba całkowita Maksymalna liczba tokenów w każdym kawałku. Domyślna wartość to 800. Wartość minimalna to 100 , a wartość maksymalna to 4096. Tak

OpenAI.StaticChunkingStrategyRequestParam

Dostosuj własną strategię fragmentowania, ustawiając rozmiar fragmentu i nakładanie się fragmentów.

Nazwa Typ Opis Wymagane Wartość domyślna
statyczny OpenAI.StaticChunkingStrategy Tak
typ wyliczenie Zawsze static.
Możliwe wartości: static
Tak

OpenAI.StaticChunkingStrategyResponseParam

Nazwa Typ Opis Wymagane Wartość domyślna
statyczny OpenAI.StaticChunkingStrategy Tak
typ wyliczenie Zawsze static.
Możliwe wartości: static
Tak

OpenAI.StopConfiguration

Nieobsługiwane w przypadku najnowszych modeli o3 rozumowania i o4-mini.

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.

Ten schemat akceptuje jeden z następujących typów:

  • ciągu
  • tablica

OpenAI.Tool

Dyskryminator dla OpenAI.Tool

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ToolType Narzędzie, które może służyć do generowania odpowiedzi. Tak

OpenAI.ToolChoiceObject

Dyskryminujące dla obiektu OpenAI.ToolChoiceObject

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.ToolChoiceObjectType Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi. Tak

OpenAI.ToolChoiceObjectCodeInterpreter

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: code_interpreter
Tak

OpenAI.ToolChoiceObjectComputer

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: computer_use_preview
Tak

OpenAI.ToolChoiceObjectFileSearch

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: file_search
Tak

OpenAI.ToolChoiceObjectFunction

Użyj tej opcji, aby wymusić wywołanie określonej funkcji przez model.

Nazwa Typ Opis Wymagane Wartość domyślna
nazwa ciąg Nazwa funkcji do wywołania. Tak
typ wyliczenie W przypadku wywoływania funkcji typ to zawsze function.
Możliwe wartości: function
Tak

OpenAI.ToolChoiceObjectImageGen

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: image_generation
Tak

OpenAI.ToolChoiceObjectMCP

Użyj tej opcji, aby wymusić wywołanie określonego narzędzia na zdalnym serwerze MCP.

Nazwa Typ Opis Wymagane Wartość domyślna
nazwa ciąg Nazwa narzędzia do wywołania na serwerze. Nie.
etykieta_serwera ciąg Etykieta serwera MCP do użycia. Tak
typ wyliczenie W przypadku narzędzi MCP typ to zawsze mcp.
Możliwe wartości: mcp
Tak

OpenAI.ToolChoiceObjectType

Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi.

Majątek Wartość
Opis Wskazuje, że model powinien używać wbudowanego narzędzia do generowania odpowiedzi.
Typ ciąg
Wartości file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Uwaga / Notatka

web_search nie jest jeszcze dostępna za pośrednictwem usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie
Możliwe wartości: web_search_preview
Tak

OpenAI.ToolChoiceOptions

Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.

Majątek Wartość
Opis Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

none oznacza, że model nie wywoła żadnego narzędzia i zamiast tego generuje komunikat.

auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem jednego lub
więcej narzędzi.

required oznacza, że model musi wywoływać co najmniej jedno narzędzie.
Typ ciąg
Wartości none
auto
required

OpenAI.ToolType

Narzędzie, które może służyć do generowania odpowiedzi.

Majątek Wartość
Opis Narzędzie, które może służyć do generowania odpowiedzi.
Typ ciąg
Wartości file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

Najwyższe prawdopodobieństwo dziennika tokenu.

Nazwa Typ Opis Wymagane Wartość domyślna
B macierz Tak
logprob Liczba Tak
kod przedpłaty ciąg Tak

OpenAI.UpdateVectorStoreFileAttributesRequest

Nazwa Typ Opis Wymagane Wartość domyślna
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze są ciągami
o maksymalnej długości 64 znaków. Wartości to ciągi z maksymalną wartością
długość 512 znaków, wartości logicznych lub liczb.
Tak

OpenAI.UpdateVectorStoreRequest

Nazwa Typ Opis Wymagane Wartość domyślna
wygasa po obiekt Zasady wygasania magazynu wektorów. Nie.
└* kotwica wyliczenie Znacznik czasu zakotwiczenia, po którym mają zastosowanie zasady wygasania. Obsługiwane kotwice: last_active_at.
Możliwe wartości: last_active_at
Nie.
└days liczba całkowita Liczba dni po upływie czasu zakotwiczenia, przez który magazyn wektorów wygaśnie. Nie.
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Nie.
nazwa ciąg Nazwa magazynu wektorów. Nie.

OpenAI.ValidateGraderRequest

Nazwa Typ Opis Wymagane Wartość domyślna
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Tak
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.

OpenAI.ValidateGraderResponse

Nazwa Typ Opis Wymagane Wartość domyślna
Równiarka obiekt Obiekt StringCheckGrader, który wykonuje porównanie ciągów między danymi wejściowymi i odwołaniami przy użyciu określonej operacji. Nie.
└calculate_output ciąg Formuła do obliczenia danych wyjściowych na podstawie wyników klasyra. Nie.
└evaluation_metric wyliczenie Metryka oceny do użycia. Jeden z fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 lub rouge_l.
Możliwe wartości: fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5, rouge_l
Nie.
└* klasy obiekt Nie.
└image_tag ciąg Tag obrazu do użycia dla skryptu języka Python. Nie.
└─ Wejście macierz Tekst wejściowy. Może to obejmować ciągi szablonu. Nie.
Model └* ciąg Model do użycia do oceny. Nie.
└─ nazwa ciąg Nazwa oceniającego. Nie.
Operacja └* wyliczenie Operacja sprawdzania ciągów, którą należy wykonać. eqJeden z , ne, likelub ilike.
Możliwe wartości: eq, , ne, likeilike
Nie.
Zakres └* macierz Zakres wyniku Wartość domyślna to [0, 1]. Nie.
└— odwołanie ciąg Tekst oceniany względem. Nie.
└parametry_próbkowania Parametry próbkowania dla modelu. Nie.
└— źródło ciąg Kod źródłowy skryptu języka Python. Nie.
└typ wyliczenie Typ obiektu, który jest zawsze multi.
Możliwe wartości: multi
Nie.

OpenAI.VectorStoreExpirationAfter

Zasady wygasania magazynu wektorów.

Nazwa Typ Opis Wymagane Wartość domyślna
kotwica wyliczenie Znacznik czasu zakotwiczenia, po którym mają zastosowanie zasady wygasania. Obsługiwane kotwice: last_active_at.
Możliwe wartości: last_active_at
Tak
Dni liczba całkowita Liczba dni po upływie czasu zakotwiczenia, przez który magazyn wektorów wygaśnie. Tak

OpenAI.VectorStoreFileAttributes

Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być przydatne do przechowywania dodatkowych informacji o obiekcie w formacie ustrukturyzowanym i wykonywania zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi o maksymalnej długości 512 znaków, wartości logicznych lub liczb.

Typ: obiekt

OpenAI.VectorStoreFileBatchObject

Partia plików dołączonych do magazynu wektorów.

Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia partii plików magazynu wektorów. Tak
file_counts obiekt Tak
└* anulowano liczba całkowita Liczba plików, które zostały anulowane. Nie.
Ukończono └* liczba całkowita Liczba przetworzonych plików. Nie.
└* nie powiodło się liczba całkowita Liczba plików, które nie mogły przetworzyć. Nie.
└in_progress liczba całkowita Liczba obecnie przetwarzanych plików. Nie.
└─ suma liczba całkowita Całkowita liczba plików. Nie.
id ciąg Identyfikator, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze vector_store.file_batch.
Możliwe wartości: vector_store.files_batch
Tak
stan wyliczenie Stan partii plików magazynu wektorów, który może mieć in_progresswartość , completedcancelled lub failed.
Możliwe wartości: in_progress, , completed, cancelledfailed
Tak
vector_store_id ciąg Identyfikator magazynu wektorów, do którego jest dołączony plik. Tak

OpenAI.VectorStoreFileObject

Lista plików dołączonych do magazynu wektorów.

Nazwa Typ Opis Wymagane Wartość domyślna
attributes obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego. Klucze są ciągami
o maksymalnej długości 64 znaków. Wartości to ciągi z maksymalną wartością
długość 512 znaków, wartości logicznych lub liczb.
Nie.
chunking_strategy obiekt Nie.
└typ wyliczenie
Możliwe wartości: static, other
Nie.
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia pliku magazynu wektorów. Tak
id ciąg Identyfikator, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
last_error obiekt Ostatni błąd skojarzony z tym plikiem magazynu wektorów. Jeśli nie ma żadnych błędów, będzie występować null błąd. Tak
└─ kod wyliczenie Jeden z server_error lub rate_limit_exceeded.
Możliwe wartości: server_error, , unsupported_fileinvalid_file
Nie.
└─ Komunikat ciąg Czytelny dla człowieka opis błędu. Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze vector_store.file.
Możliwe wartości: vector_store.file
Tak
stan wyliczenie Stan pliku magazynu wektorów, który może mieć in_progresswartość , , completedcancelledlub failed. Stan completed wskazuje, że plik magazynu wektorów jest gotowy do użycia.
Możliwe wartości: in_progress, , completed, cancelledfailed
Tak
usage_bytes liczba całkowita Łączne użycie magazynu wektorów w bajtach. Należy pamiętać, że może się to różnić od oryginalnego rozmiaru pliku. Tak
vector_store_id ciąg Identyfikator magazynu wektorów, do którego jest dołączony plik. Tak

OpenAI.VectorStoreObject

Magazyn wektorów to kolekcja przetworzonych plików może być używana przez file_search narzędzie.

Nazwa Typ Opis Wymagane Wartość domyślna
utworzono_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla momentu utworzenia magazynu wektorów. Tak
wygasa po OpenAI.VectorStoreExpirationAfter Zasady wygasania magazynu wektorów. Nie.
wygasa_o liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla czasu wygaśnięcia magazynu wektorów. Nie.
file_counts obiekt Tak
└* anulowano liczba całkowita Liczba anulowanych plików. Nie.
Ukończono └* liczba całkowita Liczba plików, które zostały pomyślnie przetworzone. Nie.
└* nie powiodło się liczba całkowita Liczba plików, które nie mogły przetworzyć. Nie.
└in_progress liczba całkowita Liczba obecnie przetwarzanych plików. Nie.
└─ suma liczba całkowita Całkowita liczba plików. Nie.
id ciąg Identyfikator, do którego można odwoływać się w punktach końcowych interfejsu API. Tak
last_active_at liczba całkowita Sygnatura czasowa systemu Unix (w sekundach) dla czasu ostatniego aktywnego magazynu wektorów. Tak
metadane obiekt Zestaw 16 par klucz-wartość, które można dołączyć do obiektu. Może to być
przydatne do przechowywania dodatkowych informacji o obiekcie w ustrukturyzowanej strukturze
formatowanie i wykonywanie zapytań dotyczących obiektów za pośrednictwem interfejsu API lub pulpitu nawigacyjnego.

Klucze to ciągi o maksymalnej długości 64 znaków. Wartości to ciągi
z maksymalną długością 512 znaków.
Tak
nazwa ciąg Nazwa magazynu wektorów. Tak
obiekt wyliczenie Typ obiektu, który jest zawsze vector_store.
Możliwe wartości: vector_store
Tak
stan wyliczenie Stan magazynu wektorów, który może mieć expiredwartość , in_progresslub completed. Stan completed wskazuje, że magazyn wektorów jest gotowy do użycia.
Możliwe wartości: expired, , in_progresscompleted
Tak
usage_bytes liczba całkowita Całkowita liczba bajtów używanych przez pliki w magazynie wektorów. Tak

OpenAI.VoiceIdsShared

Majątek Wartość
Typ ciąg
Wartości alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Dyskryminowanie openAI.WebSearchAction

Ten składnik używa właściwości type do rozróżniania różnych typów:

Wartość typu Schemat
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Nazwa Typ Opis Wymagane Wartość domyślna
typ OpenAI.WebSearchActionType Tak

OpenAI.WebSearchActionFind

Typ akcji "find": wyszukuje wzorzec na załadowanej stronie.

Nazwa Typ Opis Wymagane Wartość domyślna
wzorzec ciąg Wzorzec lub tekst do wyszukania na stronie. Tak
typ wyliczenie Typ akcji.
Możliwe wartości: find
Tak
URL ciąg Adres URL strony wyszukał wzorzec. Tak

OpenAI.WebSearchActionOpenPage

Typ akcji "open_page" — otwiera określony adres URL z wyników wyszukiwania.

Nazwa Typ Opis Wymagane Wartość domyślna
typ wyliczenie Typ akcji.
Możliwe wartości: open_page
Tak
URL ciąg Adres URL otwarty przez model. Tak

OpenAI.WebSearchActionSearch

Typ akcji "search" — wykonuje zapytanie wyszukiwania w Internecie.

Nazwa Typ Opis Wymagane Wartość domyślna
kwerenda ciąg Zapytanie wyszukiwania. Tak
typ wyliczenie Typ akcji.
Możliwe wartości: search
Tak

OpenAI.WebSearchActionType

Majątek Wartość
Typ ciąg
Wartości search
open_page
find

OpenAI.WebSearchPreviewTool

Uwaga / Notatka

web_search nie jest jeszcze dostępna za pośrednictwem usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
rozmiar_kontekstu_wyszukiwania wyliczenie Ogólne wskazówki dotyczące ilości miejsca w oknie kontekstowym do użycia w wyszukiwaniu. lowJeden z , mediumlub high. medium jest wartością domyślną.
Możliwe wartości: low, , mediumhigh
Nie.
typ wyliczenie Typ narzędzia wyszukiwania w Internecie. Jeden z web_search_preview lub web_search_preview_2025_03_11.
Możliwe wartości: web_search_preview
Tak
lokalizacja_użytkownika obiekt Nie.
└typ OpenAI.LocationType Nie.

OpenAI.WebSearchToolCallItemParam

Uwaga / Notatka

web_search nie jest jeszcze dostępna za pośrednictwem usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
akcja obiekt Tak
└typ OpenAI.WebSearchActionType Nie.
typ wyliczenie
Możliwe wartości: web_search_call
Tak

OpenAI.WebSearchToolCallItemResource

Uwaga / Notatka

web_search nie jest jeszcze dostępna za pośrednictwem usługi Azure OpenAI.

Nazwa Typ Opis Wymagane Wartość domyślna
akcja obiekt Tak
└typ OpenAI.WebSearchActionType Nie.
stan wyliczenie Stan wywołania narzędzia wyszukiwania w Internecie.
Możliwe wartości: in_progress, , searching, completedfailed
Tak
typ wyliczenie
Możliwe wartości: web_search_call
Tak

PineconeChatDataSource

Nazwa Typ Opis Wymagane Wartość domyślna
Parametry obiekt Informacje o parametrach do kontrolowania użycia źródła danych Pinecone. Tak
└allow_partial_result typ logiczny (boolowski) Jeśli ustawiono wartość true, system zezwoli na użycie częściowych wyników wyszukiwania, a żądanie zakończy się niepowodzeniem, jeśli wszystkie
zapytania częściowe kończą się niepowodzeniem. Jeśli nie zostanie określony lub określony jako false, żądanie zakończy się niepowodzeniem, jeśli jakiekolwiek zapytanie wyszukiwania zakończy się niepowodzeniem.
Nie. Nieprawda
Uwierzytelnianie └* obiekt Nie.
└* klucz ciąg Nie.
└typ wyliczenie
Możliwe wartości: api_key
Nie.
└embedding_dependency obiekt Reprezentacja źródła wektoryzacji danych do użycia jako zasób osadzania ze źródłem danych. Nie.
└typ AzureChatDataSourceVectorizationSourceType Identyfikator różnicujący dla konkretnego źródła wektoryzacji. Nie.
Środowisko └* ciąg Nazwa środowiska do użycia z Pinecone. Nie.
└fields_mapping obiekt Mapowania pól do zastosowania do danych używanych przez źródło danych Pinecone.
Należy pamiętać, że mapowania pól zawartości są wymagane dla Pinecone.
Nie.
└content_fields macierz Nie.
└content_fields_separator ciąg Nie.
└filepath_field ciąg Nie.
└title_field ciąg Nie.
└url_field ciąg Nie.
└in_scope typ logiczny (boolowski) Określa, czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
└include_contexts macierz Właściwości kontekstu wyjściowego do uwzględnienia w odpowiedzi.
Domyślnie będą wymagane cytaty i intencja.
Nie. ['cytaty', 'intencja']
└index_name ciąg Nazwa indeksu bazy danych Pinecone do użycia. Nie.
└max_search_queries liczba całkowita Maksymalna liczba przepisanych zapytań, które powinny być wysyłane do dostawcy wyszukiwania dla pojedynczego komunikatu użytkownika.
Domyślnie system będzie automatycznie określać.
Nie.
└* ścisłość liczba całkowita Skonfigurowana ścisłość filtrowania istotności wyszukiwania.
Wyższa ścisłość zwiększy precyzję, ale niższą kompletność odpowiedzi.
Nie.
└top_n_documents liczba całkowita Skonfigurowana liczba dokumentów do funkcji w zapytaniu. Nie.
typ wyliczenie Identyfikator typu dyskryminowanego, który jest zawsze "pinecone".
Możliwe wartości: pinecone
Tak

ResponseFormatJSONSchemaRequest

Nazwa Typ Opis Wymagane Wartość domyślna
json_schema obiekt Schemat JSON dla formatu odpowiedzi Tak
typ wyliczenie Typ formatu odpowiedzi
Możliwe wartości: json_schema
Tak

OdpowiedźModalności

Typy danych wyjściowych, które mają być generowane przez model. Większość modeli jest w stanie wygenerować tekst, co jest wartością domyślną:

["text"]

Model gpt-4o-audio-preview może również służyć do generowania dźwięku. Aby zażądać, aby ten model wygenerował odpowiedzi tekstowe i audio, możesz użyć:

["text", "audio"]

Tablica: ciąg